تاریخ انتشار : یکشنبه 23 آبان 1400 - 22:47
کد خبر : 11802

«عملیات فریب»؛ جهان با این‌همه داده‌های دیجیتال چه می‌کند؟

«عملیات فریب»؛ جهان با این‌همه داده‌های دیجیتال چه می‌کند؟

در قرون‌وسطی زمانی که کاغذ نشانه ثروت شمرده می شد و کتاب در صومعه ها حبس شده بود؛ دانش بسیار ارزش داشت و ایجاد آن بسیار هزینه بر محسوب بود.   در حال حاضر ایجاد محتوا بسیار ارزان شده است. بر اساس برخی برآوردها میزان داده های ذخیره شده روی زمین هر دو سال یک‌بار

در قرون‌وسطی زمانی که کاغذ نشانه ثروت شمرده می شد و کتاب در صومعه ها حبس شده بود؛ دانش بسیار ارزش داشت و ایجاد آن بسیار هزینه بر محسوب بود.

 

در حال حاضر ایجاد محتوا بسیار ارزان شده است. بر اساس برخی برآوردها میزان داده های ذخیره شده روی زمین هر دو سال یک‌بار دو برابر می شود. این بدین معنی است که بشر در ۲۴ ماه آینده به‌اندازه کل تاریخ داده تولید خواهد کرد. آژانس های اطلاعاتی درحالی‌که همیشه مجبور به پیدا کردن سوزن در انبار کاه هستند امروز تعداد این انبارها به‌طور تصاعدی در حال رشد است. برای حفظ ارتباط و ادامه کنشگری در این فضا تحلیلگران اطلاعات باید هم سرعت تحرکات خود را افزایش دهند و اینکه ناگزیرند به جستجوهای خود عمق بخشند.

 

تعداد زیادی شرکت  خصوصی در حوزه شبکه های مجازی فعال هستند و می توانند بنا به درخواست مشتری داده های منابع آزاد را ارزیابی و اطلاعات مورد نیاز را استخراج کنند. شرکت سرمایه‌گذاری   (In-Q-Tel) وابسته به سازمان سیا با تأمین منابع مالی خود توانسته تعداد زیادی از استارت آپ مرتبط با فن آوری های نوین را حمایت کرده و توسعه دهد. بااین‌وجود استقرار و بهره گیری از نوآوری های تکنولوژیک در سازمان های اطلاعاتی همواره با چالش همراه بوده است. ضمن اینکه پیمانکاران متعدد با انگیزه های مالی، سیستم های سفارشی قدیمی، سیاست‌های خرید قدیمی و پر خطر امکان ارتباط با شرکت های نوپا را سخت کرده و بر این چالش ها افزوده است.

 

 

جمع آوری و پردازش تمام داده ها تنها نیمی از نبرد است. عمده اطلاعاتی که جمع آوری می شوند تا زمانی که تحلیلگران به ارزیابی اعتبار آن‌ها اقدام نکنند کارایی نخواهند داشت. با اینکه اعتبارسنجی از اطلاعات منابع مخفی همواره با مشکلاتی همراه بوده؛ این امر در دنیای منابع آزاد مشکلی مضاعف شده است. وبلاگ نویسان،  شهروندان گزارشگر و سایر ارائه‌دهندگان محتوای آنلاین با انگیزه های مختلفی کار می کنند و همین انگیزه متفاوت سبب شده سرعت و تحریک‌پذیری موجود در این حوزه بر صحت و دقت خبر ارجحیت داده شود. در نتیجه میزان اشتباهات نیز افزایش یافته است.

 

به این چالش رو به رشد مشکل به موقع بودن را نیز اضافه کنید. در عصر گوگل زمانی که دسترسی به اطلاعات از فرد تنها به‌اندازه یک کلیک فاصله دارد محتوای منابع آزاد بدون بررسی و تجزیه‌وتحلیل می تواند به ابزاری برای اهداف سوء سیاست‌گذاران تبدیل شود. مشکل زمانی بروز خواهد کرد که سیاست‌گذاران به جای حمایت از ارزیابی دقیق و توجه به اعتبار اطلاعات به تفسیرهای جایگزین و قضاوت عجولانه از تحولات متوسل شوند. تحلیلگران اطلاعات برای حفظ ارتباط و جایگاه خود در این محیط ناگزیرند هم سریع‌تر اقدام کنند و هم اینکه به جستجوهای خود عمق بخشند. رقابت با منابع آزاد همچنین ممکن است فشار بر تحلیل گران جهت تولید ارزیابی های کوتاه‌مدت اطلاعاتی به‌جای تجزیه‌وتحلیل عمیق و قابل اثبات را تشدید نماید. کمبودی که در حال حاضر نیز به‌شدت در این حوزه احساس می شود.

 

در این شرایط تفکیک واقعیت از اخبار جعلی بسیار دشوار خواهد بود. هوش مصنوعی در حال ایجاد یک انقلاب فریب است. اطلاعات نادرست روسیه در آستانه انتخابات ۲۰۱۶ در مقایسه با آنچه امروز  به کمک دیپ فیک و با محتواهای صوتی و تصویری دست‌کاری شده دیجیتال در دسترس قرار گرفته غیر قابل مقایسه است.

 

امروز محققان تجاری و دانشگاهی تصاویری کاملاً واقعی از افرادی که هیچ‌وقت وجود نداشته اند ارائه می کنند. تیم های دانشگاه استنفورد و دانشگاه واشنگتن هریک از هوش مصنوعی و فن‌آوری همگام سازی لب برای تولید فیلم های عمیق جعلی استفاده کرده اند. برای نمونه ذیل برنامه آن‌ها باراک اوباما جملاتی دارد که به‌واقع امر هرگز آن را بر زبان نرانده است. همانند سایر فن‌آوری ها دسترسی به قوانین و قواعد «دیپ فیک های» ساده نیز به‌سرعت در حال گسترش است. برخی از برنامه ها به اندازه ای آسان هستند که دانش آموزان دبیرستان و بدون سابقه تحصیل در علوم کامپیوتر نیز می توانند از آن‌ها برای تولید جعل های قانع‌کننده استفاده کنند. امروز حتی می توان قدرت محاسباتی بسیار بالایی که برای کاوش های عمیق پیچیده لازم است را با کمترین هزینه به دست آورد.

 

 

درک تبعات واقعی دست‌کاری این فن آوری زیاد طول نخواهد کشید. تصور کنید یک فیلم به ظاهر واقعی را مشاهده می کنید که رهبر یک کشور خارجی را در حال برنامه ریزی برای ساخت مخفیانه سلاح هسته ای نشان می دهد؛ یا اینکه در یک فیلم به ظاهر واقعی یکی از کاندیداهای ریاست جمهوری کودکی را چند روز قبل از انتخابات مورد آزار و اذیت قرار می دهد. انکار آن‌ها طبیعتاً بسیار سخت خواهد بود. بدین خاطر که به نظر شواهد غیرقابل‌انکاری وجود دارد و دیدن همیشه قابل باورتر و ایمان آورتر از هر چیز دیگر است.

 

آژانس های اطلاعاتی وظیفه سنگینی در افشای جعل های عمیق بر عهده خواهند داشت. با اینکه تشخیص جعل دشواری خاص خود را دارد، اما شناسایی جعل عمیق به لطف یک تکنیک مبتنی بر هوش مصنوعی که در سال ۲۰۱۴ و توسط یکی از مهندسین گوگل ابداع شد به‌مراتب سخت تر شده است. در این روش که به‌عنوان «شبکه مولد تخاصمی» شناخته می شود دو الگوریتم رایانه ای در برابر یکدیگر قرار داده می شود؛ یکی تصاویر را تولید و دیگر تلاش می کند که جعل را شناسایی کند. ازآنجاکه الگوریتم ها در حین رقابت با یکدیگر یاد می گیرند؛ بعید است که آشکارسازهای جعل عمیق مستقل بتواند مدت‌زمانی طولانی به کار خود ادامه دهد. فریب همیشه بخشی از جاسوسی و جنگ بوده اما در وضعیت فعلی گستره، سرعت و دقت آن بسیار افزایش یافته است.

 

منبع: فارین افیرز

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

مداد مشکی

کسب‌وکار
تبلیغات