تاریخ انتشار : یکشنبه 17 دی 1402 - 18:26
کد خبر : 20000

۱۰ واقعیت تهدیدزا درباره هوش مصنوعی

۱۰ واقعیت تهدیدزا درباره هوش مصنوعی
تعداد زیادی از سازمان‌ها به طور ارادی و غیرارادی در جریان ادغام روزافزون هوش مصنوعی در جریان کارها، فرایندها و عملیات تجاری خود هستند

به گزارش ایران مامن، از شهروندان عادی گرفته تا دولت‌ها، بنگاه‌های اقتصادی و رسانه‌ای، شرکت‌های ریز و درشت حوزه‌های گوناگون تکنولوژی و حتی غول‌های فناوری عملا پرچم سفید را برابر توسعه هوش مصنوعی بالاگرفته‌اند و مساله آن‌ها فقط سرعت همگامی و پذیرش است.

 

چند روز پیش رسانه‌ها خبر دادند شرکت مایکروسافت دکمه ای به صفحه کلید ویندوز برای فعال کردن سرویس هوش مصنوعی کوپایلوت (AI Copilot) خود اضافه می‌کند و نخستین دستگاه ها با این دکمه جدید، به زودی عرضه می‌شوند.

 

تعداد زیادی از سازمان‌ها به طور ارادی و غیرارادی در جریان ادغام روزافزون هوش مصنوعی در جریان کارها، فرایندها و عملیات تجاری خود هستند. شاید از همین منظر است که از مدت‌ها قبل هوش مصنوعی به عنوان یک «تهدید جایگزین» در جهان مطرح شده است.

 

استفاده از داده‌ها در برنامه‌هایی نظیر چت‌بات‌های مبتنی بر هوش مصنوعی مانند «چت جی پی تی» و «گوگل بارد» نگرانی‌ها در این رابطه را در حد  قابل توجهی برانگیزانده است. ادغام فزاینده هوش مصنوعی در عملیات روزمره، تهدیدات را تقویت می‌کند، به خصوص با توجه به رابطه ای که بین کاربر و فناوری ایجاد می شود.

 

در این میان مخاطرات مرتبط با «مدل‌های زبان بزرگ» از اهمیت خاصی برخوردار هستند. به عبارتی دیگر، مدل‌های زبان بزرگ  (LLMs) که برای بهبود نتایج جستجو و سایر قابلیت‌ها از شبکه‌های عصبی استفاده می‌کنند، در مرکز این نگرانی‌ها قرار دارند.

 

فناوری مدل های زبانی بزرگ (LLM) در پشت صحنه تمام ربات‌های گفتگو محور، نقش فعالی را ایفا می‌کند. LLM یک الگوریتم هوش مصنوعی‌ است که با کمک فناوری یادگیری عمیق و مجموعه بسیار بزرگی از داده‌ها می‌آموزد و مملو از شبکه‌های عصبی مصنوعی است که از طریق متون بدون برچسب آموزش می‌بینند.

 

 

با توجه به اینکه این مدل‌ها با مقدار فزاینده‌ای از داده‌ها تعامل می‌کنند، حتی پرسش‌های به ظاهر عادی و غیرآزاردهنده می‌توانند به افزایش مخاطرات و تهدیدات منجر شوند. در این فضا اطلاعات محرمانه اغلب وارد این LLMs عمومی می‌شوند، که مسائل امنیتی طولانی مدت ایجاد می‌کند.

 

به عنوان مثال، گزارشی از شرکت امنیت سایبری Cyberhaven نشان می‌دهد که افراد غیرمجاز ممکن است بتوانند از طریق تعامل با چت‌بات‌ها به استراتژی‌های حساس شرکت یا تاریخچه‌های پزشکی دسترسی پیدا کنند.

 

در پاسخ به این ریسک‌ها و مخاطرات شرکت‌ها دستورالعمل‌هایی را منتشر کرده اند تا از سوء استفاده از اطلاعات محرمانه از طریق ابزارهای هوش مصنوعی جلوگیری کنند. با این حال، گزینه‌ها از دیدگاه محافظت‌های امنیتی بسیار محدود هستند. شرکت‌های بزرگی مانند J.P. Morgan Chase، Verizon و Amazon دسترسی به فناوری را مسدود کرده یا هشدارهایی به کارکنان خود در مورد ورود داده‌های شرکت به این سیستم‌ها داده‌اند.

 

با وجود این نگرانی‌های امنیتی، استفاده از ابزارهای مبتنی بر هوش مصنوعی رشد خیره کننده ای را شاهد بوده است. گفتنی است بلافاصله پس از راه‌اندازی چت جی پی تی بیش از ۱۰۰ میلیون کاربر فعال ماهیانه جذب این سیستم شد.

 

در بخش دولتی، چت‌بات‌ها یک رابط مشترک برای شهروندان شده‌اند که شهرهایی مانند لس آنجلس را تشویق کرده تا هوش مصنوعی را بیشتر در عملکرد‌های دولتی ادغام کند.

 

افزایش استفاده از هوش مصنوعی با نگرانی توسط متخصصان دنبال می شود. با استفاده بیشتر از AI و LLMs  و ترویج اطلاعات غلط، دموکراسی‌های بزرگ تر نیز می‌توانند بسیار آسیب پذیر شوند. در رابطه تهدیدات هوش مصنوعی برخی سازمان ها ایده هایی را مطرح کرده اند که در ادامه به ۱۰ مورد آن اشاره شده است:

 

  • هوش مصنوعی به طور فزاینده‌ای در گردش کارها، فرآیندها و عملیات تجاری مختلف، از جمله چت‌بات‌های مبتنی بر AI مانند ChatGPT و Google Bard ادغام می‌شود. این موضوع قطعاً می تواند تبعات مختلفی از جمله تبعات امنیتی داشته باشد.

 

  • استفاده از مدل‌های زبان بزرگ (LLMs) و AI، ریسک‌های فزاینده‌ای به همراه به خصوص با استفاده از داده‌های حساس برای بهبود این مدل‌ها.

 

  • اطلاعات خصوصی، حساس یا محرمانه اغلب وارد LLMs عمومی می‌شوند که مشکل طولانی مدتی برای سازمان‌ها ایجاد می‌کند.

 

  • گزارش Cyberhaven نشان داد که بیش از ۱۰ درصد از کارکنان ارزیابی شده در محل کار از ChatGPT استفاده کرده‌اند و تقریباً ۹ درصد داده‌های شرکت خود را در چت‌بات‌ها کپی کرده‌اند.

 

  • افراد غیرمجاز ممکن است با تعامل با چت‌بات‌ها به داده‌های حساس دسترسی پیدا کنند؛ اقدامی که بدون تردید تهدید بالقوه‌ای برای زیرساخت‌های حیاتی می‌تواند ایجاد کند.

 

 

  • شرکت‌ها دستورالعمل‌هایی را منتشر می‌کنند تا از سوء استفاده از اطلاعات محرمانه از طریق ابزارهای AI جلوگیری کنند، اما گزینه‌های موثر محافظت در حال حاضر بسیار محدود هستند.

 

  • برخی از شرکت‌های بزرگ به دلیل این نگرانی‌ها دسترسی به برخی از فناوری‌های AI را مسدود کرده‌اند.

 

  • استفاده از جستجوهای مبتنی بر AI، مانند ChatGPT از OpenAI، رشد بسیار شدیدی را تجربه کرده است.

 

  • در بخش دولتی، چت‌بات‌ها برای وظایف متنوعی استفاده می‌شوند و به عنوان روشی برای بهبود کارایی تلقی می‌شوند. در صورتی که لزوما این نیست.

 

  • در دسترس بودن گسترده LLMs می‌تواند منجر به تغییر داده، انتشار اطلاعات غلط و اشتباهات رایج شود، که ریسک‌های مرتبط با هوش مصنوعی را تشدید می‌کند.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

مداد مشکی

کسب‌وکار
تبلیغات