۱۰ واقعیت تهدیدزا درباره هوش مصنوعی

به گزارش ایران مامن، از شهروندان عادی گرفته تا دولتها، بنگاههای اقتصادی و رسانهای، شرکتهای ریز و درشت حوزههای گوناگون تکنولوژی و حتی غولهای فناوری عملا پرچم سفید را برابر توسعه هوش مصنوعی بالاگرفتهاند و مساله آنها فقط سرعت همگامی و پذیرش است.
چند روز پیش رسانهها خبر دادند شرکت مایکروسافت دکمه ای به صفحه کلید ویندوز برای فعال کردن سرویس هوش مصنوعی کوپایلوت (AI Copilot) خود اضافه میکند و نخستین دستگاه ها با این دکمه جدید، به زودی عرضه میشوند.
تعداد زیادی از سازمانها به طور ارادی و غیرارادی در جریان ادغام روزافزون هوش مصنوعی در جریان کارها، فرایندها و عملیات تجاری خود هستند. شاید از همین منظر است که از مدتها قبل هوش مصنوعی به عنوان یک «تهدید جایگزین» در جهان مطرح شده است.
استفاده از دادهها در برنامههایی نظیر چتباتهای مبتنی بر هوش مصنوعی مانند «چت جی پی تی» و «گوگل بارد» نگرانیها در این رابطه را در حد قابل توجهی برانگیزانده است. ادغام فزاینده هوش مصنوعی در عملیات روزمره، تهدیدات را تقویت میکند، به خصوص با توجه به رابطه ای که بین کاربر و فناوری ایجاد می شود.
در این میان مخاطرات مرتبط با «مدلهای زبان بزرگ» از اهمیت خاصی برخوردار هستند. به عبارتی دیگر، مدلهای زبان بزرگ (LLMs) که برای بهبود نتایج جستجو و سایر قابلیتها از شبکههای عصبی استفاده میکنند، در مرکز این نگرانیها قرار دارند.
فناوری مدل های زبانی بزرگ (LLM) در پشت صحنه تمام رباتهای گفتگو محور، نقش فعالی را ایفا میکند. LLM یک الگوریتم هوش مصنوعی است که با کمک فناوری یادگیری عمیق و مجموعه بسیار بزرگی از دادهها میآموزد و مملو از شبکههای عصبی مصنوعی است که از طریق متون بدون برچسب آموزش میبینند.
با توجه به اینکه این مدلها با مقدار فزایندهای از دادهها تعامل میکنند، حتی پرسشهای به ظاهر عادی و غیرآزاردهنده میتوانند به افزایش مخاطرات و تهدیدات منجر شوند. در این فضا اطلاعات محرمانه اغلب وارد این LLMs عمومی میشوند، که مسائل امنیتی طولانی مدت ایجاد میکند.
به عنوان مثال، گزارشی از شرکت امنیت سایبری Cyberhaven نشان میدهد که افراد غیرمجاز ممکن است بتوانند از طریق تعامل با چتباتها به استراتژیهای حساس شرکت یا تاریخچههای پزشکی دسترسی پیدا کنند.
در پاسخ به این ریسکها و مخاطرات شرکتها دستورالعملهایی را منتشر کرده اند تا از سوء استفاده از اطلاعات محرمانه از طریق ابزارهای هوش مصنوعی جلوگیری کنند. با این حال، گزینهها از دیدگاه محافظتهای امنیتی بسیار محدود هستند. شرکتهای بزرگی مانند J.P. Morgan Chase، Verizon و Amazon دسترسی به فناوری را مسدود کرده یا هشدارهایی به کارکنان خود در مورد ورود دادههای شرکت به این سیستمها دادهاند.
با وجود این نگرانیهای امنیتی، استفاده از ابزارهای مبتنی بر هوش مصنوعی رشد خیره کننده ای را شاهد بوده است. گفتنی است بلافاصله پس از راهاندازی چت جی پی تی بیش از ۱۰۰ میلیون کاربر فعال ماهیانه جذب این سیستم شد.
در بخش دولتی، چتباتها یک رابط مشترک برای شهروندان شدهاند که شهرهایی مانند لس آنجلس را تشویق کرده تا هوش مصنوعی را بیشتر در عملکردهای دولتی ادغام کند.
افزایش استفاده از هوش مصنوعی با نگرانی توسط متخصصان دنبال می شود. با استفاده بیشتر از AI و LLMs و ترویج اطلاعات غلط، دموکراسیهای بزرگ تر نیز میتوانند بسیار آسیب پذیر شوند. در رابطه تهدیدات هوش مصنوعی برخی سازمان ها ایده هایی را مطرح کرده اند که در ادامه به ۱۰ مورد آن اشاره شده است:
- هوش مصنوعی به طور فزایندهای در گردش کارها، فرآیندها و عملیات تجاری مختلف، از جمله چتباتهای مبتنی بر AI مانند ChatGPT و Google Bard ادغام میشود. این موضوع قطعاً می تواند تبعات مختلفی از جمله تبعات امنیتی داشته باشد.
- استفاده از مدلهای زبان بزرگ (LLMs) و AI، ریسکهای فزایندهای به همراه به خصوص با استفاده از دادههای حساس برای بهبود این مدلها.
- اطلاعات خصوصی، حساس یا محرمانه اغلب وارد LLMs عمومی میشوند که مشکل طولانی مدتی برای سازمانها ایجاد میکند.
- گزارش Cyberhaven نشان داد که بیش از ۱۰ درصد از کارکنان ارزیابی شده در محل کار از ChatGPT استفاده کردهاند و تقریباً ۹ درصد دادههای شرکت خود را در چتباتها کپی کردهاند.
- افراد غیرمجاز ممکن است با تعامل با چتباتها به دادههای حساس دسترسی پیدا کنند؛ اقدامی که بدون تردید تهدید بالقوهای برای زیرساختهای حیاتی میتواند ایجاد کند.
- شرکتها دستورالعملهایی را منتشر میکنند تا از سوء استفاده از اطلاعات محرمانه از طریق ابزارهای AI جلوگیری کنند، اما گزینههای موثر محافظت در حال حاضر بسیار محدود هستند.
- برخی از شرکتهای بزرگ به دلیل این نگرانیها دسترسی به برخی از فناوریهای AI را مسدود کردهاند.
- استفاده از جستجوهای مبتنی بر AI، مانند ChatGPT از OpenAI، رشد بسیار شدیدی را تجربه کرده است.
- در بخش دولتی، چتباتها برای وظایف متنوعی استفاده میشوند و به عنوان روشی برای بهبود کارایی تلقی میشوند. در صورتی که لزوما این نیست.
- در دسترس بودن گسترده LLMs میتواند منجر به تغییر داده، انتشار اطلاعات غلط و اشتباهات رایج شود، که ریسکهای مرتبط با هوش مصنوعی را تشدید میکند.
برچسب ها :LLM ، ایران مامن ، بین الملل ، تکنولوژی ، جهان ، چت جی پی تی ، فضای مجازی ، فناوری ، مایکروسافت ، هوش مصنوعی
- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0