حفرههای هوش مصنوعی؛ از امنیت تا استخدام
فناوریهای نوین همزمان با ایجاد قابلیتهای فراوان برای ایجاد زندگی راحتتر برای بشر، موجبات تشدید نگرانیها درباره آینده زیست اجتماعی را به همراه خود میآورند. در این میان، فناوری هوش مصنوعی به دلایل مختلف از جایگاهی خاصی برخوردار است. در این زمینه، برخی با انتقاد از بزرگنماییهای صورت گرفته درباره جهان آینده و جایگاه فناوریهایی
فناوریهای نوین همزمان با ایجاد قابلیتهای فراوان برای ایجاد زندگی راحتتر برای بشر، موجبات تشدید نگرانیها درباره آینده زیست اجتماعی را به همراه خود میآورند. در این میان، فناوری هوش مصنوعی به دلایل مختلف از جایگاهی خاصی برخوردار است. در این زمینه، برخی با انتقاد از بزرگنماییهای صورت گرفته درباره جهان آینده و جایگاه فناوریهایی چون هوش مصنوعی در آن، بر این باورند که درباره جهان آینده و توان فناوریهای نوین نباید اغراق شود.
چندی قبل بود که دانشمندان، محققان و بازرگانان برجسته استرالیا برای افتتاحیه اجلاس علوم، فن آوری و تحقیقات دفاعی استرالیا موسوم به (ADSTAR) که به میزبانی گروه علم و فن آوری وزارت دفاع این کشور برگزار شد، در کنار نمایندگانی از کشورهای عضو پیمان اطلاعاتی جاسوسی پنج چشم (شامل کانادا، آمریکا، انگلیس، استرالیا و نیوزلند) و همچنین ژاپن، سنگاپور و کره جنوبی گرد هم آمدند. بحث در رابطه با استفاده از هوش مصنوعی در امور دفاعی یکی از محورهای این نشست بود.
یکی از مواردی که در این نشست به آن پرداخته شد افزایش تبعات گسترش استفاده از هوش مصنوعی بود. به باور شرکتکنندگان در دنیای امنیت اطلاعات مهندسی اجتماعی، بازی یا راه فریب افراد برای افشاء اطلاعات است که میتواند در یک حمله سایبری یا کلاهبرداری مورد استفاده قرار گیرد. این برخلاف این باور عمومی است که تصور میکند هوش مصنوعی هک کردن را سخت می کند. بر اساس این نگاه هوش مصنوعی ضعفهای متعددی دارد.
در همین رابطه «جان مک کارتی» محقق حوزه سایبر و فردی که اصطلاح «هوش مصنوعی» را در دهه ۱۹۵۰ ابداع کرد باور داشت زمانی که بدانیم هوش مصنوعی چگونه کار میکند دیگر هوش مصنوعی نخواهد بود. هوش مصنوعی برای افراد مختلف معنای متفاوتی دارد. اعتماد و اطمینان به هوش مصنوعی میتواند چالشهای زیادی به همراه داشته باشد. هوش مصنوعی هر قدر هم بتواند انسان را تقلید کند توانایی نامحدودی ندارد و از توان اندیشیدن به مانند انسان محروم است.
از این دیدگاه، بیشتر پیادهسازیها به ویژه مدلهای یادگیری ماشینی فقط ساختار بسیار پیچیدهای از روش های آماری هستند که ما از دوران دبیرستان با آن آشنا هستیم. این امر دستگاه را باهوش تر نمیکند بلکه روش کار آنها را صرفاً پیچیده و مبهم می سازد. این امر البته مشکلاتی نیز در خصوص ایمنی و امنیت هوش مصنوعی ایجاد کرده است.
سوگیری در هوش مصنوعی از مدتها قبل مشکلاتی را ایجاد کرده است. برای مثال سیستمهای استخدامی مبتنی بر هوش مصنوعی در شرکت های فن آوری، محدودیت هایی برای زنان وضع کرد. یا اینکه سیستم های پیشبینی جرم مجدد دارای تعصباتی علیه سیاه پوستان بوده است. خوشبختانه رفع این مشکلات در دستور کار محققین و دانشمندان قرار دارد.
باید توجه داشت که امنیت هوش مصنوعی ماهیت متفاوتی دارد. درحالیکه ایمنی هوش مصنوعی با تأثیر تصمیماتی که ممکن است هوش مصنوعی بگیرد سروکار دارد، یک قفل مبتنی بر هوش مصنوعی به ویژگیهای ذاتی یک مدل و اینکه آیا می توان از آن بهره برد مرتبط است. سیستمهای هوش مصنوعی مانند سیستم های سایبری در برابر مهاجمان و دشمنان آسیبپذیر هستند.
برچسب ها :استخدام ، امنیت ، ایران مامن ، پنج چشم ، جامعه ، ربات ، زنان ، علم و فناوری ، فناوری ، فناوری نوین ، هوش مصنوعی
- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0