سه ترس بزرگ در مورد هوش مصنوعی
هشدارها در مورد خطرات بالقوه هوش مصنوعی پیشرفته در ماههای اخیر افزایش یافته است. برخی از این اظهارات مبهم هستند و کارشناسان در مورد اینکه دقیقاً خطرات اصلی چیست، اختلاف نظر دارند. در این مقاله به برخی از تهدیدات بالقوه هوش مصنوعی پیشرفته و سه ترس بزرگ در مورد هوش مصنوعی، نحوه تفکر در مورد خطرات پرداخته میشود.
“هوش مصنوعی به اندازه جنگ هستهای و همه گیریهای جهانی خطرناک است”
این گفته بر اساس آخرین هشدار صادر شده توسط مرکز ایمنی هوش مصنوعی (CAIS) است. این بیانیه توسط بازیگران اصلی صنعت هوش مصنوعی از جمله سم آلتمن، رئیس OpenAI خالق ChatGPT پشتیبانی میشود.
این هشدار یکی از موارد متعددی است که در ماههای اخیر صادر شده است. برخی از سازندگان اولیه این فناوری ادعا میکنند که ما در حال تلاش برای نابودی بشریت هستیم، در حالی که برخی دیگر هشدار میدهند که به شدت قوانینی مورد نیاز است.
برخی از این اظهارات باعث شده است که مردم برای درک این ادعاهای اغراق آمیز در تلاش باشند.
دیوید کروگر، کارشناس هوش مصنوعی و استادیار دانشگاه کمبریج، گفت که اگرچه افراد ممکن است در مورد خطر وجودی هوش مصنوعی سناریوهای مشخصی را بخواهند، اما هنوز هم اشاره کردن به این سناریوها با هر درجهای از قطعیت دشوار است.
او به اینسایدر گفت: نگران نیستم زیرا یک تهدید قریب الوقوع وجود دارد به این معنا که میتوانم دقیقاً ببینم تهدید چیست. اما فکر میکنم ما زمان زیادی برای آماده شدن برای تهدیدات احتمالی آینده را نداریم.
با در نظر گرفتن این موضوع، در اینجا برخی از مسائل بالقوهای که کارشناسان نگران آن هستند آورده شده است.
تصاحب قدرت توسط هوش مصنوعی
یکی از رایج ترین خطراتی که به آن اشاره میشود این است که هوش مصنوعی از کنترل سازنده خود خارج شود.
هوش مصنوعی عمومی (Artificial general intelligence) که به اختصار (AGI) نامیده میشود به هوش مصنوعی اطلاق میشود که در طیف گستردهای از وظایف، باهوشتر از انسانها است. سیستمهای هوش مصنوعی فعلی حساس نیستند، اما آنها برای شبیه شدن به انسانها ساخته شدهاند. جانیس وونگ (Janis Wong) از موسسه آلن تورینگ گفت، به عنوان مثال، ChatGPT ساخته شده است تا به کاربران این احساس را بدهد که دارند با شخص دیگری چت میکنند.
آرون موک از Insider گزارش داد که کارشناسان در مورد چگونگی تعریف دقیق AGI اختلاف نظر دارند، اما به طور کلی موافق هستند که این فناوری بالقوه خطراتی را برای بشریت ایجاد میکند که نیاز به تحقیق و تنظیم دارد.
همچنین بخوانید: ایجاد تصویر توسط هوش مصنوعی مانند انسان
کروگر گفت بارزترین نمونه از این خطرات رقابت نظامی بین کشورهاست.
او گفت: رقابت نظامی با سلاحهای خودمختار یعنی سیستمهایی که از نظر طراحی میتوانند بر دنیای فیزیکی تأثیر بگذارند و آسیبرسانی کنند؛ واضح است که چگونه چنین سیستمهایی میتوانند منجر به کشته شدن افراد زیادی شوند.
او میگوید: یک سناریوی جنگی کامل با هوش مصنوعی در آیندهای که ما سیستمهای پیشرفتهتری هوشمندتر از افراد داریم، قابل تصور است و به احتمال زیاد سیستمها از کنترل خارج شوند و ممکن است در نتیجه همه را بکشند.
بیکاری گسترده به واسطه بکارگیری هوش مصنوعی
توافق زیادی بر این مساله وجود دارد که هوش مصنوعی تهدیدی برای برخی مشاغل است.
آبیشک گوپتا (Abhishek Gupta)، بنیانگذار مؤسسه AI Ethics مونترال، گفت که چشم انداز از دست دادن شغل ناشی از هوش مصنوعی «واقعی ترین، فوری ترین و شاید مبرم ترین» تهدید است.
او به اینسایدر گفت: ما باید در مورد فقدان هدفی که مردم در از دست دادن شغل احساس میکنند، فکر کنیم. بخش مهم موضوع این است که مردم قرار است چه کاری انجام دهند؟
او افزود: این به این معنا نیست که کار همه چیز است، اما بخش مهمی از زندگی ما است.
در سطح مدیریتی اقداماتی برای پیشبرد برنامهها با استفاده از هوش مصنوعی صورت گرفته است. برای مثال، آرویند کریشنا (Arvind Krishna)، مدیرعامل IBM، اخیراً اعلام کرد که این شرکت استخدام در شغلهایی که میتوانند با هوش مصنوعی جایگزین شوند، با سرعت کمی به پیش میبرد.
رفتار تبعیض آمیز یا سوگیری توسط هوش مصنوعی
به گفته کارشناسان، اگر سیستمهای هوش مصنوعی برای کمک به تصمیمگیریهای اجتماعی گستردهتر استفاده شوند، سوگیری (تبعیض) سیستماتیک میتواند به یک خطر جدی تبدیل شود.
قبلاً چندین نمونه از رفتارهای تبعیض آمیز در سیستمهای هوش مصنوعی مولد، از جمله نسخههای اولیه ChatGPT وجود داشته است. OpenAI الگوریتمهای محافظتی بیشتری اضافه کرده است تا به ChatGPT کمک کند از پاسخهای مشکلساز به کاربرانی که از سیستم برای محتوای توهینآمیز سوال میکنند، فرار کند.
گوپتا گفت، اگر مواردی از سوگیری شناسایی نشده در سیستمهای هوش مصنوعی وجود داشته باشد که برای تصمیمگیری در دنیای واقعی استفاده میشود، این میتواند عواقب جدی داشته باشد.
به گفته وونگ، دادههای آموزشی اغلب مبتنی بر دادههای عمدتاً زبان انگلیسی است و بودجه برای آموزش سایر مدلهای هوش مصنوعی با زبانهای مختلف محدود است.
او گفت: بنابراین افراد زیادی هستند که کنار گذاشته شدهاند یا زبانهای خاصی مانند سایر زبانها کمتر آموزش میبینند.