AD

سه ترس بزرگ در مورد هوش مصنوعی

0 110

هشدارها در مورد خطرات بالقوه هوش مصنوعی پیشرفته در ماه‌های اخیر افزایش یافته است. برخی از این اظهارات مبهم هستند و کارشناسان در مورد اینکه دقیقاً خطرات اصلی چیست، اختلاف نظر دارند. در این مقاله به برخی از تهدیدات بالقوه هوش مصنوعی پیشرفته و سه ترس بزرگ در مورد هوش مصنوعی، نحوه تفکر در مورد خطرات پرداخته می‌شود.

“هوش مصنوعی به اندازه جنگ هسته‌ای و همه گیری‌های جهانی خطرناک است”

سه ترس بزرگ در مورد هوش مصنوعی

این گفته بر اساس آخرین هشدار صادر شده توسط مرکز ایمنی هوش مصنوعی (CAIS) است. این بیانیه توسط بازیگران اصلی صنعت هوش مصنوعی از جمله سم آلتمن، رئیس OpenAI خالق ChatGPT پشتیبانی می‌شود.

این هشدار یکی از موارد متعددی است که در ماه‌های اخیر صادر شده است. برخی از سازندگان اولیه این فناوری ادعا می‌کنند که ما در حال تلاش برای نابودی بشریت هستیم، در حالی که برخی دیگر هشدار می‌دهند که به شدت قوانینی مورد نیاز است.

برخی از این اظهارات باعث شده است که مردم برای درک این ادعاهای اغراق آمیز در تلاش باشند.

دیوید کروگر، کارشناس هوش مصنوعی و استادیار دانشگاه کمبریج، گفت که اگرچه افراد ممکن است در مورد خطر وجودی هوش مصنوعی سناریوهای مشخصی را بخواهند، اما هنوز هم اشاره کردن به این سناریوها با هر درجه‌ای از قطعیت دشوار است.

او به اینسایدر گفت: نگران نیستم زیرا یک تهدید قریب الوقوع وجود دارد به این معنا که می‌توانم دقیقاً ببینم تهدید چیست. اما فکر می‌کنم ما زمان زیادی برای آماده شدن برای تهدیدات احتمالی آینده را نداریم.

با در نظر گرفتن این موضوع، در اینجا برخی از مسائل بالقوه‌ای که کارشناسان نگران آن هستند آورده شده است.

تصاحب قدرت توسط هوش مصنوعی

سه ترس بزرگ در مورد هوش مصنوعی

یکی از رایج ترین خطراتی که به آن اشاره می‌شود این است که هوش مصنوعی از کنترل سازنده خود خارج شود.

هوش مصنوعی عمومی (Artificial general intelligence) که به اختصار (AGI)  نامیده می‌شود به هوش مصنوعی اطلاق می‌شود که در طیف گسترده‌ای از وظایف، باهوش‌تر از انسان‌ها است. سیستم‌های هوش مصنوعی فعلی حساس نیستند، اما آنها برای شبیه‌ شدن به انسان‌ها ساخته شده‌اند. جانیس وونگ (Janis Wong) از موسسه آلن تورینگ گفت، به عنوان مثال، ChatGPT  ساخته شده است تا به کاربران این احساس را بدهد که دارند با شخص دیگری چت می‌کنند.

آرون موک از Insider گزارش داد که کارشناسان در مورد چگونگی تعریف دقیق AGI اختلاف نظر دارند، اما به طور کلی موافق هستند که این فناوری بالقوه خطراتی را برای بشریت ایجاد می‌کند که نیاز به تحقیق و تنظیم دارد.

همچنین بخوانید: ایجاد تصویر توسط هوش مصنوعی مانند انسان

کروگر گفت بارزترین نمونه از این خطرات رقابت نظامی بین کشورهاست.

او گفت: رقابت نظامی با سلاح‌های خودمختار یعنی سیستم‌هایی که از نظر طراحی می‌توانند بر دنیای فیزیکی تأثیر بگذارند و آسیب‌رسانی کنند؛ واضح‌ است که چگونه چنین سیستم‌هایی می‌توانند منجر به کشته شدن افراد زیادی شوند.

او می‌گوید: یک سناریوی جنگی کامل با هوش مصنوعی در آینده‌ای که ما سیستم‌های پیشرفته‌تری هوشمندتر از افراد داریم، قابل تصور است و به احتمال زیاد سیستم‌ها از کنترل خارج شوند و ممکن است در نتیجه همه را بکشند.

بیکاری گسترده به واسطه بکارگیری هوش مصنوعی

سه ترس بزرگ در مورد هوش مصنوعی

توافق زیادی بر این مساله وجود دارد که هوش مصنوعی تهدیدی برای برخی مشاغل است.

آبیشک گوپتا (Abhishek Gupta)، بنیانگذار مؤسسه AI Ethics مونترال، گفت که چشم انداز از دست دادن شغل ناشی از هوش مصنوعی «واقعی ترین، فوری ترین و شاید مبرم ترین» تهدید است.

او به اینسایدر گفت: ما باید در مورد فقدان هدفی که مردم در از دست دادن شغل احساس می‌کنند، فکر کنیم. بخش مهم موضوع این است که مردم قرار است چه کاری انجام دهند؟

او افزود: این به این معنا نیست که کار همه چیز است، اما بخش مهمی از زندگی ما است.

در سطح مدیریتی اقداماتی برای پیشبرد برنامه‌ها با استفاده از هوش مصنوعی صورت گرفته است. برای مثال، آرویند کریشنا (Arvind Krishna)، مدیرعامل IBM، اخیراً اعلام کرد که این شرکت استخدام در شغل‌هایی که می‌توانند با هوش مصنوعی جایگزین شوند، با سرعت کمی به پیش می‌برد.

رفتار تبعیض آمیز یا سوگیری توسط هوش مصنوعی

سه ترس بزرگ در مورد هوش مصنوعی

به گفته کارشناسان، اگر سیستم‌های هوش مصنوعی برای کمک به تصمیم‌گیری‌های اجتماعی گسترده‌تر استفاده شوند، سوگیری (تبعیض) سیستماتیک می‌تواند به یک خطر جدی تبدیل شود.

قبلاً چندین نمونه از رفتارهای تبعیض آمیز در سیستم‌های هوش مصنوعی مولد، از جمله نسخه‌های اولیه ChatGPT  وجود داشته است. OpenAI  الگوریتم‌های محافظتی بیشتری اضافه کرده است تا به ChatGPT کمک کند از پاسخ‌های مشکل‌ساز به کاربرانی که از سیستم برای محتوای توهین‌آمیز سوال می‌کنند، فرار کند.

گوپتا گفت، اگر مواردی از سوگیری شناسایی نشده در سیستم‌های هوش مصنوعی وجود داشته باشد که برای تصمیم‌گیری در دنیای واقعی استفاده می‌شود، این می‌تواند عواقب جدی داشته باشد.

به گفته وونگ، داده‌های آموزشی اغلب مبتنی بر داده‌های عمدتاً زبان انگلیسی است و بودجه برای آموزش سایر مدل‌های هوش مصنوعی با زبان‌های مختلف محدود است.

او گفت: بنابراین افراد زیادی هستند که کنار گذاشته شده‌اند یا زبان‌های خاصی مانند سایر زبان‌ها کمتر آموزش می‌بینند.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.