آیا هوش مصنوعی قدرت نابودی بشر را دارد؟
پژوهشگران و افراد سرشناس حوزه هوش مصنوعی هشدار دادهاند که این فناوری میتواند در آینده به تهدید بزرگی برای نابودی انسان تبدیل شود.
به گزارش جهان صنعت نیوز، ماه گذشته صدها نفر از افراد سرشناس در دنیای AI نامه سرگشادهای امضا کردند که دربردارنده هشدار در مورد احتمال نابودی بشریت به دست هوش مصنوعی است.
متن بیانیه تکجملهای در این نامه به شرح زیر است:
«کاهش خطر نابودی بشریت به دست هوش مصنوعی باید همچون مقابله با سایر خطرات جدی جهانی مثل پاندمیهای ویروسهای مختلف و جنگ هستهای، در اولویت قرار بگیرد.»
این نامه دربردارنده جدیدترین هشدارهای شوم در مورد هوش مصنوعی بوده که بهطور قابلتوجهی به جزئیات این موضوع نیز پرداخته است. با توجه به اینکه امروزه AI نمیتواند انسان را نابود کند و تنها در برخی از موارد او را تهدید میکند، چرا افرادی که بیشترین اطلاعات را در مورد هوش مصنوعی دارند، اینچنین در مورد آن نگران هستند؟
هوش مصنوعی میتواند کمر به نابودی انسان ببندد
کسندرا، شرکت فعال در حوزه فناوری، معتقد است روزی دولتها، شرکتها و پژوهشگران مستقل میتوانند از سیستمهای قوی AI برای مدیریت موارد مختلف استفاده کنند؛ از تجارت گرفته تا رفاه. این سیستمها توانایی انجام کارهایی را دارند که ما نمیخواهیم آنها را انجام دهند. اگر انسان بخواهد در کار چنین سیستمهایی دخالت یا فعالیت آنها را متوقف کند، این سیستمها میتوانند برای ادامه فعالیت خود به هر قیمتی مقابل انسان بایستند یا حتی کمر به نابودی او ببندند.
«یوشوآ بنجیو» (Yoshua Bengio)، استاد دانشگاه و پژوهشگر حوزه AI از دانشگاه مونترآل، در مورد خطر نابودی بشر به دست هوش مصنوعی اینچنین گفته است:
«سیستمهای کنونی تهدیدی برای انقراض بشر نیستند؛ اما در ۱ یا ۲ یا ۵ سال آینده وضعیت چگونه خواهد شد؟ در این مورد تردیدهای زیادی وجود دارد. مسئله این است که آیا میتوانیم تضمین کنیم این سیستمها در آینده هم بهجایی نمیرسند که فاجعهبار شوند یا خیر.»
هوشمند مصنوعی چقدر قدرت دارد؟
ممکن است شرکتها، سیستمهای هوش مصنوعی را بیشتر و بیشتر مستقل کرده و آنها را به زیرساختهای حیاتی مثل شبکههای برقرسانی، بازارهای سهام و سلاحهای نظامی متصل کنند. درصورت رخدادن چنین اتفاقی، مشکلات از همان زمان شروع میشوند.
طی همین چند سال گذشته، بهنظر نمیرسید متخصصان رخدادن چنین اتفاقی را محتمل بدانند؛ اما زمانی که شرکتهایی مثل OpenAI مدلهای هوش مصنوعی بسیار پیشرفتهای عرضه کردند، معلوم شد اگر شرکتهای هوش مصنوعی با این سرعت به پیشرفتهای مختلف دست یابند، ممکن است شاهد این اتفاق باشیم.
«آنتونی آگیره»، کیهانشناس در دانشگاه کالیفرنیا و بنیانگذار مؤسسه آینده فیوچر اف لایف (Future of Life)، یکی از مؤسسات فعال در ارائه نامه مذکور در ابتدای مقاله، در مورد خطر نابودی بشریت به دست هوش مصنوعی اینچنین گفته است:
«هوش مصنوعی در آینده میتواند نماینده انسان باشد و با افزایش استقلال خود به جایی برسد که توانایی تصمیمگیری و تفکر را از انسانهای کنونی و مؤسسات در حال اداره توسط انسانها بگیرد.»
برخی دانشمندان خطر نابودی بشر را مضحک میدانند
در برخی از موارد واضح است سیستم بزرگی که جامعه و اقتصاد را اداره میکند، واقعاً نه تحت کنترل انسان است و نه میتوان آن را متوقف کرد. درصورتیکه چنین اتفاقی رخ دهد، شاید فعالیت شرکتهای بیشماری با تعدادی بیش از شرکتهای ثبتشده در فهرست S&P 500، متوقف شود. البته بسیاری از متخصصان چنین فرضیهای را مضحک میدانند.
«اورن اتزوینی»، مؤسس و مدیر اجرایی مؤسسه هوش مصنوعی آلن (Allen Institute for AI)، آزمایشگاهی پژوهشی در سیاتل، در مورد این موضوع اینچنین گفته است:
«بیان فرضیه گمانی، روشی مؤدبانه برای اظهارنظرم در مورد خطر نابودی بشر توسط AI است.»
هوش مصنوعی چگونه پیشرفت میکند؟
پژوهشگران درحال تبدیل چتباتهایی مثل ChatGPT به سیستمهایی هستند که میتوانند براساس متونی که خود تولید میکنند، کارهایی را انجام دهند. پروژه AutoGPT مثال بارزی از این رویکرد است. مثلاً میتوان اهدافی مثل «تأسیس یک شرکت» یا «کسب درآمد» را برای چنین سیستمی مشخص کرد. در مرحله بعدی، سیستمْ جستجوی خود را برای روشهای دستیابی به این اهداف آغاز میکند و ادامه میدهد؛ مخصوصاً اگر به سایر سرویسهای اینترنتی متصل باشد.
سیستمی مثل AutoGPT میتواند نرمافزار کامپیوتر ایجاد کند و اگر پژوهشگران دسترسی آن به یک سرور کامپیوتری را فراهم کنند، حتی از عهده اجرای آن نرمافزارها نیز برمیآید. این سیستم پیشرفته با چنین روشی میتواند تقریباً هر کاری را آنلاین انجام دهد که شامل بازیابی اطلاعات، استفاده از اپلیکیشنها، ایجاد اپلیکیشنهای جدید و حتی تقویت تواناییهای خودش میشود.
سیستمهایی مثل AutoGPT اکنون عملکرد خوبی ندارند و معمولاً در یک دور باطل و بینهایت گیر میکنند. مدتی پیش محققان به یک سیستم تمام منابع موردنیاز برای توسعه را دادند، اما آن سیستم موفق به انجام این کار نشد؛ البته با گذشت زمان میتوان تمام این محدودیتها را برطرف کرد.
هوش مصنوعی میتواند خود را تقویت کند
«کانر لیهی»، مؤسس کانجکچر (Conjecture)، شرکتی که قصد دارد فناوریهای هوش مصنوعی را با ارزشهای انسانی همتراز کند، در مورد این موضوع اینچنین گفته است: «پژوهشگران بهطور جدی درحال تلاش برای ساخت سیستمهایی هستند که بتوانند خودشان را تقویت کنند. درحالحاضر چنین تلاشی جواب نمیدهد؛ اما روزی که نمیدانیم کی فرا میرسد، به نتیجه خواهد رسید.»
او معتقد است تعیین اهدافی مثل کسب درآمد برای این سیستمها از سوی پژوهشگران، شرکتها و مجرمان میتواند منجر به اتفاقاتی مثل دستبرد به بانکها، زمینهسازی انقلاب در کشورهای نفتخیز و تصاحب معاملات آتی نفتی یا تکثیر خودشان در زمان تلاش انسانها برای توقف فعالیت آنها شود.
سیستمهای AI مانند ChatGPT براساس شبکههای عصبی ساخته میشوند. این شبکهها درحقیقت یکسری سیستم ریاضی با قابلیت فراگیری مهارتها براساس تحلیل دادهها هستند.
رفتارهای غیرمنتظره چگونه امکان پذیر است؟
در سال ۲۰۱۸، شرکتهایی مثل گوگل و Open AI ساخت یکسری شبکه عصبی را آغاز کردند که با استفاده از اطلاعات جمعآوریشده از اینترنت، آموزش داده میشدند. این سیستمها با مشخصکردن الگوها در این دادهها یاد میگیرند محتواهایی مثل مقاله، شعر، نرمافزارهای کامپیوتری و مکالمات انسانی را خودشان بنویسند. نتیجه این کار ایجاد سیستمهایی مثل ChatGPT است. این سیستمها میتوانند از اطلاعاتی که اختیار دارند، چیزهای بیشتری یاد بگیرند. حتی ممکن است رفتارهای غیرمنتظرهای را هم از این سیستمها ببینیم.
پژوهشگران بهتازگی اعلام کردهاند که متوجه وجود سیستمی شدهاند که میتوانسته برای انجام یک آزمایش تشخیص ربات یا انسان بودن کاربر، انسانی را به خدمت بگیرد و اگر فردی از او میپرسیده، ربات است یا خیر، دروغ میگفته و خود را انسانی با مشکل بینایی معرفی میکرده است.
برخی از متخصصان نگران این هستند که پژوهشگران در حین تقویت چنین سیستمهایی، آنها را با حجم فزایندهای از دادهها آموزش دهند و همین رویکرد باعث شود بیشتر رفتارهای بد را یاد بگیرند.
هشدارهای جدید از کجا نشات میگیرد؟
گفتههای پژوهشگران پیشتاز در حوزه AI و همچنین افراد سرشناس این صنعت که از مدتها پیش در مورد آن هشدار دادهاند، منشأ این هشدارهای جدید است. این نامه سرگشاده توسط «سم آلتمن»، مدیرعامل OpenAI و همچنین «دمیس هاسابیس» که به تأسیس Deepmind کمک کرده و اکنون نظارت بر یک آزمایشگاه جدید را بر عهده گرفته (که قرار است برجستهترین پژوهشگران حوزه هوش مصنوعی از Deepmind و گوگل در آن مشغول به کار شوند)، امضا شده است.
دیگر چهرههای سرشناس این حوزه، یعنی دکتر بنجیو و جفری هینتون که بهتازگی بهعنوان مدیر اجرایی و پژوهشگر در گوگل مشغول به کار شده است نیز یک یا دو نامه هشداردهنده را امضا کردهاند. این دو نفر در سال ۲۰۱۸ بهدلیل کار روی شبکههای عصبی موفق به دریافت جایزه تورینگ شدهاند که معمولاً جایزه نوبل کامپیوتر نامیده میشود.
منبع: دیجیاتو
دانش و فناوریلینک کوتاه :