آیا هوش مصنوعی قدرت نابودی بشر را دارد؟

پژوهشگران و افراد سرشناس حوزه هوش مصنوعی هشدار داده‌اند که این فناوری می‌تواند در آینده به تهدید بزرگی برای نابودی انسان‌ تبدیل شود.

به گزارش جهان صنعت نیوز، ماه گذشته صدها نفر از افراد سرشناس در دنیای AI نامه سرگشاده‌ای امضا کردند که دربردارنده هشدار در مورد احتمال نابودی بشریت به دست هوش مصنوعی است.

متن بیانیه تک‌جمله‌ای در این نامه به شرح زیر است:

«کاهش خطر نابودی بشریت به دست هوش مصنوعی باید همچون مقابله با سایر خطرات جدی جهانی مثل پاندمی‌های ویروس‌های مختلف و جنگ هسته‌ای، در اولویت قرار بگیرد.»

این نامه دربردارنده جدیدترین هشدارهای شوم در مورد هوش مصنوعی بوده که به‌طور قابل‌توجهی به جزئیات این موضوع نیز پرداخته است. با توجه به اینکه امروزه AI نمی‌تواند انسان را نابود کند و تنها در برخی از موارد او را تهدید می‌کند، چرا افرادی که بیشترین اطلاعات را در مورد هوش مصنوعی دارند، این‌چنین در مورد آن نگران هستند؟

هوش مصنوعی می‌تواند کمر به نابودی انسان ببندد

کسندرا، شرکت فعال در حوزه فناوری، معتقد است روزی دولت‌ها، شرکت‌ها و پژوهشگران مستقل می‌توانند از سیستم‌های قوی AI برای مدیریت موارد مختلف استفاده کنند؛ از تجارت گرفته تا رفاه. این سیستم‌ها توانایی انجام کارهایی را دارند که ما نمی‌خواهیم آن‌ها را انجام دهند. اگر انسان بخواهد در کار چنین سیستم‌هایی دخالت یا فعالیت آن‌ها را متوقف کند، این سیستم‌ها می‌توانند برای ادامه فعالیت خود به هر قیمتی مقابل انسان بایستند یا حتی کمر به نابودی او ببندند.

«یوشوآ بنجیو» (Yoshua Bengio)، استاد دانشگاه و پژوهشگر حوزه AI از دانشگاه مونترآل، در مورد خطر نابودی بشر به دست هوش مصنوعی این‌‌چنین گفته است:

«سیستم‌های کنونی تهدیدی برای انقراض بشر نیستند؛ اما در ۱ یا ۲ یا ۵ سال آینده وضعیت چگونه خواهد شد؟ در این مورد تردیدهای زیادی وجود دارد. مسئله این است که آیا می‌توانیم تضمین کنیم این سیستم‌ها در آینده هم به‌جایی نمی‌رسند که فاجعه‌بار شوند یا خیر.»

هوشمند مصنوعی چقدر قدرت دارد؟

ممکن است شرکت‌ها، سیستم‌های هوش مصنوعی را بیشتر و بیشتر مستقل کرده و آن‌ها را به زیرساخت‌های حیاتی مثل شبکه‌های برق‌رسانی، بازارهای سهام و سلاح‌های نظامی متصل کنند. درصورت رخ‌دادن چنین اتفاقی، مشکلات از همان زمان شروع می‌شوند.

طی همین چند سال گذشته، به‌نظر نمی‌رسید متخصصان رخ‌دادن چنین اتفاقی را محتمل بدانند؛ اما زمانی که شرکت‌هایی مثل OpenAI مدل‌های هوش مصنوعی بسیار پیشرفته‌ای عرضه کردند، معلوم شد اگر شرکت‌های هوش مصنوعی با این سرعت به پیشرفت‌های مختلف دست یابند، ممکن است شاهد این اتفاق باشیم.

«آنتونی آگیره»، کیهان‌شناس در دانشگاه کالیفرنیا و بنیان‌گذار مؤسسه آینده فیوچر اف لایف (Future of Life)، یکی از مؤسسات فعال در ارائه نامه مذکور در ابتدای مقاله، در مورد خطر نابودی بشریت به دست هوش مصنوعی این‌چنین گفته است:

«هوش مصنوعی در آینده می‌تواند نماینده انسان باشد و با افزایش استقلال خود به جایی برسد که توانایی تصمیم‌گیری و تفکر را از انسان‌های کنونی و مؤسسات در حال اداره توسط انسان‌ها بگیرد.»

برخی دانشمندان خطر نابودی بشر را مضحک می‌دانند

در برخی از موارد واضح است سیستم بزرگی که جامعه و اقتصاد را اداره می‌کند، واقعاً نه تحت کنترل انسان است و نه می‌توان آن را متوقف کرد. درصورتی‌که چنین اتفاقی رخ دهد، شاید فعالیت شرکت‌های بی‌شماری با تعدادی بیش از شرکت‌های ثبت‌شده در فهرست S&P 500، متوقف شود. البته بسیاری از متخصصان چنین فرضیه‌ای را مضحک می‌دانند.

«اورن اتزوینی»، مؤسس و مدیر اجرایی مؤسسه هوش مصنوعی آلن (Allen Institute for AI)، آزمایشگاهی پژوهشی در سیاتل، در مورد این موضوع این‌چنین گفته است:

«بیان فرضیه گمانی، روشی مؤدبانه برای اظهارنظرم در مورد خطر نابودی بشر توسط AI است.»

هوش مصنوعی چگونه پیشرفت می‌کند؟

پژوهشگران درحال تبدیل چت‌بات‌هایی مثل ChatGPT به سیستم‌هایی هستند که می‌توانند براساس متونی که خود تولید می‌کنند، کارهایی را انجام دهند. پروژه AutoGPT مثال بارزی از این رویکرد است. مثلاً می‌توان اهدافی مثل «تأسیس یک شرکت» یا «کسب درآمد» را برای چنین سیستمی مشخص کرد. در مرحله بعدی، سیستمْ جستجوی خود را برای روش‌های دستیابی به این اهداف آغاز می‌کند و ادامه می‌دهد؛ مخصوصاً اگر به سایر سرویس‌های اینترنتی متصل باشد.

سیستمی مثل AutoGPT می‌تواند نرم‌افزار کامپیوتر ایجاد کند و اگر پژوهشگران دسترسی آن به یک سرور کامپیوتری را فراهم کنند، حتی از عهده اجرای آن نرم‌افزارها نیز برمی‌آید. این سیستم پیشرفته با چنین روشی می‌تواند تقریباً هر کاری را آنلاین انجام دهد که شامل بازیابی اطلاعات، استفاده از اپلیکیشن‌ها، ایجاد اپلیکیشن‌های جدید و حتی تقویت توانایی‌های خودش می‌شود.

سیستم‌هایی مثل AutoGPT اکنون عملکرد خوبی ندارند و معمولاً در یک دور باطل و بی‌نهایت گیر می‌کنند. مدتی پیش محققان به یک سیستم تمام منابع موردنیاز برای توسعه را دادند، اما آن سیستم موفق به انجام این کار نشد؛ البته با گذشت زمان می‌توان تمام این محدودیت‌ها را برطرف کرد.

هوش مصنوعی می‌تواند خود را تقویت کند

«کانر لیهی»، مؤسس کانجکچر (Conjecture)، شرکتی که قصد دارد فناوری‌های هوش مصنوعی را با ارزش‌های انسانی هم‌تراز کند، در مورد این موضوع این‌چنین گفته است: «پژوهشگران به‌طور جدی درحال تلاش برای ساخت سیستم‌هایی هستند که بتوانند خودشان را تقویت کنند. درحال‌حاضر چنین تلاشی جواب نمی‌دهد؛ اما روزی که نمی‌دانیم کی فرا می‌رسد، به نتیجه خواهد رسید.»

او معتقد است تعیین اهدافی مثل کسب درآمد برای این سیستم‌ها از سوی پژوهشگران، شرکت‌ها و مجرمان می‌تواند منجر به اتفاقاتی مثل دستبرد به بانک‌ها، زمینه‌سازی انقلاب در کشورهای نفت‌خیز و تصاحب معاملات آتی نفتی یا تکثیر خودشان در زمان تلاش انسان‌ها برای توقف فعالیت آن‌ها شود.

سیستم‌های AI مانند ChatGPT براساس شبکه‌های عصبی ساخته می‌شوند. این شبکه‌ها درحقیقت یک‌سری سیستم ریاضی با قابلیت فراگیری مهارت‌ها براساس تحلیل داده‌ها هستند.

رفتارهای غیرمنتظره چگونه امکان پذیر است؟

در سال ۲۰۱۸، شرکت‌هایی مثل گوگل و Open AI ساخت یک‌سری شبکه عصبی را آغاز کردند که با استفاده از اطلاعات جمع‌آوری‌شده از اینترنت، آموزش داده می‌شدند. این سیستم‌ها با مشخص‌کردن الگوها در این داده‌ها یاد می‌گیرند محتواهایی مثل مقاله، شعر، نرم‌افزارهای کامپیوتری و مکالمات انسانی را خودشان بنویسند. نتیجه این کار ایجاد سیستم‌هایی مثل ChatGPT است. این سیستم‌ها می‌توانند از اطلاعاتی که اختیار دارند، چیزهای بیشتری یاد بگیرند. حتی ممکن است رفتارهای غیرمنتظره‌ای را هم از این سیستم‌ها ببینیم.

پژوهشگران به‌تازگی اعلام کرده‌اند که متوجه وجود سیستمی شده‌اند که می‌توانسته برای انجام یک آزمایش تشخیص ربات یا انسان بودن کاربر، انسانی را به خدمت بگیرد و اگر فردی از او می‌پرسیده، ربات است یا خیر، دروغ می‌گفته و خود را انسانی با مشکل بینایی معرفی می‌کرده است.

برخی از متخصصان نگران این هستند که پژوهشگران در حین تقویت چنین سیستم‌هایی، آن‌ها را با حجم فزاینده‌ای از داده‌ها آموزش دهند و همین رویکرد باعث شود بیشتر رفتارهای بد را یاد بگیرند.

هشدارهای جدید از کجا نشات می‌گیرد؟

گفته‌های پژوهشگران پیشتاز در حوزه AI و همچنین افراد سرشناس این صنعت که از مدت‌ها پیش در مورد آن هشدار داده‌اند، منشأ این هشدارهای جدید است. این نامه سرگشاده توسط «سم آلتمن»، مدیرعامل OpenAI و همچنین «دمیس هاسابیس» که به تأسیس Deepmind کمک کرده و اکنون نظارت بر یک آزمایشگاه جدید را بر عهده گرفته (که قرار است برجسته‌ترین پژوهشگران حوزه هوش مصنوعی از Deepmind و گوگل در آن مشغول به کار شوند)، امضا شده است.

دیگر چهره‌های سرشناس این حوزه، یعنی دکتر بنجیو و جفری هینتون که به‌تازگی به‌عنوان مدیر اجرایی و پژوهشگر در گوگل مشغول به کار شده است نیز یک یا دو نامه هشداردهنده را امضا کرده‌اند. این دو نفر در سال ۲۰۱۸ به‌دلیل کار روی شبکه‌های عصبی موفق به دریافت جایزه تورینگ شده‌اند که معمولاً جایزه نوبل کامپیوتر نامیده می‌شود.

منبع: دیجیاتو

دانش و فناوری
شناسه : 357673
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا