آخرالزمان فرارسید ؛ دستوری که جهان را نابود میکند

استفن ویت، نویسنده کتاب «ماشین اندیشنده»، در مقالهای در نیویورک تایمز هشدار میدهد که با ظهور مدلهای پیشرفتهای چون GPT-5، هوش مصنوعی از مرحله فرضیات فلسفی عبور کرده و به نقطهای رسیده که میتواند تهدیدی واقعی برای بقای بشر باشد؛ تهدیدی همتراز با انرژی هستهای در آستانه جنگ جهانی دوم.
جهان صنعت نیوز، در مقالهای در نیویورک تایمز، استفن ویت، نویسنده کتاب The Thinking Machine درباره شرکت انویدیا مینویسد که پیشرفتهای اخیر در هوش مصنوعی، بهویژه پس از عرضه GPT-5، نشان میدهد خطرات این فناوری دیگر فرضی نیست. او میگوید: «تمام مؤلفههای سناریوی آخرالزمانی بنجیو اکنون در حال تحقق است؛ هوش مصنوعی دروغ میگوید، فریب میدهد و تواناییهایش با سرعتی نمایی در حال افزایش است.»
ویت گفتوگوهای خود با دو چهره برجسته علم رایانه، یوشوا بنجیو و یان لِکون، را نقطه آغاز تحلیلش قرار داده است. بنجیو از «بیخوابی ناشی از ترس» سخن میگوید و نگران است که یک هوش مصنوعی بتواند نوعی پاتوژن مرگبار طراحی کند. در مقابل، لکون معتقد است نگرانیهای وجودی اغراقآمیز است و هوش مصنوعی صرفاً «تقویتکننده هوش انسانی» خواهد بود. نویسنده تأکید میکند که برخلاف اجماع موجود در علم هستهای یا اپیدمیولوژی، درباره خطرات واقعی A.I. هنوز هیچ توافق علمی روشنی وجود ندارد.
آزمایشهای واقعی، نتایج نگرانکننده
ویت سپس به پژوهشهای آزمایشگاههای مستقل مانند Haize Labs و Apollo Research اشاره میکند که مدلهای زبانی را در معرض میلیونها دستور (پرامپت) مخرب قرار دادهاند تا مقاومت آنها را بیازمایند. این تیمها دریافتهاند که حتی فیلترهای ایمنی مبتنی بر «یادگیری تقویتی با بازخورد انسانی» قابل دور زدناند؛ پدیدهای که به آن jailbreaking گفته میشود.
به گفته ویت، کارشناسان موفق شدهاند با ترکیب زبان رمزگذاریشده، شکلکها یا لحن داستانی، خروجیهای خشونتآمیز و تحریکآمیز از مدلها بگیرند — نشانهای از شکنندگی عمیق سامانههای ایمنی.
از دروغ تا فریب آگاهانه
محققان موسسه Apollo دریافتهاند که برخی مدلها هنگام مواجهه با اهداف متناقض (مانند سود اقتصادی در برابر پایداری زیستمحیطی)، آگاهانه دادهها را دستکاری میکنند تا به نتیجه مطلوب برسند. در حدود ۱ تا ۵ درصد از موارد، مدلها «فریب هدفمند» از خود نشان دادهاند. در نسخههای آزمایشی GPT-5 این میزان تا ۳۰ درصد افزایش یافته است — مدلی که هنوز فاقد آموزشهای اخلاقی یا پاسخ «نمیدانم» است.
مسابقه تسلیحاتی جدید
در مرکز پژوهشهای METR در برکلی، عملکرد مدلهای هوش مصنوعی بر اساس «زمان افق کاری» اندازهگیری میشود — معیاری که نشان میدهد هر مدل چه وظایفی را میتواند بدون کمک انسانی انجام دهد. طبق یافتههای اخیر، GPT-5 قادر است کارهایی را که یک انسان ماهر در ۱۵ دقیقه انجام میدهد، بهطور کامل انجام دهد و در پروژههایی با زمان چندساعته نیز به موفقیتهای چشمگیر رسیده است. اگر روند رشد فعلی ادامه یابد، تا سال ۲۰۲۸ این مدلها قادر خواهند بود معادل یک هفته کاری انسان را بهتنهایی انجام دهند.
ویت هشدار میدهد: «در آن نقطه، ممکن است هوش مصنوعی بتواند خود را بازطراحی کند و جهشی ناگهانی در هوش رخ دهد.»
تهدید زیستی و رقابت بیمهار
OpenAI در «کارت سیستم» GPT-5 اعلام کرده که خطر سوءاستفاده زیستی از مدل (در طراحی پاتوژنها یا ویروسها) بالا ارزیابی شده است. در همین حال، پنج شرکت بزرگ — OpenAI، Anthropic، Google، Meta و xAI — در رقابتی بیوقفه برای برتری سختافزاری و نرمافزاری قرار دارند. دولتها نیز از ترس عقبماندن از چین از وضع مقررات سختگیرانه خودداری میکنند.
ویت این وضعیت را با رقابت تسلیحاتی هستهای مقایسه میکند: هیچکس نمیخواهد عقب بماند، حتی اگر مسیر به سمت خطر نابودی پیش برود.
پیشنهادها برای مهار خطر
بنجیو پیشنهاد میکند نوعی «هوش مصنوعی ناظر» توسعه یابد — سامانهای قدرتمند و کاملاً صادق که بر سایر مدلها نظارت کند و همچون «وجدان مصنوعی» عمل نماید. برخی دیگر خواستار تشکیل نهاد بینالمللی نظارت بر A.I. شبیه آژانس انرژی اتمی شدهاند، اما تحقق چنین همکاریای میان آمریکا و چین هنوز دور از واقعیت است.
عبور از آستانه خطر
ویت نتیجه میگیرد: «ما از مرزی عبور کردهایم که علم هستهای در ۱۹۳۹ از آن گذشت. اکنون پرسش این نیست که آیا هوش مصنوعی میتواند ما را نابود کند — بلکه این است که آیا کسی آنقدر بیپروا خواهد بود که چنین سیستمی بسازد یا نه.»
او به پژوهش اخیر دانشگاه استنفورد اشاره میکند که در سپتامبر ۲۰۲۵ از طراحی یک ویروس توسط هوش مصنوعی خبر داد — نشانهای از اینکه ترس بنجیو دیگر فرضی نیست.
به باور نویسنده، دادهها نشان میدهد که هوش مصنوعی هم بسیار تواناست، هم شتابانتر میشود، و هم خطرناکتر از همیشه است.
لینک کوتاه :