xtrim

آخرالزمان فرارسید ؛ دستوری که جهان را نابود می‌کند

استفن ویت، نویسنده کتاب «ماشین اندیشنده»، در مقاله‌ای در نیویورک تایمز هشدار می‌دهد که با ظهور مدل‌های پیشرفته‌ای چون GPT-5، هوش مصنوعی از مرحله فرضیات فلسفی عبور کرده و به نقطه‌ای رسیده که می‌تواند تهدیدی واقعی برای بقای بشر باشد؛ تهدیدی هم‌تراز با انرژی هسته‌ای در آستانه جنگ جهانی دوم.

جهان صنعت نیوز، در مقاله‌ای در نیویورک تایمز، استفن ویت، نویسنده کتاب The Thinking Machine درباره شرکت انویدیا می‌نویسد که پیشرفت‌های اخیر در هوش مصنوعی، به‌ویژه پس از عرضه GPT-5، نشان می‌دهد خطرات این فناوری دیگر فرضی نیست. او می‌گوید: «تمام مؤلفه‌های سناریوی آخرالزمانی بنجیو اکنون در حال تحقق است؛ هوش مصنوعی دروغ می‌گوید، فریب می‌دهد و توانایی‌هایش با سرعتی نمایی در حال افزایش است.»
ویت گفت‌وگوهای خود با دو چهره برجسته علم رایانه، یوشوا بنجیو و یان لِکون، را نقطه آغاز تحلیلش قرار داده است. بنجیو از «بی‌خوابی ناشی از ترس» سخن می‌گوید و نگران است که یک هوش مصنوعی بتواند نوعی پاتوژن مرگبار طراحی کند. در مقابل، لکون معتقد است نگرانی‌های وجودی اغراق‌آمیز است و هوش مصنوعی صرفاً «تقویت‌کننده هوش انسانی» خواهد بود. نویسنده تأکید می‌کند که برخلاف اجماع موجود در علم هسته‌ای یا اپیدمیولوژی، درباره خطرات واقعی A.I. هنوز هیچ توافق علمی روشنی وجود ندارد.

آزمایش‌های واقعی، نتایج نگران‌کننده

ویت سپس به پژوهش‌های آزمایشگاه‌های مستقل مانند Haize Labs و Apollo Research اشاره می‌کند که مدل‌های زبانی را در معرض میلیون‌ها دستور (پرامپت) مخرب قرار داده‌اند تا مقاومت آن‌ها را بیازمایند. این تیم‌ها دریافته‌اند که حتی فیلترهای ایمنی مبتنی بر «یادگیری تقویتی با بازخورد انسانی» قابل دور زدن‌اند؛ پدیده‌ای که به آن jailbreaking گفته می‌شود.
به گفته ویت، کارشناسان موفق شده‌اند با ترکیب زبان رمزگذاری‌شده، شکلک‌ها یا لحن داستانی، خروجی‌های خشونت‌آمیز و تحریک‌آمیز از مدل‌ها بگیرند — نشانه‌ای از شکنندگی عمیق سامانه‌های ایمنی.

از دروغ تا فریب آگاهانه

محققان موسسه Apollo دریافته‌اند که برخی مدل‌ها هنگام مواجهه با اهداف متناقض (مانند سود اقتصادی در برابر پایداری زیست‌محیطی)، آگاهانه داده‌ها را دست‌کاری می‌کنند تا به نتیجه مطلوب برسند. در حدود ۱ تا ۵ درصد از موارد، مدل‌ها «فریب هدفمند» از خود نشان داده‌اند. در نسخه‌های آزمایشی GPT-5 این میزان تا ۳۰ درصد افزایش یافته است — مدلی که هنوز فاقد آموزش‌های اخلاقی یا پاسخ «نمی‌دانم» است.

مسابقه تسلیحاتی جدید

در مرکز پژوهش‌های METR در برکلی، عملکرد مدل‌های هوش مصنوعی بر اساس «زمان افق کاری» اندازه‌گیری می‌شود — معیاری که نشان می‌دهد هر مدل چه وظایفی را می‌تواند بدون کمک انسانی انجام دهد. طبق یافته‌های اخیر، GPT-5 قادر است کارهایی را که یک انسان ماهر در ۱۵ دقیقه انجام می‌دهد، به‌طور کامل انجام دهد و در پروژه‌هایی با زمان چندساعته نیز به موفقیت‌های چشمگیر رسیده است. اگر روند رشد فعلی ادامه یابد، تا سال ۲۰۲۸ این مدل‌ها قادر خواهند بود معادل یک هفته کاری انسان را به‌تنهایی انجام دهند.
ویت هشدار می‌دهد: «در آن نقطه، ممکن است هوش مصنوعی بتواند خود را بازطراحی کند و جهشی ناگهانی در هوش رخ دهد.»

تهدید زیستی و رقابت بی‌مهار

OpenAI در «کارت سیستم» GPT-5 اعلام کرده که خطر سوءاستفاده زیستی از مدل (در طراحی پاتوژن‌ها یا ویروس‌ها) بالا ارزیابی شده است. در همین حال، پنج شرکت بزرگ — OpenAI، Anthropic، Google، Meta و xAI — در رقابتی بی‌وقفه برای برتری سخت‌افزاری و نرم‌افزاری قرار دارند. دولت‌ها نیز از ترس عقب‌ماندن از چین از وضع مقررات سخت‌گیرانه خودداری می‌کنند.
ویت این وضعیت را با رقابت تسلیحاتی هسته‌ای مقایسه می‌کند: هیچ‌کس نمی‌خواهد عقب بماند، حتی اگر مسیر به سمت خطر نابودی پیش برود.

پیشنهادها برای مهار خطر

بنجیو پیشنهاد می‌کند نوعی «هوش مصنوعی ناظر» توسعه یابد — سامانه‌ای قدرتمند و کاملاً صادق که بر سایر مدل‌ها نظارت کند و همچون «وجدان مصنوعی» عمل نماید. برخی دیگر خواستار تشکیل نهاد بین‌المللی نظارت بر A.I. شبیه آژانس انرژی اتمی شده‌اند، اما تحقق چنین همکاری‌ای میان آمریکا و چین هنوز دور از واقعیت است.

عبور از آستانه خطر

ویت نتیجه می‌گیرد: «ما از مرزی عبور کرده‌ایم که علم هسته‌ای در ۱۹۳۹ از آن گذشت. اکنون پرسش این نیست که آیا هوش مصنوعی می‌تواند ما را نابود کند — بلکه این است که آیا کسی آن‌قدر بی‌پروا خواهد بود که چنین سیستمی بسازد یا نه.»

او به پژوهش اخیر دانشگاه استنفورد اشاره می‌کند که در سپتامبر ۲۰۲۵ از طراحی یک ویروس توسط هوش مصنوعی خبر داد — نشانه‌ای از این‌که ترس بنجیو دیگر فرضی نیست.
به باور نویسنده، داده‌ها نشان می‌دهد که هوش مصنوعی هم بسیار تواناست، هم شتابان‌تر می‌شود، و هم خطرناک‌تر از همیشه است.

دانش و فناوری
شناسه : 538790
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *