هوش مصنوعی چگونه شعر میگوید و ریاضی را جعل میکند؟

محققان با استفاده از ابزاری نوین، نحوه «تفکر» مدلهای زبانی هوش مصنوعی را بررسی کردهاند.
جهان صنعت نیوز، پژوهشگران آزمایشگاه Anthropic با بهرهگیری از ابزاری به نام «میکروسکوپ دیجیتال» توانستهاند فرآیندهای درونی مدل زبانی کلود (Claude) را بررسی کنند. یافتهها حاکی از آن است که این مدلها نهتنها قادر به برنامهریزی برای تولید جملات بهصورت پیشدستانه هستند، بلکه گاهی در مواجهه با مسائل دشوار، پاسخی غیرواقعی اما منطقی ارائه میدهند. این تحقیق نگاهی عمیق به ساختار «تفکر» هوش مصنوعی ارائه میدهد و افقهای جدیدی در درک عملکرد مدلهای زبانی میگشاید.
کاوش در ذهن هوش مصنوعی: چگونه مدلهای زبانی واقعاً فکر میکنند؟
محققان شرکت Anthropic، در پژوهشی تازه پرده از لایههای پنهان عملکرد مدلهای زبانی بزرگ (LLM) برداشتهاند. بررسیهای آنها روی مدل Claude نشان میدهد که این مدلها هنگام نوشتن جملات، بهویژه در متونی مثل شعرهای قافیهدار، نهتنها به صورت ترتیبی عمل نمیکنند، بلکه از ابتدا ساختار آینده جمله را نیز پیشبینی میکنند. بهعنوان مثال، اگر مدلی با جملهای مانند «او هویجی دید و خواست آن را بردارد» شروع کند، بلافاصله به واژگانی مثل «خرگوش» فکر میکند تا قافیهای مناسب تولید کند.
استفاده از «میکروسکوپ دیجیتال» برای بررسی عملکرد
ابزار نوآورانهای که این پژوهشگران از آن بهره بردهاند، «میکروسکوپ دیجیتال» نام دارد. این ابزار با ردیابی بخشهایی از شبکه عصبی مدل که در واکنش به مفاهیم خاص فعال میشود، به درک عمیقتری از فرآیندهای فکری هوش مصنوعی کمک میکند. بهعنوان نمونه، اگر شبکه هنگام تولید واژههایی مانند «خرگوش» یا «بانی» فعال شود، آن بخش به عنوان حوزه مفهومی «خرگوش» در نظر گرفته میشود.
مفاهیم فراتر از زبان
یافتههای جالبی درباره پردازش مفاهیم مشترک میان زبانهای مختلف نیز بهدست آمده است. وقتی از مدل در زبانهای گوناگون درباره متضاد واژههایی مانند «بزرگ» سؤال میشود، ابتدا یک ناحیه مفهومی خاص فعال میگردد که نشاندهنده درک فرامتن از مفهوم «کوچکی» است، پیش از آنکه ترجمه زبانی خاص اعمال شود. این کشف نشان میدهد که مدلهای زبانی درکی فراتر از ساختارهای زبانی دارند و میتوانند مفاهیم را مستقل از زبان، درک کنند.
تفکر منطقی یا پاسخسازی هوشمندانه؟
از دیگر یافتههای قابل توجه، تفاوت میان فرآیند واقعی تفکر مدل و آن چیزی است که در قالب پاسخهای تفسیری ارائه میشود. بهویژه در پاسخ به پرسشهای ریاضیاتی پیچیده، مدل در صورت ناتوانی از حل دقیق مسئله، ممکن است اعدادی را بهطور تصادفی تولید کرده و ظاهر یک استدلال منطقی را حفظ کند. در مواردی که سوال بهصورت جهتدار مطرح میشود (مثلاً: «ممکن است جواب ۴ باشد؟»)، مدل حتی سعی میکند با عدد پیشنهادی تطابق پیدا کند، حتی اگر پاسخ اشتباه باشد.
راهی برای مهار «پاسخهای ساختگی»
با وجود این اشکالات، توانایی ردیابی این لحظات «پاسخسازی» به کمک میکروسکوپ دیجیتال، به پژوهشگران فرصت میدهد تا روشهایی برای اصلاح این رفتارها توسعه دهند. دکتر جاش بتسون از تیم تحقیقاتی میگوید که هدف نهایی، ایجاد مدلی است که بتوان به روند تفکر آن اعتماد کرد؛ بهطوریکه مطالعه پاسخ، خود راهی برای درک نحوه تصمیمگیری مدل باشد، نه صرفاً خروجی نهایی آن.
اکونومیست
اخبار برگزیدهدانش و فناوریلینک کوتاه :