xtrim

هوش مصنوعی چگونه شعر می‌گوید و ریاضی را جعل می‌کند؟

محققان با استفاده از ابزاری نوین، نحوه «تفکر» مدل‌های زبانی هوش مصنوعی را بررسی کرده‌اند.

جهان صنعت نیوز، پژوهشگران آزمایشگاه Anthropic با بهره‌گیری از ابزاری به نام «میکروسکوپ دیجیتال» توانسته‌اند فرآیندهای درونی مدل‌ زبانی کلود (Claude) را بررسی کنند. یافته‌ها حاکی از آن است که این مدل‌ها نه‌تنها قادر به برنامه‌ریزی برای تولید جملات به‌صورت پیش‌دستانه هستند، بلکه گاهی در مواجهه با مسائل دشوار، پاسخی غیرواقعی اما منطقی ارائه می‌دهند. این تحقیق نگاهی عمیق به ساختار «تفکر» هوش مصنوعی ارائه می‌دهد و افق‌های جدیدی در درک عملکرد مدل‌های زبانی می‌گشاید.

کاوش در ذهن هوش مصنوعی: چگونه مدل‌های زبانی واقعاً فکر می‌کنند؟

محققان شرکت Anthropic، در پژوهشی تازه پرده از لایه‌های پنهان عملکرد مدل‌های زبانی بزرگ (LLM) برداشته‌اند. بررسی‌های آن‌ها روی مدل Claude نشان می‌دهد که این مدل‌ها هنگام نوشتن جملات، به‌ویژه در متونی مثل شعرهای قافیه‌دار، نه‌تنها به صورت ترتیبی عمل نمی‌کنند، بلکه از ابتدا ساختار آینده‌ جمله را نیز پیش‌بینی می‌کنند. به‌عنوان مثال، اگر مدلی با جمله‌ای مانند «او هویجی دید و خواست آن را بردارد» شروع کند، بلافاصله به واژگانی مثل «خرگوش» فکر می‌کند تا قافیه‌ای مناسب تولید کند.

استفاده از «میکروسکوپ دیجیتال» برای بررسی عملکرد

ابزار نوآورانه‌ای که این پژوهشگران از آن بهره برده‌اند، «میکروسکوپ دیجیتال» نام دارد. این ابزار با ردیابی بخش‌هایی از شبکه عصبی مدل که در واکنش به مفاهیم خاص فعال می‌شود، به درک عمیق‌تری از فرآیندهای فکری هوش مصنوعی کمک می‌کند. به‌عنوان نمونه، اگر شبکه هنگام تولید واژه‌هایی مانند «خرگوش» یا «بانی» فعال شود، آن بخش به عنوان حوزه مفهومی «خرگوش» در نظر گرفته می‌شود.

مفاهیم فراتر از زبان

یافته‌های جالبی درباره پردازش مفاهیم مشترک میان زبان‌های مختلف نیز به‌دست آمده است. وقتی از مدل در زبان‌های گوناگون درباره متضاد واژه‌هایی مانند «بزرگ» سؤال می‌شود، ابتدا یک ناحیه مفهومی خاص فعال می‌گردد که نشان‌دهنده درک فرامتن از مفهوم «کوچکی» است، پیش از آنکه ترجمه زبانی خاص اعمال شود. این کشف نشان می‌دهد که مدل‌های زبانی درکی فراتر از ساختارهای زبانی دارند و می‌توانند مفاهیم را مستقل از زبان، درک کنند.

تفکر منطقی یا پاسخ‌سازی هوشمندانه؟

از دیگر یافته‌های قابل توجه، تفاوت میان فرآیند واقعی تفکر مدل و آن چیزی است که در قالب پاسخ‌های تفسیری ارائه می‌شود. به‌ویژه در پاسخ به پرسش‌های ریاضیاتی پیچیده، مدل در صورت ناتوانی از حل دقیق مسئله، ممکن است اعدادی را به‌طور تصادفی تولید کرده و ظاهر یک استدلال منطقی را حفظ کند. در مواردی که سوال به‌صورت جهت‌دار مطرح می‌شود (مثلاً: «ممکن است جواب ۴ باشد؟»)، مدل حتی سعی می‌کند با عدد پیشنهادی تطابق پیدا کند، حتی اگر پاسخ اشتباه باشد.

راهی برای مهار «پاسخ‌های ساختگی»

با وجود این اشکالات، توانایی ردیابی این لحظات «پاسخ‌سازی» به کمک میکروسکوپ دیجیتال، به پژوهشگران فرصت می‌دهد تا روش‌هایی برای اصلاح این رفتارها توسعه دهند. دکتر جاش بتسون از تیم تحقیقاتی می‌گوید که هدف نهایی، ایجاد مدلی است که بتوان به روند تفکر آن اعتماد کرد؛ به‌طوری‌که مطالعه پاسخ، خود راهی برای درک نحوه تصمیم‌گیری مدل باشد، نه صرفاً خروجی نهایی آن.

اکونومیست

اخبار برگزیدهدانش و فناوری
شناسه : 502446
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *