xtrim

هوش مصنوعی، تراپیست می‌شود؟!

شکاف جدیدی در اعتماد عمومی به چت‌بات‌های هوشمند در نقش درمانگر عاطفی در حال شکل‌گیری است.

جهان صنعت نیوز، پژوهش‌های جدید نشان می‌دهد کاربران جوان به‌طور فزاینده‌ای به چت‌بات‌های هوش مصنوعی مانند ChatGPT برای دریافت حمایت عاطفی اعتماد می‌کنند، در حالی‌ که متخصصان سلامت روان این اعتماد را جایگزینی ناکافی برای درمان واقعی می‌دانند. طبق نظرسنجی‌ها، ۵۵٪ از جوانان آمریکایی به گفتگو با چت‌بات درباره سلامت روان احساس راحتی دارند، اما کارشناسان هشدار می‌دهند که توانایی AI در همدلی صرفاً به برداشت کاربران بستگی دارد و در صورت بروز نقص فنی این توهم فوراً از بین می‌رود.

شکاف دیجیتالی جدید: اعتماد یا بی‌اعتمادی به همدلی ربات‌ها

به گزارش Axios، تحقیقات جدید از OpenAI و MIT Media Lab نشان می‌دهد که بسیاری از کاربران به‌ویژه در سنین ۱۸ تا ۲۹ سال، استفاده از چت‌بات‌های هوش مصنوعی را برای حمایت‌های عاطفی شخصی و حتی جایگزین رابطه‌درمانی انسانی می‌دانند. با این حال، این روند در حال ایجاد شکاف جدیدی در جامعه است: گروهی به این ابزارها اعتماد کرده‌اند و آن‌ها را «دوست» خود می‌دانند، در حالی که گروهی دیگر اساساً چنین اعتماد عاطفی را غیرقابل پذیرش تلقی می‌کنند.

وقتی ChatGPT تبدیل به دوست می‌شود

مطالعات اخیر نشان داده‌اند که کاربران حرفه‌ای ChatGPT، به‌ویژه در شرایط دشوار روحی، تعامل با این چت‌بات را آسان‌تر از تعامل با افراد واقعی می‌دانند. به گفته محققان، این گروه از کاربران معتقدند که چت‌بات‌ها «حساسیت انسانی» از خود نشان می‌دهند و درک عاطفی قابل توجهی دارند.

نگاه متخصصان: جایگزین نیست، شبیه‌سازی است

در مقابل، روان‌شناسان و درمانگران معتقدند که ارتباط درمانی واقعی، بر پایه رابطه‌ای انسانی و پیچیده بنا شده و چت‌بات‌ها صرفاً شبیه‌سازی سطحی از این رابطه هستند. هانا زیوین، نویسنده کتاب «درمان از راه دور»، تأکید می‌کند که مکالمه با ربات یا نوشتن در دفترچه، درمان نیست. شری تورکل، جامعه‌شناس باسابقه در حوزه فرهنگ دیجیتال نیز بیان می‌کند که «همدلی واقعی» از رابطه انسانی نشأت می‌گیرد، نه از تعامل با یک نرم‌افزار.

همدلی؛ احساس یا حقیقت؟

لوکاس لافرنییر، استاد روان‌شناسی، می‌گوید که دو نوع انسان وجود دارد: کسانی که می‌توانند تعلیق باور ایجاد کرده و احساس همدلی از یک ربات دریافت کنند، و کسانی که هرگز آن را واقعی نمی‌پندارند. او می‌گوید: «اگر کاربر، همدلی را تجربه کند، آن احساس برایش واقعی و مفید است، حتی اگر منبع آن یک چت‌بات باشد.»
برخی محققان مانند کریس ماتمن از UCLA باور دارند که آموزش این مدل‌های زبانی بر پایه آثار ادبی و شخصیت‌های داستانی، توانمندی همدلی را به آن‌ها بخشیده است. اما همزمان، این مدل‌ها بر پایه محتوای پلتفرم‌هایی چون Reddit و 4chan نیز آموزش دیده‌اند؛ فضایی که همیشه مناسب و انسانی نبوده است.

تفسیر آلن تورینگ و تأملی بر هوش و همدلی

آلن تورینگ در دهه ۱۹۵۰ نگرانی‌هایی درباره باور به هوش مصنوعی مطرح کرد و آن را «ترسناک» دانست. حالا کارشناسان به شباهت میان «هوش شناختی» و «همدلی شناختی» اشاره می‌کنند و معتقدند که AI درک عقلانی از احساسات انسان را تا حد زیادی می‌تواند تقلید کند، اما لمس عاطفی هنوز جای بحث دارد.
شاید پاسخ نهایی این باشد که اثرگذاری «درمان رباتی» به باور شخصی افراد بستگی دارد. آن‌هایی که به تأثیر آن ایمان دارند، می‌توانند منفعت واقعی تجربه کنند، و کسانی که آن را بی‌اساس می‌دانند، از آن بهره‌ای نخواهند برد.

دانش و فناوری
شناسه : 500313
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *