هوش مصنوعی، تراپیست میشود؟!

شکاف جدیدی در اعتماد عمومی به چتباتهای هوشمند در نقش درمانگر عاطفی در حال شکلگیری است.
جهان صنعت نیوز، پژوهشهای جدید نشان میدهد کاربران جوان بهطور فزایندهای به چتباتهای هوش مصنوعی مانند ChatGPT برای دریافت حمایت عاطفی اعتماد میکنند، در حالی که متخصصان سلامت روان این اعتماد را جایگزینی ناکافی برای درمان واقعی میدانند. طبق نظرسنجیها، ۵۵٪ از جوانان آمریکایی به گفتگو با چتبات درباره سلامت روان احساس راحتی دارند، اما کارشناسان هشدار میدهند که توانایی AI در همدلی صرفاً به برداشت کاربران بستگی دارد و در صورت بروز نقص فنی این توهم فوراً از بین میرود.
شکاف دیجیتالی جدید: اعتماد یا بیاعتمادی به همدلی رباتها
به گزارش Axios، تحقیقات جدید از OpenAI و MIT Media Lab نشان میدهد که بسیاری از کاربران بهویژه در سنین ۱۸ تا ۲۹ سال، استفاده از چتباتهای هوش مصنوعی را برای حمایتهای عاطفی شخصی و حتی جایگزین رابطهدرمانی انسانی میدانند. با این حال، این روند در حال ایجاد شکاف جدیدی در جامعه است: گروهی به این ابزارها اعتماد کردهاند و آنها را «دوست» خود میدانند، در حالی که گروهی دیگر اساساً چنین اعتماد عاطفی را غیرقابل پذیرش تلقی میکنند.
وقتی ChatGPT تبدیل به دوست میشود
مطالعات اخیر نشان دادهاند که کاربران حرفهای ChatGPT، بهویژه در شرایط دشوار روحی، تعامل با این چتبات را آسانتر از تعامل با افراد واقعی میدانند. به گفته محققان، این گروه از کاربران معتقدند که چتباتها «حساسیت انسانی» از خود نشان میدهند و درک عاطفی قابل توجهی دارند.
نگاه متخصصان: جایگزین نیست، شبیهسازی است
در مقابل، روانشناسان و درمانگران معتقدند که ارتباط درمانی واقعی، بر پایه رابطهای انسانی و پیچیده بنا شده و چتباتها صرفاً شبیهسازی سطحی از این رابطه هستند. هانا زیوین، نویسنده کتاب «درمان از راه دور»، تأکید میکند که مکالمه با ربات یا نوشتن در دفترچه، درمان نیست. شری تورکل، جامعهشناس باسابقه در حوزه فرهنگ دیجیتال نیز بیان میکند که «همدلی واقعی» از رابطه انسانی نشأت میگیرد، نه از تعامل با یک نرمافزار.
همدلی؛ احساس یا حقیقت؟
لوکاس لافرنییر، استاد روانشناسی، میگوید که دو نوع انسان وجود دارد: کسانی که میتوانند تعلیق باور ایجاد کرده و احساس همدلی از یک ربات دریافت کنند، و کسانی که هرگز آن را واقعی نمیپندارند. او میگوید: «اگر کاربر، همدلی را تجربه کند، آن احساس برایش واقعی و مفید است، حتی اگر منبع آن یک چتبات باشد.»
برخی محققان مانند کریس ماتمن از UCLA باور دارند که آموزش این مدلهای زبانی بر پایه آثار ادبی و شخصیتهای داستانی، توانمندی همدلی را به آنها بخشیده است. اما همزمان، این مدلها بر پایه محتوای پلتفرمهایی چون Reddit و 4chan نیز آموزش دیدهاند؛ فضایی که همیشه مناسب و انسانی نبوده است.
تفسیر آلن تورینگ و تأملی بر هوش و همدلی
آلن تورینگ در دهه ۱۹۵۰ نگرانیهایی درباره باور به هوش مصنوعی مطرح کرد و آن را «ترسناک» دانست. حالا کارشناسان به شباهت میان «هوش شناختی» و «همدلی شناختی» اشاره میکنند و معتقدند که AI درک عقلانی از احساسات انسان را تا حد زیادی میتواند تقلید کند، اما لمس عاطفی هنوز جای بحث دارد.
شاید پاسخ نهایی این باشد که اثرگذاری «درمان رباتی» به باور شخصی افراد بستگی دارد. آنهایی که به تأثیر آن ایمان دارند، میتوانند منفعت واقعی تجربه کنند، و کسانی که آن را بیاساس میدانند، از آن بهرهای نخواهند برد.
لینک کوتاه :