xtrim

هوش مصنوعی هم تبعیض قائل شد؟ پاسخ ضعیف‌تر به کاربران ایرانی

نتایج یک مطالعه جدید نشان می‌دهد برخی مدل‌های پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانی‌ها، دقت پایین‌تر و رفتار تبعیض‌آمیزتری دارند.

جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدل‌های زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایین‌تر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخ‌هایی با کیفیت و دقت پایین‌تر ارائه می‌کنند.

محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدل‌ها را ارزیابی کردند. نتایج نشان داد دقت پاسخ‌ها برای کاربران غیرانگلیسی‌زبان و کم‌تحصیلات به شکل محسوسی کاهش می‌یابد.

در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیف‌تر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسی‌زبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.

پژوهشگران هشدار داده‌اند با گسترش قابلیت‌های شخصی‌سازی در چت‌بات‌ها، خطر تقویت سوگیری‌های پنهان و تشدید نابرابری اطلاعاتی افزایش می‌یابد؛ مسئله‌ای که می‌تواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.

منبع: دیجیاتو

دانش و فناوری
شناسه : 572217
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *