هوش مصنوعی هم تبعیض قائل شد؟ پاسخ ضعیفتر به کاربران ایرانی

نتایج یک مطالعه جدید نشان میدهد برخی مدلهای پیشرفته هوش مصنوعی در پاسخ به کاربران غیرآمریکایی، از جمله ایرانیها، دقت پایینتر و رفتار تبعیضآمیزتری دارند.
جهان صنعت نیوز، بر اساس پژوهشی از دانشگاه Massachusetts Institute of Technology (MIT)، مدلهای زبانی بزرگ از جمله GPT-4، Claude 3 Opus و Llama 3 در برخی شرایط به کاربرانی با تسلط پایینتر به زبان انگلیسی یا سطح تحصیلات کمتر، پاسخهایی با کیفیت و دقت پایینتر ارائه میکنند.
محققان در این تحقیق با افزودن بیوگرافی فرضی کاربران (شامل سطح تحصیلات، میزان تسلط به انگلیسی و کشور محل سکونت) به سؤالات علمی و عمومی، عملکرد مدلها را ارزیابی کردند. نتایج نشان داد دقت پاسخها برای کاربران غیرانگلیسیزبان و کمتحصیلات به شکل محسوسی کاهش مییابد.
در بررسی کشور مبدأ نیز مشخص شد عملکرد مدل Claude 3 Opus در مواجهه با کاربران اهل ایران، در مقایسه با کاربران آمریکایی، ضعیفتر بوده است. همچنین این مدل در برخی موارد از پاسخ دادن به سؤالات کاربران غیرانگلیسیزبان خودداری کرده یا لحنی نامناسب و تحقیرآمیز به کار برده است.
پژوهشگران هشدار دادهاند با گسترش قابلیتهای شخصیسازی در چتباتها، خطر تقویت سوگیریهای پنهان و تشدید نابرابری اطلاعاتی افزایش مییابد؛ مسئلهای که میتواند اعتماد عمومی به ابزارهای هوش مصنوعی را با چالش مواجه کند.
منبع: دیجیاتو
دانش و فناوریلینک کوتاه :
