هوش مصنوعی این بار کلاهبردار شد

مشاهدات تازه نگرانی‌ها در مورد کلاهبرداری از طریق فناوری هوش مصنوعی را افزایش داده است.

به گزارش جهان صنعت نیوز، زنی پس از شنیدن صدای گریه دخترش در تماس تلفنی دچار نگرانی شد؛ تماسی که در آن یک مرد مدعی ربودن دختر او شده و از این زن تقاضای باج کرده است. لحن صدای دختر در این تماس صدای واقعی او نبود، بلکه توسط فناوری هوش مصنوعی در تلاش برای انجام یک کلاهبرداری ایجاد شده بود؛ موضوعی که نگرانی‌ها در مورد سوءاستفاده از هوش مصنوعی را افزایش داده است.

کارشناسان تأکید کرده‌اند که برجسته‌ترین خطر هوش مصنوعی توانایی این فناوری در از بین بردن مرز بین واقعیت و تخیل و ارائه ابزار‌های موثر و ارزان به مجرمان است.

کلاهبرداری‌های تلفنی اخیر با استفاده از ابزار‌های تقلید صدا مبتنی بر هوش مصنوعی که به راحتی و به صورت آنلاین در دسترس هستند، مقامات را نگران کرده‌اند.

جنیفر دی استفانو، مادری که در آریزونا زندگی می‌کند، از طریق تلفن صدایی را می‌شنود که می‌گوید: “مامان، کمکم کن، لطفا کمک کن. ” این مادر فکر کرده بود که صدا متعلق به دختر ۱۵ ساله اش است که برای تمرین اسکی به بیرون رفته است. 

و در مصاحبه‌ای با یک شبکه تلویزیونی محلی، در ماه آوریل گفت: “صدا مانند صدای دخترم بود، با همان گریه‌های دخترم. من یک لحظه شک نکردم که ممکن است او نباشد. ” کلاهبردار که از شماره ناشناس با مادر تماس گرفته بود در ازای آزادی دختر یک میلیون دلار درخواست کرده بود.

اکنون این حادثه که پس از تماس دی استفانو با دخترش به سرعت به پایان رسید، در دست بررسی مقامات ذی‌ربط است و در افشای کلاهبرداری‌های احتمالی ناشی از استفاده مجرمان سایبری از برنامه‌های هوش مصنوعی نقش داشته است.

وسیم خالد، مدیر عامل شرکت Blackbird.ai، تأکید کرد که رونویسی صدای هوش مصنوعی، که تشخیص آن از صدای انسان تقریباً غیرممکن شده است، به افراد بد نیت مانند کلاهبرداران اجازه می‌دهد تا اطلاعات و مبالغی را از قربانیان به روشی مؤثرتر به دست آورند. 

بسیاری از برنامه ها، رایگان و به طور گسترده و آنلاین در دسترس هستند که امکان کپی صدای واقعی یک فرد را از طریق یک برنامه هوش مصنوعی بر اساس ضبط کوتاه صدای آن شخص فراهم می‌کنند. کلاهبردار می‌تواند ضبط‌های مشابهی از محتویات ارسال شده توسط قربانی را به صورت آنلاین بدست آورد.

یک نظرسنجی از حدود ۷۰۰۰ نفر در ۹ کشور، از جمله ایالات متحده، نشان داد که از هر چهار نفر یک نفر هدف تلاش برای کلاهبرداری توسط هوش مصنوعی قرار گرفته است یا فردی را می‌شناسد که تحت تاثیر فرآیند مشابهی بوده است.

بر اساس این نظرسنجی که ماه گذشته توسط شرکت Mac Avi Labs منتشر شد، ۷۰ درصد از افراد مورد بررسی اظهار داشتند که از توانایی خود در تشخیص صدای واقعی و صدای بازتولید شده مطمئن نیستند.

چندی پیش و پس از آنکه تعدادی از کاربران اینترنت کلیپی جعلی از “اما واتسون” بازیگر زن، در حال خواندن گزیده‌هایی از کتاب Mein Kampf آدولف هیتلر را منتشر کردند، استارتاپ Eleven Labs مجبور شد اعتراف کند که ابزار رونویسی صدای هوش مصنوعی آن می‌تواند برای اهداف مخرب نیز استفاده شود.

براین اساس، ما به سرعت به نقطه‌ای نزدیک می‌شویم که دیگر نمی‌توانیم به محتوای پست آنلاین اعتماد کنیم و برای این منظور باید از فناوری‌های جدید استفاده کنیم تا مطمئن شویم شخصی که فکر می‌کنیم در حال صحبت با او هستیم واقعاً همان کسی است که می‌خواهیم با او ارتباط برقرار کنیم./باشگاه خبرنگاران جوان

دانش و فناوری
شناسه : 357549
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا