xtrim
اکونومیست بررسی کرد؛

اگر هوش مصنوعی فقط یک «فناوری عادی» باشد چه می‌شود؟

«هوش مصنوعیِ عادی»؛ مقاله‌ای از آرویند نارایانَن و سایش کاپور (پرینستون) استدلال می‌کند که اگر به هوش مصنوعی مانند یک «فناوری عادی» بنگریم—نه به‌عنوان ابرهوشی با عاملیت مستقل—پذیرش و اثرات اقتصادی آن تدریجی خواهد بود. ریسک‌ها بیشتر در کاربردهای دنیای واقعی رخ می‌دهند و سیاست‌گذاری باید بر تاب‌آوری و تنظیم‌گری عمل‌گرایانه متمرکز شود.

جهان صنعت نیوز – دیدگاه‌ها درباره هوش مصنوعی طیفی گسترده را در بر می‌گیرد. در یک سوی طیف، نگاه آرمان‌شهری قرار دارد که معتقد است هوش مصنوعی، رشد اقتصادی شتابان ایجاد خواهد کرد، تحقیقات علمی را به‌سرعت جلو خواهد برد و شاید حتی انسان را به جاودانگی برساند. در سوی دیگر، نگاه ویران‌شهری است که بر این باور است هوش مصنوعی به ناگاه موجب از دست رفتن گسترده مشاغل، بی‌ثباتی اقتصادی و شاید حتی طغیان این فناوری و نابودی بشریت خواهد شد.

از این رو، مقاله‌ای که اوایل امسال توسط آرویند نارایانان و سایش کاپور، دو دانشمند علوم رایانه از دانشگاه پرینستون، منتشر شد، به دلیل برخورد هوشیارانه با هوش مصنوعی، قابل توجه است: آن‌ها از هوش مصنوعی به‌عنوان «یک فناوری عادی» یاد می‌کنند. این کار، بحث‌های گسترده‌ای را میان پژوهشگران هوش مصنوعی و اقتصاددانان برانگیخته است.

به گفته نویسندگان، هر دو دیدگاه آرمان‌شهری و ویران‌شهری، هوش مصنوعی را به‌عنوان یک هوش بی‌سابقه با عاملیت و توان تصمیم‌گیری برای آینده خود در نظر می‌گیرند و بنابراین قیاس آن با اختراعات پیشین را بی‌اعتبار می‌دانند. اما نارایانان و کاپور این نگاه را رد کرده و تصویری از سناریوی محتمل‌تر ترسیم می‌کنند: اینکه هوش مصنوعی همان مسیر انقلاب‌های فناورانه پیشین را طی خواهد کرد. سپس به بررسی پیامدهای این رویکرد برای پذیرش هوش مصنوعی، اشتغال، ریسک‌ها و سیاست‌گذاری‌ها می‌پردازند. آن‌ها یادآور می‌شوند: «نگاه به هوش مصنوعی به‌عنوان یک فناوری عادی، به نتایجی کاملاً متفاوت درباره اقدامات کاهنده خطر منجر می‌شود، در مقایسه با زمانی که آن را شبیه به انسان در نظر بگیریم.»

سرعت پذیرش هوش مصنوعی، به گفته نویسندگان، از سرعت نوآوری کندتر بوده است. بسیاری از افراد گهگاه از ابزارهای هوش مصنوعی استفاده می‌کنند، اما شدت استفاده در آمریکا (بر حسب ساعات استفاده در روز) هنوز به‌عنوان بخشی از کل ساعات کاری پایین است.

اینکه میزان پذیرش از نوآوری عقب بماند جای تعجب ندارد، زیرا افراد و شرکت‌ها برای سازگار کردن عادات و جریان‌های کاری خود با فناوری‌های جدید به زمان نیاز دارند. پذیرش همچنین به دلیل عواملی دشوار می‌شود: بسیاری از دانش‌ها ضمنی و خاص سازمان‌ها هستند، داده‌ها ممکن است در قالب درست نباشند و استفاده از آن‌ها می‌تواند با محدودیت‌های قانونی روبه‌رو شود. محدودیت‌هایی مشابه یک قرن پیش نیز وجود داشت، زمانی که کارخانه‌ها برقی شدند: این روند دهه‌ها طول کشید، زیرا نیازمند بازاندیشی کامل در چیدمان سالن‌ها، فرآیندها و ساختارهای سازمانی بود.

علاوه بر این، به گفته مقاله، محدودیت‌های موجود در سرعت نوآوری هوش مصنوعی ممکن است جدی‌تر از آن چیزی باشند که به نظر می‌رسند، چرا که بسیاری از کاربردها (مانند توسعه دارو، خودروهای خودران یا حتی رزرو یک تعطیلات ساده) نیازمند آزمایش‌های گسترده در دنیای واقعی هستند. این امر می‌تواند کند و پرهزینه باشد، به‌ویژه در حوزه‌های حساس به ایمنی که تحت نظارت‌های شدید قانونی قرار دارند. در نتیجه، نویسندگان نتیجه می‌گیرند که تأثیرات اقتصادی «احتمالاً تدریجی خواهند بود» و نه اینکه شامل یک جهش ناگهانی در خودکارسازی بخش بزرگی از اقتصاد شوند.

حتی گسترش آهسته هوش مصنوعی نیز ماهیت کار را تغییر خواهد داد. با خودکار شدن تعداد بیشتری از وظایف، «درصد رو به افزایشی از مشاغل و وظایف انسانی به کنترل هوش مصنوعی مربوط خواهد شد.» در اینجا می‌توان آن را با انقلاب صنعتی مقایسه کرد؛ زمانی که کارگران از انجام وظایف دستی، مانند بافندگی، به نظارت بر ماشین‌هایی که همان وظایف را انجام می‌دادند تغییر نقش دادند—و همچنین مدیریت موقعیت‌هایی که ماشین‌ها قادر به انجام آن نبودند (مانند زمانی که گیر می‌کردند و نیاز به دخالت انسانی بود). بنابراین، به‌جای اینکه هوش مصنوعی مشاغل را به طور کامل تصاحب کند، احتمالاً مشاغل بیش‌ازپیش شامل پیکربندی، پایش و کنترل سیستم‌های مبتنی بر هوش مصنوعی خواهند شد. نارایانان و کاپور گمان می‌کنند که بدون نظارت انسانی، هوش مصنوعی ممکن است «چنان مستعد خطا باشد که از نظر اقتصادی توجیه‌پذیر نباشد.»

این موضوع به نوبه خود پیامدهایی برای خطرات هوش مصنوعی دارد. نکته قابل توجه این است که نویسندگان تأکید بر «همسوسازی» مدل‌های هوش مصنوعی را نقد می‌کنند؛ یعنی تلاش برای اطمینان از اینکه خروجی‌ها با اهداف خالقان انسانی هماهنگ باشند. آنان استدلال می‌کنند که زیان‌بار بودن یا نبودن یک خروجی اغلب به زمینه‌ای بستگی دارد که انسان‌ها آن را درک می‌کنند اما مدل فاقد آن است. برای نمونه، مدلی که برای نوشتن یک ایمیل متقاعدکننده درخواست می‌شود، نمی‌تواند تشخیص دهد که آن پیام برای بازاریابی مشروع به کار خواهد رفت یا برای فیشینگ مخرب. تلاش برای ساخت مدلی که قابل سوءاستفاده نباشد، به گفته نویسندگان، «مانند تلاش برای ساخت یک رایانه است که نتوان آن را برای کارهای بد استفاده کرد.»

به جای این رویکرد، آنان پیشنهاد می‌کنند که دفاع در برابر سوءاستفاده از هوش مصنوعی—برای مثال در ساخت بدافزارهای رایانه‌ای یا سلاح‌های زیستی—باید بیشتر بر مراحل بعدی متمرکز شود؛ یعنی با تقویت تدابیر موجود در امنیت سایبری و ایمنی زیستی. این کار همچنین تاب‌آوری در برابر انواع این تهدیدها که لزوماً به هوش مصنوعی مربوط نمی‌شوند را افزایش می‌دهد.

ترمیناتور یک داستان خیالی است

چنین طرز فکری مجموعه‌ای از سیاست‌ها را برای کاهش خطر و افزایش تاب‌آوری پیشنهاد می‌دهد. این موارد شامل حمایت از افشاگران (همان‌طور که در بسیاری از صنایع دیگر وجود دارد)، الزام به افشای استفاده از هوش مصنوعی (مشابه با حفاظت از داده‌ها)، ثبت و ردیابی استقرار (همانند خودروها و پهپادها) و گزارش‌دهی اجباری حوادث (مشابه با حملات سایبری) است. در مجموع، مقاله نتیجه می‌گیرد که درس‌های گرفته‌شده از فناوری‌های پیشین می‌تواند به‌خوبی در مورد هوش مصنوعی به کار گرفته شود—و برخورد با این فناوری به‌عنوان یک امر «عادی» منجر به سیاست‌های منطقی‌تری می‌شود تا نگاه کردن به آن به‌عنوان یک ابرهوش قریب‌الوقوع.

البته مقاله بی‌نقص نیست. گاهی لحن آن شبیه جدل علیه بزرگ‌نمایی در مورد هوش مصنوعی است. در بخش‌هایی پراکنده است، برخی باورها را به‌عنوان واقعیت بیان می‌کند و همه استدلال‌هایش قانع‌کننده نیستند—هرچند این موضوع درباره متون آرمان‌شهری و فاجعه‌محور نیز صدق می‌کند. حتی عملگرایان هوش مصنوعی ممکن است احساس کنند که نویسندگان نسبت به احتمال اختلال در بازار کار بیش‌ازحد بی‌خیال‌اند، سرعت پذیرش هوش مصنوعی را دست‌کم گرفته‌اند، نسبت به خطرات عدم همسوسازی و فریب‌کاری بسیار بی‌اعتنا هستند و درباره مقررات بیش‌ازحد خوش‌بین. پیش‌بینی آن‌ها مبنی بر اینکه هوش مصنوعی قادر نخواهد بود «به‌طور معناداری از انسان‌های آموزش‌دیده در پیش‌بینی یا اقناع پیشی بگیرد» بیش از حد مطمئن به نظر می‌رسد. حتی اگر سناریوهای آرمان‌شهری و فاجعه‌بار اشتباه باشند، باز هم هوش مصنوعی می‌تواند بسیار تحول‌آفرین‌تر از چیزی باشد که نویسندگان توصیف می‌کنند.

با این حال، بسیاری از افراد هنگام خواندن این رد کردن استثنا بودن هوش مصنوعی، با تکان دادن سر موافقت خواهند کرد. دیدگاه میانه‌روانه کمتر از پیش‌بینی‌های مربوط به یک «انفجار سریع» قریب‌الوقوع یا یک آخرالزمان دراماتیک است، بنابراین معمولاً توجه چندانی جلب نمی‌کند. به همین دلیل نویسندگان فکر می‌کنند بیان چنین موضعی ارزشمند است: زیرا باور دارند که «شکلی از دیدگاه ما به طور گسترده‌ای میان مردم وجود دارد». در میان نگرانی‌های کنونی درباره پایداری سرمایه‌گذاری در هوش مصنوعی، مقاله آن‌ها جایگزینی خوشایند و آرام در برابر هیاهوی افراطی درباره هوش مصنوعی ارائه می‌دهد.

اخبار برگزیدهدانش و فناوری
شناسه : 531989
لینک کوتاه :

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *