اگر هوش مصنوعی فقط یک «فناوری عادی» باشد چه میشود؟

«هوش مصنوعیِ عادی»؛ مقالهای از آرویند نارایانَن و سایش کاپور (پرینستون) استدلال میکند که اگر به هوش مصنوعی مانند یک «فناوری عادی» بنگریم—نه بهعنوان ابرهوشی با عاملیت مستقل—پذیرش و اثرات اقتصادی آن تدریجی خواهد بود. ریسکها بیشتر در کاربردهای دنیای واقعی رخ میدهند و سیاستگذاری باید بر تابآوری و تنظیمگری عملگرایانه متمرکز شود.
جهان صنعت نیوز – دیدگاهها درباره هوش مصنوعی طیفی گسترده را در بر میگیرد. در یک سوی طیف، نگاه آرمانشهری قرار دارد که معتقد است هوش مصنوعی، رشد اقتصادی شتابان ایجاد خواهد کرد، تحقیقات علمی را بهسرعت جلو خواهد برد و شاید حتی انسان را به جاودانگی برساند. در سوی دیگر، نگاه ویرانشهری است که بر این باور است هوش مصنوعی به ناگاه موجب از دست رفتن گسترده مشاغل، بیثباتی اقتصادی و شاید حتی طغیان این فناوری و نابودی بشریت خواهد شد.
از این رو، مقالهای که اوایل امسال توسط آرویند نارایانان و سایش کاپور، دو دانشمند علوم رایانه از دانشگاه پرینستون، منتشر شد، به دلیل برخورد هوشیارانه با هوش مصنوعی، قابل توجه است: آنها از هوش مصنوعی بهعنوان «یک فناوری عادی» یاد میکنند. این کار، بحثهای گستردهای را میان پژوهشگران هوش مصنوعی و اقتصاددانان برانگیخته است.
به گفته نویسندگان، هر دو دیدگاه آرمانشهری و ویرانشهری، هوش مصنوعی را بهعنوان یک هوش بیسابقه با عاملیت و توان تصمیمگیری برای آینده خود در نظر میگیرند و بنابراین قیاس آن با اختراعات پیشین را بیاعتبار میدانند. اما نارایانان و کاپور این نگاه را رد کرده و تصویری از سناریوی محتملتر ترسیم میکنند: اینکه هوش مصنوعی همان مسیر انقلابهای فناورانه پیشین را طی خواهد کرد. سپس به بررسی پیامدهای این رویکرد برای پذیرش هوش مصنوعی، اشتغال، ریسکها و سیاستگذاریها میپردازند. آنها یادآور میشوند: «نگاه به هوش مصنوعی بهعنوان یک فناوری عادی، به نتایجی کاملاً متفاوت درباره اقدامات کاهنده خطر منجر میشود، در مقایسه با زمانی که آن را شبیه به انسان در نظر بگیریم.»
سرعت پذیرش هوش مصنوعی، به گفته نویسندگان، از سرعت نوآوری کندتر بوده است. بسیاری از افراد گهگاه از ابزارهای هوش مصنوعی استفاده میکنند، اما شدت استفاده در آمریکا (بر حسب ساعات استفاده در روز) هنوز بهعنوان بخشی از کل ساعات کاری پایین است.
اینکه میزان پذیرش از نوآوری عقب بماند جای تعجب ندارد، زیرا افراد و شرکتها برای سازگار کردن عادات و جریانهای کاری خود با فناوریهای جدید به زمان نیاز دارند. پذیرش همچنین به دلیل عواملی دشوار میشود: بسیاری از دانشها ضمنی و خاص سازمانها هستند، دادهها ممکن است در قالب درست نباشند و استفاده از آنها میتواند با محدودیتهای قانونی روبهرو شود. محدودیتهایی مشابه یک قرن پیش نیز وجود داشت، زمانی که کارخانهها برقی شدند: این روند دههها طول کشید، زیرا نیازمند بازاندیشی کامل در چیدمان سالنها، فرآیندها و ساختارهای سازمانی بود.
علاوه بر این، به گفته مقاله، محدودیتهای موجود در سرعت نوآوری هوش مصنوعی ممکن است جدیتر از آن چیزی باشند که به نظر میرسند، چرا که بسیاری از کاربردها (مانند توسعه دارو، خودروهای خودران یا حتی رزرو یک تعطیلات ساده) نیازمند آزمایشهای گسترده در دنیای واقعی هستند. این امر میتواند کند و پرهزینه باشد، بهویژه در حوزههای حساس به ایمنی که تحت نظارتهای شدید قانونی قرار دارند. در نتیجه، نویسندگان نتیجه میگیرند که تأثیرات اقتصادی «احتمالاً تدریجی خواهند بود» و نه اینکه شامل یک جهش ناگهانی در خودکارسازی بخش بزرگی از اقتصاد شوند.
حتی گسترش آهسته هوش مصنوعی نیز ماهیت کار را تغییر خواهد داد. با خودکار شدن تعداد بیشتری از وظایف، «درصد رو به افزایشی از مشاغل و وظایف انسانی به کنترل هوش مصنوعی مربوط خواهد شد.» در اینجا میتوان آن را با انقلاب صنعتی مقایسه کرد؛ زمانی که کارگران از انجام وظایف دستی، مانند بافندگی، به نظارت بر ماشینهایی که همان وظایف را انجام میدادند تغییر نقش دادند—و همچنین مدیریت موقعیتهایی که ماشینها قادر به انجام آن نبودند (مانند زمانی که گیر میکردند و نیاز به دخالت انسانی بود). بنابراین، بهجای اینکه هوش مصنوعی مشاغل را به طور کامل تصاحب کند، احتمالاً مشاغل بیشازپیش شامل پیکربندی، پایش و کنترل سیستمهای مبتنی بر هوش مصنوعی خواهند شد. نارایانان و کاپور گمان میکنند که بدون نظارت انسانی، هوش مصنوعی ممکن است «چنان مستعد خطا باشد که از نظر اقتصادی توجیهپذیر نباشد.»
این موضوع به نوبه خود پیامدهایی برای خطرات هوش مصنوعی دارد. نکته قابل توجه این است که نویسندگان تأکید بر «همسوسازی» مدلهای هوش مصنوعی را نقد میکنند؛ یعنی تلاش برای اطمینان از اینکه خروجیها با اهداف خالقان انسانی هماهنگ باشند. آنان استدلال میکنند که زیانبار بودن یا نبودن یک خروجی اغلب به زمینهای بستگی دارد که انسانها آن را درک میکنند اما مدل فاقد آن است. برای نمونه، مدلی که برای نوشتن یک ایمیل متقاعدکننده درخواست میشود، نمیتواند تشخیص دهد که آن پیام برای بازاریابی مشروع به کار خواهد رفت یا برای فیشینگ مخرب. تلاش برای ساخت مدلی که قابل سوءاستفاده نباشد، به گفته نویسندگان، «مانند تلاش برای ساخت یک رایانه است که نتوان آن را برای کارهای بد استفاده کرد.»
به جای این رویکرد، آنان پیشنهاد میکنند که دفاع در برابر سوءاستفاده از هوش مصنوعی—برای مثال در ساخت بدافزارهای رایانهای یا سلاحهای زیستی—باید بیشتر بر مراحل بعدی متمرکز شود؛ یعنی با تقویت تدابیر موجود در امنیت سایبری و ایمنی زیستی. این کار همچنین تابآوری در برابر انواع این تهدیدها که لزوماً به هوش مصنوعی مربوط نمیشوند را افزایش میدهد.
ترمیناتور یک داستان خیالی است
چنین طرز فکری مجموعهای از سیاستها را برای کاهش خطر و افزایش تابآوری پیشنهاد میدهد. این موارد شامل حمایت از افشاگران (همانطور که در بسیاری از صنایع دیگر وجود دارد)، الزام به افشای استفاده از هوش مصنوعی (مشابه با حفاظت از دادهها)، ثبت و ردیابی استقرار (همانند خودروها و پهپادها) و گزارشدهی اجباری حوادث (مشابه با حملات سایبری) است. در مجموع، مقاله نتیجه میگیرد که درسهای گرفتهشده از فناوریهای پیشین میتواند بهخوبی در مورد هوش مصنوعی به کار گرفته شود—و برخورد با این فناوری بهعنوان یک امر «عادی» منجر به سیاستهای منطقیتری میشود تا نگاه کردن به آن بهعنوان یک ابرهوش قریبالوقوع.
البته مقاله بینقص نیست. گاهی لحن آن شبیه جدل علیه بزرگنمایی در مورد هوش مصنوعی است. در بخشهایی پراکنده است، برخی باورها را بهعنوان واقعیت بیان میکند و همه استدلالهایش قانعکننده نیستند—هرچند این موضوع درباره متون آرمانشهری و فاجعهمحور نیز صدق میکند. حتی عملگرایان هوش مصنوعی ممکن است احساس کنند که نویسندگان نسبت به احتمال اختلال در بازار کار بیشازحد بیخیالاند، سرعت پذیرش هوش مصنوعی را دستکم گرفتهاند، نسبت به خطرات عدم همسوسازی و فریبکاری بسیار بیاعتنا هستند و درباره مقررات بیشازحد خوشبین. پیشبینی آنها مبنی بر اینکه هوش مصنوعی قادر نخواهد بود «بهطور معناداری از انسانهای آموزشدیده در پیشبینی یا اقناع پیشی بگیرد» بیش از حد مطمئن به نظر میرسد. حتی اگر سناریوهای آرمانشهری و فاجعهبار اشتباه باشند، باز هم هوش مصنوعی میتواند بسیار تحولآفرینتر از چیزی باشد که نویسندگان توصیف میکنند.
با این حال، بسیاری از افراد هنگام خواندن این رد کردن استثنا بودن هوش مصنوعی، با تکان دادن سر موافقت خواهند کرد. دیدگاه میانهروانه کمتر از پیشبینیهای مربوط به یک «انفجار سریع» قریبالوقوع یا یک آخرالزمان دراماتیک است، بنابراین معمولاً توجه چندانی جلب نمیکند. به همین دلیل نویسندگان فکر میکنند بیان چنین موضعی ارزشمند است: زیرا باور دارند که «شکلی از دیدگاه ما به طور گستردهای میان مردم وجود دارد». در میان نگرانیهای کنونی درباره پایداری سرمایهگذاری در هوش مصنوعی، مقاله آنها جایگزینی خوشایند و آرام در برابر هیاهوی افراطی درباره هوش مصنوعی ارائه میدهد.
اخبار برگزیدهدانش و فناوریلینک کوتاه :