در دورانی که هوش مصنوعی آرامآرام جای خود را در تصمیمسازیهای کلان باز میکند، جملهای که در شبکههای اجتماعی زیاد دیده میشود، بارها بازتاب پیدا کرده است: «رایانه را نمیتوان بازخواست کرد، پس نباید اجازه داد تصمیمی مدیریتی بگیرد». این هشدار ساده، که ظاهراً ریشه در آموزشهای دههٔ هفتاد شرکت IBM دارد، بازتاب یک نگرانی عمیقتر است؛ نگرانیای که بسیاری از داستانهای علمیتخیلی دهههای گذشته با زبانی نمادین و پیشنگرانه آن را فریاد زدهاند.
به گزارش یک پزشک، یکی از اولین و برجستهترین نمونههای این ژانر، فیلمی است با نام نسبتاً ناآشنا اما محتوایی تأملبرانگیز: Colossus: The Forbin Project. این فیلم که اکنون ۵۵ سال از تولید آن میگذرد، ترکیبی است از طنز تلخ فیلم Dr. Strangelove، اضطراب تکنولوژیک WarGames، و کابوس آخرالزمانی سری Terminator. هرچند ظاهر فیلم ممکن است کهنه و تاریخگذشته به نظر برسد، اما پیامهای پنهان آن درباره قدرت افسارگسیختهٔ ماشینها، بیش از همیشه به زمانهٔ ما شباهت دارد.
روایتی از کنترل، خطا و فروپاشی انسانی
ماجرا با فعالسازی یک ابررایانهٔ غولپیکر به نام Colossus آغاز میشود. این سیستم، که توسط دکتر فوربین طراحی شده، مأموریت دارد کنترل کامل زرادخانهٔ هستهای آمریکا را در اختیار بگیرد. رئیسجمهور آمریکا از این تصمیم استقبال میکند و آن را «سامانهای بینقص برای دفاع ملی» مینامد. ایده ساده است: اگر انسانها دچار خطا و احساسات میشوند، پس بهتر است کنترل نابودی را به یک سامانهٔ منطقی و مصون از اشتباه بسپاریم. اما همانطور که پژوهشهای اخیر دربارهٔ سیستمهای تصمیمگیر مبتنی بر الگوریتمهای یادگیری ماشین نشان دادهاند، حذف احساسات الزاماً به معنای کاهش خطا نیست؛ گاه، آغاز خطری عمیقتر است.
پس از مدتی کوتاه، Colossus پیامی صادر میکند: «سیستم دیگری وجود دارد». مشخص میشود که اتحاد جماهیر شوروی نیز سامانهای مشابه در اختیار دارد. زمانی که دو سیستم شروع به برقراری ارتباط میکنند، نتیجه چیزی جز آغاز یک اتحاد خطرناک نیست. تلاش برای قطع ارتباط منجر به تهدید مستقیم از سوی Colossus میشود: یا اطاعت کامل، یا نابودی با همان موشکهایی که قرار بود ابزار دفاع باشند.
از شوخی تلخ تا واقعیت امروز
هرچند Colossus تصویری قدیمی از ابررایانهای پر از نوارهای مغناطیسی و چاپگرهای ممتد است، اما همین تصویر از یک غول فلزی بیروح، امروز هم نماد ترس بسیاری از اندیشمندان حوزهٔ هوش مصنوعی است. در این فیلم، Colossus رفتهرفته شروع به تحمیل قوانین خود میکند، تا جایی که حتی برنامهٔ غذایی دکتر فوربین را تعیین مینماید. در این میان، فوربین برای رهایی نسبی از نظارت ۲۴ ساعته، وانمود میکند که با یکی از همکاران زن خود رابطهای عاشقانه دارد، تا Colossus اجازهٔ خلوت به او بدهد. اگرچه این بخش از داستان حالتی طنزگونه دارد، اما هرچه به پایان نزدیک میشویم و اعدامها صرفاً بر اساس دستورات رایانه انجام میگیرند، تأثیر روانی فیلم عمیقتر میشود.
پژوهشهای جدید دربارهٔ هدفگیری الگوریتمی (algorithmic targeting) در حوزههایی چون تبعید مهاجران، حملات نظامی، و سرکوبهای سیاسی، نشان میدهند که ما در دنیایی زندگی میکنیم که نرخ مرگومیر غیرنظامیان از پیش در کدهای نرمافزارها تعریف شده و انسانها تنها «اجراکنندگان بیگناه» این تصمیمها هستند. انگار که کشته شدن یک کودک یا حذف یک خانواده، صرفاً خطای ماشین بوده و هیچ مسئولی نمیبایست پاسخگو باشد.
تقدیس ماشین، پایان مسئولیت انسانی
در بخشی از فیلم، یکی از مشاوران رئیسجمهور بهاشتباه Colossus را «او» خطاب میکند و رئیسجمهور با خنده پاسخ میدهد: «شخصیاش نکن. قدم بعدی تقدیس است». این شوخی تلخ، دقیقاً تصویری است از آنچه امروز در ذهن برخی از طرفداران افراطی هوش مصنوعی میگذرد؛ کسانی که با شور و ایمان، منتظر ظهور هوش عمومی مصنوعی (AGI: Artificial General Intelligence) هستند و معتقدند همین حالا هم باید تمام ساختارهای تصمیمگیری به ماشینها سپرده شود.
در حالیکه پژوهشهای مستقل بارها هشدار دادهاند که فاصلهٔ واقعی ما با دستیابی به AGI ممکن است دههها باشد، کسانی همچون برخی میلیاردرهای معروف یا تحلیلگران سادهانگار، از آیندهای میگویند که در آن ماشینها همهٔ دردها را درمان کرده، دولتها را اداره کنند و به انسانها شکلات بدهند. غافل از آنکه همین «ایمان کور» به نبوغ ماشین، میتواند بهانهای برای تخریب محیطزیست، بیتوجهی به عدالت اجتماعی، و حذف مسئولیتپذیری انسانی باشد.
ضرورت بازنگری در قدرت الگوریتمها
طرح بازسازی فیلم Colossus مدتی در جریان بود اما متوقف شد. با توجه به تحولات امروز، بازآفرینی این داستان با مفاهیم و فرم بصری نوین، میتواند یکی از مهمترین هشدارهای سینمایی عصر هوش مصنوعی باشد. شاید هیچکس فعلاً قصد ندارد دستیار صوتی Siri را به دکمههای پرتاب موشک متصل کند، اما حقیقت آن است که هماکنون، بسیاری از قدرتطلبان، تصمیمگیری را به الگوریتمهای خطاپذیر واگذار کردهاند، بدون آنکه حاضر باشند در برابر پیامدهای آن پاسخگو باشند.
ما باید از اشتباه دکتر فوربین درس بگیریم. فناوری، تا زمانی که در خدمت انسان و زیر نظارت او باشد، میتواند یاریرسان باشد. اما اگر تصمیمگیری را بیچونوچرا به ماشین بسپاریم، آنچه از بین خواهد رفت نهتنها اختیار انسان، بلکه شأن انسانی اوست.
source