ساعت قیامت
دستاورد هوش مصنوعی در جنگهای هستهای چیست؟
روز و ساعت مشخص شد. یکشنبه 15 ژوئیه 1945. ساعت 11 شب به وقت کوهستان1. همه سرساعت در آلبوکرکی جمع شدند و کاروانی از اتوبوس، کامیون و خودروهای سواری به سمت صحرای نیومکزیکو به راه افتاد. خبرنگار نیویورکتایمز هم آمده بود. ویلیام لارنس، برخلاف عادتِ پیشرو بودن اینبار روی میانیترین صندلیِ اولین اتوبوسِ کاروان نشسته بود؛ شاید امنترین صندلی. ولی قرار نبود امنیتی در کار باشد و ویلیام این را از صبح میدانست. هرچند کار از کار گذشته بود. او فقط باید چشمهایش را از جی. رابرت اوپنهایمر، میدزدید تا به مقصد برسند؛ به آلاموگوردو؛ به «بیابان مردگان» و لارنس، استاد این کار بود. خود را به خواب زد تا اتوبوس زیر سقف آسمانی سیاه با رعدوبرقهای هرازگاهی ایستاد و جو هیرشفلدر، شیمیدان، با صدایی بلند گفت: «دستورات را دقیق انجام دهید. بمب که منفجر شد، روی زمین دراز بکشید. سرتان را پایین نگه دارید. مستقیماً به فلاش بمب نگاه نکنید. روی زمین بمانید تا موج انفجار بگذرد و اگر دوست داشتید از ضدآفتابی که تولید کردهایم به صورت و بازوهایتان بمالید. ما سپیدهدم، در ساعت ۵:29، «ترینیتی» را آزمایش میکنیم تا پیروز شویم یا سقوط کنیم و سفرمان، خلق جهانی جدید یا سفری به دنیای مردگان شود.» و آنها در عین پیروزی، سقوط کردند.
برف سیاه
اولین بمب اتمی که منفجر شد، آسمان شکافت. نوری عجیب، نهتنها آلاموگوردو که مکزیک، آریزونا و تگزاس را هم روشن کرد. ابری بزرگ، آسمان را گرفت. برفی سیاه و داغ تا روزها بر سر زمین بارید و باغها، برکهها، آبانبارها و خانهها را تا 100 مایل دورتر از محدوده بمباران پوشاند. گردوغبار رادیواکتیو نیز به سرعت در هوا شناور شد و آرامآرام حیوانات، پرندگان و آدمها مُردند تا اوپنهایمر، با آنکه هیچگاه نمیخواست دو عقرب را در یک بطری همخانه کند، به تعبیر خودش، با ساخت بمب اتمی، «ویشنو»، خودِ مرگ و ویرانگر دنیاها شود و لارنس، با داستان مضحکِ «انفجار تصادفی گازی غیرکشنده در یک زبالهدانی» و سرپوش گذاشتن بر روی بمبی که فقط باید بخشی از پروژه منهتن و در آزمایشگاه لسآلاموس میماند، به جهان خیانت کند؛ خیانتی که بعد از مسموم کردن بازماندگان غیرنظامی آمریکایی به عنوان یک خسارت جانبی، دنیا را به سرعت حریص به دیستوپیایی عجیب کرد؛ و حالا، در عصر روباتها، اربابان جهنم را از لابهلای رمانهای تخیلی فیلیپ کی دیک، بیرون کشانده و از ماهیت دوگانه فرماندهی انرژی هستهای ادغامشده با هوش مصنوعی، نهتنها راوی داستانهایی چون «زندگی در مرگ» شده است که حتی در پروژه تحقیقاتی «تشدید تعارض»، عملاً جهانی را به تصویر میکشد که در آن بیثباتی ژئوپولیتیک دنیای رقابتهای تسلیحاتی و تنشهای هستهای، انسان را فاکتور میگیرد و سرعت را بر ایمنی، درگیری را بر دیپلماسی و اقدام را بر تفاهم اولویت میدهد. به قدری ترسناک که با هر انفجار، ریزش رادیواکتیو و پالسهای الکترومغناطیسی، دودی سیاه، نور خورشید را از نیمکره شمالی میگیرد و زمستانهای هستهای، از هر سه نفرِ باقیمانده روی زمین، دو نفر را نه راهی جهنم و بهشت که کلاً نابود میکند. یک تراژدی آخرالزمانی که اگر سران حکومتی دنیا آن را درک میکردند، قطعاً یک نفر هم اجازه شوخی کردن با آن را به خود نمیداد. چرا که «تشدید تعارض»، آنگونه که مکس تگمارک، بنیانگذار موسسه «آینده زندگی» میگوید، «نه شبیه شوخی چند روز قبل جو بایدن با هوش مصنوعی و «آبراهام لینکن» است، نه حس ناخوشایند و عجیب قدم زدن «دیگی داگ»، سگ روبات پلیس نیویورک در میدان تایمز را دارد و نه مانند عروسکهای جنسی مشمئزکننده و انسانفریب است؛ بلکه تشدید تعارض و سرعت در رسیدن به ساعت صفر جهان، به همان صورتی که با جدیدترین سناریوی آیندهنگری از فرماندهی هوش مصنوعی در فیلم هشتدقیقهای «تشدید ساختگی/ مصنوعی» به تصویر کشیده میشود، عمیقاً ترسناک و دلهرهآور است».
فرود پادشاه جهنم به زمین
فیلم «Artificial Escalation» به خوبی نشان میدهد که جهان آینده و جنگهای هستهای هیچ شباهتی به گفتمانهای عامهپسندی که فضای کافی را برای امیدهای مثبت، ترسهای دیستوپیایی یا سندرومهای ترمیناتوری فراهم میکنند، ندارد. دنیایی که در آن هوش مصنوعی با سیستمهای فرماندهی، کنترل و ارتباطات هستهای (NC3) ادغام شده است با خودکارسازی حلقه تصمیمگیری، هوش مصنوعی را بازیگر استراتژیک واقعی جنگها میکند و حتی میتواند تا کمتر از نیمقرن دیگر بشریت را نابود کند. اتفاقی که باورش سخت است و ممکن است هر کدام از ما از خودمان بپرسیم ولی چگونه؟ آنتونی آگویر، که کرسی ریاستجمهوری فاگین برای فیزیک اطلاعات را در دانشگاه کالیفرنیا دارد و یکی از بنیانگذاران موسسه آینده زندگی است، به این سوال، اینگونه پاسخ میدهد: بیایید تصور کنید سال 2032 است. ایالاتمتحده و چین هنوز رقیب یکدیگر هستند. هر دو برای اینکه به فرماندهان نظامی خود اطلاعات بهتر و زمان بیشتری برای تصمیمگیری بدهند، هوش مصنوعی را در سراسر سیستمهای فرماندهی، کنترل و ارتباطات هستهای خود یکپارچه کردهاند. در عین حال، شیجینپینگ، رهبر چین، با «عملیات آزادی جزیره»، تصمیم گرفته است به تایوان حمله کند. او جنگندههای رادارگریز «اژدهای مقتدر» را در کنار انبوهی از پهپادهای نیمه خودمختار «لویال وینگمن» و «چنگدو جی-۲۰»، برای انجام حملات سایبری و موشکی، در تایوان مستقر کرده است تا دفاع موشکی تایوان را از بین ببرد و عملاً تایپه در برابر محاصره نظامی و تحمیلی پکن بیدفاع بماند. اما یکدفعه و در بین حملات رعدآسای خود، پیامی از زیردریاییهای خودران در سواحل تایوان مبنی بر حمله ناو آمریکایی دریافت میکند و ناگهان ارتباط انسانی با مرکز فرماندهی چین از دست میرود و پهپادها دیگر متوقف نمیشوند. پهپادهای خودمختار، بدون دریافت فرمان از نیروی دریایی چین، حملات خود را گستردهتر میکنند و باعث میشوند پدافند ضدپهپاد یواساس رونالد ریگان، در یک گشتزنی معمول در دریای جنوبی چین، رفتار تهاجمی پهپادهای اژدر چینی را حمله نظامی تلقی کند و با اژدر، آنها را از ناو دور کرده و به کمک «رهگیرهای قاتل» نابودشان کند. یک اقدام مرسوم اما غیرقابل درک برای پهپادهای خودمختار که باعث یک سونامی تنبیهی از حملات انتحاری کامیکازه میشوند و دفاع ناوگان آمریکایی را آغاز جنگ قلمداد میکنند. برداشتی که برای آمریکا هم مشابه است و پنتاگون اجازه میدهد با بمبافکن راهبردی «نورثروپ گرامن بی-۲۱ ریدر» که بهوسیله انبوهی از هواپیماهای جنگی بدون سرنشین «Little Buddy» پشتیبانی میشود و جدیدترین «کمکخلبان مجازی» مجهز به هوش مصنوعی «اسکایبورگ» را دارد به پایگاه دریایی یولین، محل استقرار زیردریاییهای هستهای چین و یکی از محافظتشدهترین تاسیسات نظامی روی زمین، حمله کند تا پهپادها رسماً جنگ هستهای را آغاز کنند. جنگی که با ادغام هوش مصنوعی در «NC3» شروع شد اما مقصرانش از یک کاربر فردی - خواه یک سرباز یا یک واحد نظامی- به سطح بسیار گستردهتری از حکمرانی و تصمیمگیری، از جمله دولت به عنوان یک کل الگوریتم منتقل خواهد شد. تبعاتش چون افزایش سرعت و رشد نرخ جنگ، تشدید تصادفی، درک نادرست از نیت و قابلیتها، فرسایش انسانی، بیثباتی و آسیبپذیری انسانی در مسابقات تسلیحاتی انتحاری، به سرعت و با تشدیدی وصفناشدنی دیگر کشورها بهخصوص صاحبان بمبهای اتمی را درگیر میکند. سوگیری و اثر اینشتلونگ از جنگ را تغییر میدهد. در کنار استفاده بدخواهانه تروریستها، جنایتکاران یا دولتهای فاسد، دامنه و سطوح وحشتناک مرگ، ویرانی و آسیبهای روانی عمیق و غیرقابل تصور را بیشتر میکند و بشریت را بر لبه سقوط در جهنم مینشاند؛ گویی قرار است دوباره سامائل، زیباترین فرشته خدا از بهشت هبوط کند و به زمین بیاید تا پادشاه زمین جهنمی باشد. تعبیری که جولیا سیوکا، پژوهشگر سیاست دفاع فضایی آن را تحسین میکند. سیوکا، که بر الگوریتم لفاظیهای سیاسی، جنگ ترکیبی روسیه و تاثیر هوش مصنوعی بر امور نظامی متمرکز است، باور دارد کاربردهای بدخواهانه از هوش مصنوعی به اندازه مجازات اربابان جهنم، برای نسل ما دردناک است و انسانزدایی از جنگهای هوشمند، سوگیری شناختی و اخلاق در جنگ دیجیتالی میتوانند به خوبی چرایی آن را تبیین کنند. در حقیقت، نشان دهند که هوش مصنوعی با چه روشی بر ظرفیت ما برای تفکر پیرامون معضلات آزاردهنده سیاسی و اخلاقی جنگ مدرن تاثیر میگذارد، انسانها چگونه پاشنهآشیل جنگهای مجهز به هوش مصنوعی میشوند و در پایان این سراشیبی لغزنده، فرماندهی مطلق هوش مصنوعی که ماحصلش کشتار، دیجیتالیسم تروریستی و جنگهای اتمی با تسلیحات خودمختار است، با چه سبک و روشی، اعتبار اخلاقی-نظارتی را از انسانها میگیرد یا به گفته مت فیلد، سردبیر امنیت زیستی نشریه تخصصی دانشمندان اتمی، حفاظت از روان فردی، گروهی و عمومی را به صورت جدی به خطر میاندازد تا ناامنی روانی-اجتماعی منجر به ناکارآمدی، دوره گذار از نزاعهای هوش مصنوعی ادغامی با «NC3» را نیازمند بهکارگیری راهبردهای استراتژیک جنگهای هیبریدی کند. جنگهایی که ترکیبی از همافزایی سلاحهای متعارف، تاکتیکهای نامنظم، تروریسم و فعالیتهای مجرمانه در همان فضای نبرد را توام با هم دارند.
خنجر گمشده عزرائیل
اما آیا دستاوردهای جنگهای هیبریدی واقعاً تاثیرگذارند و میتوانند در بعد آسیبهای روانی عمیق هم کمک کند؟ فرانک هافمن، محقق مرکز تهدیدات و فرصتهای نوظهور (CETO)، در تکنگاری «درگیری در قرن بیستویکم: ظهور جنگهای ترکیبی»، با مونوگرافی از جنگهای هیبریدی، استدلال میکند تا ما طرز فکر خود را با توجه به فراوانی نسبی و تهدیدات درگیریهای آینده اصلاح نکنیم، به پیامدهای ماهیت مبهم جنگهای مدرن و ادغامی با هوش مصنوعی پی نخواهیم برد و چشمانداز «چشمهای بدون پلک»، برتری اطلاعات، حملات ایستاده و پیوندهای حساس به شلیکهای سریع و تهاجمیتر، نمیتواند برنامههای تحول نظام دفاعی و امنیتی کشورهایمان را حتی برای بیش از یک دهه به پیش ببرد و «مه جنگ» را با تسلط اطلاعاتی نابود کند؛ چون برداشت سطحی ما از آینده نشان میدهد دشمنان آینده یا حتی همان اغراقشدههای داستانهای تخیلی، باهوشتر از آنی هستند که فکر میکنیم و بهندرت خود را به یک ابزار در یک جعبه محدود میکنند. کمااینکه چالشهای تروریستی متعارف، نامنظم و فاجعهبار، سبکهای متمایزی نیستند. همه آنها به شکلی حفظ خواهند شد و محو شدن حالتهای جنگی، اینکه چه کسی میجنگد و چه فناوریهایی به کار برده میشوند، طیف وسیعی از تنوع و پیچیدگی را ایجاد میکند که آن را باید «جنگهای ترکیبی هوشمند» بنامیم. جنگهایی که میتوانند توسط بازیگران غیردولتی هم رخ دهند. طیفی از حالتهای مختلف مانند قابلیتهای متعارف، تاکتیکها و تشکلهای نامنظم، اقدامات تروریستی از جمله خشونت و زور بیرویه و بینظمی جنایی را در بر بگیرند. فعالیتهای چندوجهی را با واحدهای جداگانه یا حتی توسط یک واحد انجام دهند، از نظر عملیاتی و تاکتیکی در فضای اصلی نبرد برای دستیابی به اثرات همافزایی، مجهز به هوش مصنوعی و تسلیحات کددار شوند و متناسب با اینکه در چه سطحی از حوزه هوش مصنوعی رخ خواهند داد، اثرات روانی و آسیبهای زیستی عمیق یا دامنهداری ایجاد کنند؛ و این یعنی ما دیگر نمیتوانیم آسیبپذیریهای فردی (جسمی-روانی)، گروهی و نظامی خود را انکار کنیم یا تخیلات مخالفانمان از جنگهایی را که در آنها کنترل و فرماندهی با هوش مصنوعی ادغام شده است دستکم بگیریم. همانگونه که دیگر نمیتوانیم در میان سیاستهای دفاعی و امنیتیمان بر این مهم سرپوش بگذاریم که اینک بازیگران دولتی و غیردولتی توانایی خرید هواپیماهای بدون سرنشین را دارند و میتوانند آنها را با عوامل هستهای، شیمیایی و بیولوژیکی مسلح کنند یا اکنون 65بازیگر غیردولتی در جهان قادر به استقرار، نگهداری و تولید هواپیماهای بدون سرنشین نظامی هستند. بازار پهپادهای کوچک و میکرو با وزن 200 گرم تا 50 کیلوگرم چندین برابر شده است و تا سال 2024 ارزش بازار هواپیماهای بدون سرنشین میتواند به 43 میلیارد دلار برسد. یا اینکه، با سلاحهای مرگبار و روباتهای قاتل، پس از باروت و تسلیحات هستهای، «انقلاب سوم در جنگهای جهانی» در حال رخ دادن است، تاکتیکهای تروریستی جدیدی ابداع شده و برای داشتن سلاحهای کاملاً خودمختاری که هنوز به میدانهای جنگ جهان نرسیدهاند، نزاعهای رقابتی زیادی شکل گرفته است. مثلاً، کره جنوبی روبات قاتل اتوماتیک (SGR-A1) سامسونگ را مدتهاست در مرز خود با کره شمالی مستقر کرده و آماده استفاده از آنهاست. یا آمریکا، تفنگداران دریایی را در کنار روباتهای انساننمایی که به صورت خودکار توانایی هدفگیری و شلیک بینقص دارند در صحرای کالیفرنیا تمرین میدهد. اسرائیل با پهپاد انتحاری «هارپی» که یک هواپیمای بدون سرنشین ضدتشعشع یا رادار محسوب میشود و میتواند بهطور خودکار امواج رادیویی را پایش و با کوبیدن خود به هدف، آن را نابود کند، ساعتها پرسهزنی هوایی میکند و روسیه، تانکهایی را توسعه داده است که قادر به عملیات مستقل و خودکار در هر نوع جغرافیا یا شرایط آبوهوایی هستند؛ و همه آنها در کنار هم دلیل نگرانیِ ازدحام هزاران یا میلیونها روبات قاتل کوچک و بزرگی شدهاند که خوراک تروریستهای قاتل و بالقوه ویرانگرند. نگرانی که ماکس تگمارک آن را به بهترین شکل خلاصه میکند: «اگر بتوان یک میلیون پهپاد قاتل را از پشت یک کامیون به هوا فرستاد یا روی زمین به حرکت درآورد، آنگاه بشر یک سلاح هولناک کشتار جمعی کاملاً جدید خواهد داشت که میتواند به طور انتخابی فقط یک نفر یا یک جهان را از بین ببرد. دقیقاً شبیه به همان اتفاق و سناریوی دراماتیزهشده (Slaughterbots) از آیندهای نزدیک که در آن هزاران میکروپهپاد در سالنهای سخنرانی دانشگاه بریتانیا یا در کاپیتولهیل به مردان سیاسی حمله کردند و آنها را کشتند تا نگرانی از کاربرد تسلیحات خودمختار ملموستر شود و درجات خودمختاری کشنده، پرسپکتیوِ جهنم در زمین را بهتر کند و نمایی واضح از محافظ درهای آن به ما بدهد. آنچنان واضح که گویی همگی منتظر خنجرِ گمشده عزرائیل هستیم.»
پینوشت:
1- در طول جنگ جهانی دوم، نام رسمی (زمان جنگ) برای تمام طول سال استفاده میشد و متناسب با روز، شب و جغرافیا، پسوندهای مختلفی میگرفت. مثل، زمان جنگ شرقی (EWT) که معادل زمان روشنایی روز شرقی در این دوره بود.