خون بازی
همپیمانی هوش مصنوعی و اقتصاد اسلحه چگونه انسانها را هدف قرار میدهد؟
چقدر میترسید؟ کم یا زیاد؟ اهمیتی ندارد. ما اکنون در جایی از تاریخ ایستادهایم که ترس برایمان خوب، بد و کاربردی است. ترس برای ما، مکانیسم امنیتسازی است. منطق امنیتی-نظامی دارد. آمادگی دفاعی برای هر نوع تهدیدی را توجیه یا تایید میکند. به درک سنتی نظامی-سیاسی دولتها از امنیت برای تحکیم ستون فقرات سیاسی، بها میدهد. تجارتساز است. با گفتمانهایی از دنیای پر از تهدیدات، تصویری مشروع به سلاحها و ارتشها میبخشد. سطوح بالای نظامیسازی و هزینههای دفاعی را توجیه میکند. با کمک پروژههای ایدئولوژیک نومحافظهکاران -که عمدتاً از صنایع نظامی ایالات متحده تامین مالی میشوند- دولتهای «پیشرو» یا لیبرالتر را به نظامیسازی بیشتر میکشاند. سیاستمداران، سرمایهگذاران، مخترعان، تولیدکنندگان، صادرکنندگان و مردم را به جریانهای اصلی اقتصاد اسلحه تبدیل میکند. حتی از ورای سودآوری صنعت تسلیحاتی، عادیسازی جنگ و استفاده از سلاح برای دستیابی به اهداف سیاسی و گاه بشردوستانه را به طرز غمانگیزی تسهیل میکند و به برخی از دولتها اجازه میدهد تا لابیگرها، رسانهها، شرکتهای نظامی و اندیشکدههای امنیتی، تخصیص اعتبارات میلیاردی، فروش تجاری واسطهای تسلیحاتی، تبانی بین سازندگان اسلحه و سیاستمداران، جنگ و مهمتر از آن تلفات انسانی درگیریهای مسلحانه را عادیسازی کنند. کاری که باعث شده است بودجه و هزینههای وزارتخانههای دفاع برای حمایت از صنایع نظامی، انواع عملیات جنگی و حمایت از نیروهای شبهنظامی به بالاترین سطح خود از زمان پایان جنگ سرد برسد.
اژدهای سیاهچالهها
طبق پانورامای «MarketWatch»، پایگاه داده انتقال تسلیحات «SIPRI» و ارزش شاخص روند «TIV» موسسه تحقیقات صلح بینالمللی استکهلم، درآمد جهانی بازار اسلحههای کوچک مانند تپانچه، تفنگ، مسلسل فرعی، تفنگ تهاجمی و مسلسل سبک با نرخ رشد مرکب سالانه 15 /4 درصد، تا سال 2028 از 39 / 8072 میلیون دلارِ سال 2022 به بیش از 38 / 10305 میلیون دلار ارزش مییابد. بودجه دفاعی جهان که سال گذشته تقریباً چهار درصد بهصورت واقعی افزایش یافت و به بیش از دو تریلیون دلار رسید، فقط در چین، به صورت واقعی تا سال 2035 بیش از 75 درصد رشد خواهد داشت، تا همین بازه زمانی، چین به سرعت زرادخانه خود را از چندصد کلاهک به 1500 کلاهک افزایش میدهد و به پشتوانه تولید ناخالص داخلیاش که نزدیک به 80 درصد تولید ناخالص داخلی آمریکاست، توانایی حمله به تایوان را در اوایل سال 2027 مییابد. یا آمریکا که فروش مستقیم نظامی خود را از 103 میلیارد دلار در سال مالی 2021 با 6 /48 درصد افزایش به 7 /153 میلیارد دلار در سال مالی 2022 رساند و فروش سازماندهیشده آن از طریق دولت به 9 /51 میلیارد دلار در سال 2022 افزایش یافت، سود حاصل از فروش تجهیزات نظامیاش به دولتهای خارجی را با 49 درصد تا پایان سال 2023 به 6 /205 میلیارد دلار میرساند و از فروش تاییدشده 9 /13 میلیارددلاری جنگنده F-15ID به اندونزی، 9 /6 میلیارد دلار کشتیهای Multi-Mission Surface Combatant به یونان و شش میلیارد دلار تانک M1A2 Abrams به لهستان، در هوش مصنوعی و صنعت سیستمهای سلاحهای خودمختار «AWS» سرمایهگذاری خواهد کرد. در واقع آمریکا موقعیت ژئوپلیتیک جنگی و دفاعیاش را با این سرمایهگذاری و به کمک یکی از بزرگترین تلاشهای نوپای خود برای پیشبرد هوش مصنوعی یعنی روباتهای پرندهای که به صورت مشترک با جت جنگنده اصلاحشده F-16 پرواز میکنند و همچنین برنامه محرمانه «سلطه هوایی» که امکان حمله مشترک یک هزار هواپیمای بدونسرنشین با 200 هواپیمای دارای خلبان را فراهم میکند، تقویت خواهد کرد. اقدامی که داگلاس شاو، مشاور ارشد ابتکار عمل تهدید هستهای، آن را «جنگ مرگبار فناوری با انسان» میداند. جیمز جانسون در کتاب «هوش مصنوعی و بمب»، برای آن سناریوی یک جنگ هستهای تصادفی در سال ۲۰۲۵ را ترسیم میکند که با هوش مصنوعی، باتها و دیپ فیکها، دنیا را از مرگ و نابودی میترساند. کیت هارتلی، اقتصاددان برجسته دفاعی، آن را عامل تحول اقتصاد صنایع تسلیحاتی جهان با احتساب صرف حداقل هزینه 5 /1 تریلیوندلاری کشورهای آلمان، چین، آمریکا، روسیه، برزیل، کره، ژاپن، بریتانیا و اروپا برای خرید، فروش و صادرات تسلیحات که معادل 7 /2 درصد از تولید ناخالص داخلی دنیاست، میداند؛ و البته بارتلز، کولبر، دورن، هورست، پاولی و اشنایدر، محققان IR ، رفتار انسانی آن را پیشزمینه تغییر هولناک بسیاری از رهبران سیاسی و نظامی دنیا میدانند، آنچنان تلخ که گویی جنگها، بازیهای نرمافزاریاند، تلفات انسانی هزینه جانبی بازیها و تمرینهای جنگی شبیهسازی شده و مجازیاند و نباید آنها را جدی گرفت.
رام کردن گرگهای آلفا
اما آیا واقعاً میتوان چنین کاری کرد و حتی مرگهای تلخ حاصل از جنگهای کلاسیک را نادیده گرفت؟ آیا مرگ 150 هزار نفر در 50 درگیری مسلحانه، کشته شدن 384 هزار انسان به خاطر خشونتهای نظامی و قتل 233 هزار انسان در جنگهای کلاسیک فقط طی یک سال، به قدری عادی است که بتوانیم در آیندهای نهچندان دور، تلفات بزرگ انسانی ناشی از جنگ روبات و انسان را اتفاقی غیرقابل کنترل شبیه فیلم آلمانی متروپلیس یا رمان دیستوپیایی فارنهایت 451 بدانیم؟ به گفته ژاکلین اشنایدر، مدیر ابتکار عمل در شبیهسازهای بحران و محقق فناوریهای خودمختار و بازیهای جنگی موسسهHoover ، قطعاً نمیتوان پاسخ خوشبینانهای به چنین سوالاتی داد. او که مبتکر 50 بازی جنگی است و تلاقی فناوری، امنیت ملی و جنگهای هستهای را در پروژه تحقیقاتی «اشنایدر» معروف به «بازی جنگ» در هفت کشور بررسی میکند، معتقد است کنترل فناوریهای مجهز به هوش مصنوعی در حوزه نظامی و تسلیحاتی مانند رامکردن گرگهای آلفا یا شیرهای وحشی با دست است، چون سیستمهای تسلیحات خودمختار مرگبار برای عمل نیازی به کنترل انسانی ندارند، خطرات مرزی مهمی ایجاد میکنند و مقررات جهانی هم در مورد استفاده از آنها و هوش مصنوعی نظامی به شدت ناکافی است. بر همین مبنا، اگرچه پیشرفتهای عمده در هوش مصنوعی منجر به تکمیل و توسعه سیستمهای تسلیحاتی خودکار مرگ آفرین «LAWS»، با هدف شناسایی، درگیری و نابودی در جنگ، بدون کنترل انسانی و البته خوراک ادبیات علمی تخیلی و سینما شدهاند، اما واقعیت دیگر حدس و گمان نیست و چهبسا عمیقاً ترسناک شده است. سیستمهای هوش مصنوعی حالا میتوانند بهطور مستقل از دادهها استفاده و رفتار انسان را پیشبینی کنند. حتی اطلاعات جمعآوری کرده و ناظر باشند. اهداف بالقوه را شناسایی و تصمیمهای تاکتیکی در نبردهای مجازی بگیرند. سادهتر بگویم استفاده از روباتها در ارتشها اینک در حال تبدیل شدن به انتخاب و یک فرآیند عادی است و جهش به سمت روباتهای کاملاً خودمختار که حتی برای جنگهای هستهای بهینه شدهاند و خطرات مرزی بزرگی ایجاد میکنند، تخیل نیست، همانطور که بازیهای جنگی عملاً تخیل نیستند و یک پیشزمینه فکری انسانی با سوگیریهای متفاوت اجتماعی و روانشناختی دارند. مثلاً در «WarGames»، یک نوجوان دهه 1980، برنامه کنترل هستهای ایالاتمتحده را هک و یک جنگ هستهای را آغاز میکند. کاری که یک تصویر متداول از خطرات زرادخانههای هستهای دیجیتالی فزاینده را نشان میدهد و تعیّنگر چیزی است که بسیاری از محققان و متخصصان آن را خطرناکترین پیامد افزایش حملات سایبری متکی به AI و بیثباتی در فرماندهی و ناتوانی در کنترل ارتباطات هستهای دولتها «NC3» میدانند و اعتقاد دارند مانند تحقیقات انجامشده در طول جنگ سرد حتی آسیبپذیری جدی دولتها میتواند انگیزهای کافی برای جلوگیری از پرتاب سلاحهای هستهای کلاسیک یا وابسته به AI باشد. از سویی چون هیچ تحقیق تجربی برای حمایت از چنین نتایجی وجود ندارد، دولتها میتوانند با دیدی متفاوتتر نسبت به سه سناریو درمان و یک سناریو کنترل بدون آسیبپذیری یا سوءاستفاده در بازیهایی شبیه اشنایدر یا همان «WarGames»، که طی ماهها کار تجربی و آزمایشگاهی با نمونهای از بازیکنان نخبه ایالات متحده و چند کشور منتخب، به دست آمده است، بپذیرند که رابطه بین فناوریهای جدید، سیاست داخلی، قابلیتهای نظامی متعارف و تهدیدات هستهای، شبیه روابط بازی جنگ است. بازیکنان صنایع تسلیحاتی و نظامی باید در واقعیت نقش شبیهسازیشده تصمیمگیرنده را در کابینههای امنیت ملی داشته باشند و ببینند که فناوریهای نوظهور چگونه به پارادایمهای بازدارنده و تشدید بحرانهای جهانی واکنش نشان میدهند، فرهنگ، قوانین جهانی، حقوق بشردوستانه بینالمللی، سوگیریهای شناختی سیاسی-دفاعی و تخصص فناورمحور در برخورد با احتمالات جنگهای سایبری، نوسازی هستهای و اسلحههای خودکار کوچک و بزرگ، چه نقشی دارند و «تئوری سیاست درهای باز» در هوش مصنوعی نظامی و اقتصاد اسلحه از سوی کدامیک از 37 شرکت اصلی تولید تسلیحات نظامی و هوافضا در جهان که مهمترین آنها بوئینگ، هانیول، لاکهید مارتین و جنرال داینامیکس هستند و در سال 2021 بالغ بر 903 میلیارد دلار بودجه از بیش از 500 بانک در 50 کشور گرفتهاند یا 10 موسسه مالی اصلی درگیر و برتر در تجارت اسلحه که در ایالات متحده، فرانسه و بریتانیا مستقر هستند، میتواند مطرح شود؟ یا حتی فراتر از آن اصلاً امکانش وجود دارد؟
جبر ماهی قرمز قاتل
سیاست درهای باز، بیانیهای از اصول بود که توسط ایالاتمتحده در سالهای 1899 و 1900 آغاز شد. این سیاست خواستار حمایت از امتیازات برابر برای همه کشورهای تجارتکننده و حمایت از تمامیت ارضی و اداری بود. این بیانیه در قالب دو بخشنامه و یادداشتهای دیپلماتیک توسط جان هی، وزیر امور خارجه آمریکا به بریتانیا، آلمان، فرانسه، ایتالیا، ژاپن و روسیه ارسال شد، سنگ بنای سیاست خارجی آمریکا در شرق آسیا تا اواسط قرن بیستم بود و با تغییرات در صحنه بینالمللی در اواسط همان قرن محکوم شد. سیاستی که اندرو فاینشتاین، نویسنده کتاب «دنیای ساده» و افشاگر تبانی مرگبار سیاستمداران ارشد، سازندگان سلاح، دلالان جنایتکار اسلحه و ارتشها، وجود آن را به مثابه یک کاتالیزور در تسلیحات نظامی هوشمند و اقتصاد صنایع تسلیحاتی میداند. به استدلال او، تئوری «در باز» یک ابزار مفهومی قدرتمند برای تفکر در مورد تمام فناوریها، به ویژه تکنولوژی نظامی و هوش مصنوعی است، چون بر چیزی تاکید میکند که اکثر گزارشهای نوآوری فاقد آن هستند: عامل انسانی. انسان در عصر تسلیحات مدرن و ارتش روباتها، نیاز دارد که تصمیم بگیرد آیا میخواهد یا میتواند از یک نوآوری نظامی به صورت کنترلشده و به نفع تمامی کشورها نه در راستای نابودیشان استفاده کند، آن را با شرایط خود تطبیق دهد، در برابر «جبر تکنولوژیک» که یک شاهماهی قرمز است، مقاومت کند؟ و با نوآوری جنگی که در ظاهر به جبر و نوعی حواسپرتی و ابزاری بلاغی اما در واقعیت هدایتکننده تمامی جنگهای انسانی عصر مدرن است، کنار بیاید؟ کاری که خیلی از کشورها و رهبران نظامی دنیا تاکنون انجام نداده و نپذیرفتهاند که عامل انسانی نه یکبار، بلکه دوبار در نوآوری و محصولات هوش مصنوعی دخالت میکند. یکبار به هنگام کشف و بار دیگر به وقت استفاده یا سوءاستفاده از آن. کاری که قطعاً در سیستمهای نظامی مدرن و مجموعههای نظامی ـ صنعتی که بازنمود جانبی جنگ سرد هستند، اثرگذاریهای بزرگی دارد. چرا که بیشک این در میتواند بچرخد، بایستد، قفل شود یا به انحصار کسانی درآید که راه عبور از آن را میدانند، با آن به قلمروهایی وارد میشوند که منافعشان را تامین میکند، دلایل تصمیماتشان، حتی تصمیمهای بد، نه فقط در فناوری، بلکه در انتخاب نیروهای نظامی، سیاسی و اقتصادی دیده میشود و گاه دیکتاتورهای فاقد تابآوری در برابر دیدگاهها و رویکردهای مخالف را میآفریند و در جهان سرگردان میکند. دیکتاتورهایی که با تکنولوژی جنگ میسازند، مسیر جنگها را تغییر میدهند و دنیا را به انتهای بنبستهای هستهای و سیاهی فناوری میبرند. اتفاق بدی که نیت مارکس، پژوهشگر مرکز سیاست بینالملل آمریکا در گزارش «سلاحهای ما کجا میروند؟»، آن را «آخرالزمان بیمنجی دموکراسی» تعبیر میکند و «نظارت بر استفاده نهایی» را راهکار نرسیدن به سیاهی هوش مصنوعی نظامی و خودمختاری تسلیحات خودکار میداند.
ما میمیریم
بنا بر استدلال پژوهشگر مرکز سیاست بینالملل آمریکا، همیشه در بحث اقتصاد اسلحه و کاربرد AI، کاهش شفافیت و نبود دموکراسی، معادلات جهانی را بر هم زده که جدیدترین نمونهاش انتقال تسلیحات به اوکراین است. از زمان تهاجم روسیه، واشنگتن 22 بسته تسلیحاتی جداگانه را با هزینههای میلیاردی -که اقتصاد تسلیحاتی آمریکا را در بخشهای مختلف نابود کرد- در ظاهر با هدف حمایت و دفاع به اوکراین ارسال کرده و تصور میکند به شفافیت متعهد بوده و این نه خودنمایی که کسب امتیاز سیاسی به خاطر افشای عمومی اطلاعات در خصوص مقاصد تسلیحاتی خودکار است. در صورتی که با صرف نظر از چرایی صادرات سلاح به اوکراین در دولت بایدن، یک مقوله چالشبرانگیز یعنی EUM، زیر سوال رفته است. «نظارت استفاده نهایی» مدتهاست در ایالاتمتحده که خود را رهبری پیشرو در شفافیت نظامی میداند، یک نقطه کور بوده و مقامات واشنگتن عمدتاً بر روی این موضوع تمرکز کردهاند که آیا تسلیحات هوایی و زمینی صحیح و سالم به انبارها میرسند؟ در حالی که باید از خود بپرسند افزایش 49درصدی صادرات تسلیحات در سال 2023 که ارزش آن بالغ بر 6 /205 میلیارد دلار بوده، چقدر به جای امنیت، سود نظامی-سیاسی واشنگتن را تامین کرده است؟ اصلاً چه حفاظتهایی برای جلوگیری از انحراف و کنترل سلاحهای خودکار و کشنده در اوکراین وجود دارد؟ علاوه بر آن و جدای از بحث آمریکا و اوکراین، در حالی که وزارت دفاع کشورهای مختلف مشتاقانه به دنبال ادغام قابلیتهای هوش مصنوعی با تسلیحات نظامی هستند، کسی با توجه به گسترش چشمگیر نقش پهپادهای هدایتشده با هوش مصنوعی به فکر تغییر ژئوپلیتیک جنگ و بازدارندگی برای حفظ نجات انسانها هست و حکمرانی هوش مصنوعی را در تنظیمات دیپلماتیک جدی گرفته است؟ بیشک تمامی افراد درگیر در اقتصاد اسلحه و AI میدانند که تسلیحات خودمختار در بعد مثبت، نوید دستاوردهایی در کارایی، اقتصاد و برتری تاکتیکی را میدهند. آنها میتوانند در مناطق صعبالعبور یا غیرقابل اقامت خوب عمل کنند و ماموریتهایی را انجام دهند که برای جنگجویان انسانی بسیار خطرناک است. مثلاً میتوانند بمبها را غیرفعال کنند، زمینهای مینگذاری شده را پاکسازی کنند، ماموریتهای نجات پیچیده را انجام دهند، وارد غارها شوند و به مرزهای سرزمینی دشمن با هزینههای پایین نفوذ کنند. اما قطعاً روباتها کارگزاران اخلاقی نیستند. شفقت، همدلی یا شهود ندارند. از قوانین بینالمللی درگیری مسلحانه تبعیت نمیکنند و ابزار الزامآور قانونی برای اطمینان از کنترل معنادار انسانی بر عملکردهای حیاتی در سیستمهای تسلیحاتی خودمختار هم وجود ندارد؛ بنابراین، اگر همچنان موافق و مایل به استفاده بیشتر از هوش مصنوعی برای سودآوری اقتصاد صنایع تسلیحاتی هستیم، به قطع، نه کتابها و مقالات و نه هشدارهای دیپلماتیک، هیچکدام نمیتوانند ما را از تفنگی که تا زیرگلویمان رفته و آماده شلیک است نجات دهد و همگی به زودی میمیریم.