مهار روباتها
سلاحهای خودکار و قواعد جنگ
هاروپ (Harop) پهپاد انتحاری همانند اسبی که از دروازه بیرون میدود از پرتابکننده خود خارج میشود. اما این ابزار با هدف سرعت یا حرکات نمایشی ساخته نشده است. به جای آن، هاروپ بدون آنکه کسی بر آن نظارت کند در ارتفاع بسیار بالا بر فراز میدان جنگ پرسه میزند بدون آنکه صدایی از آن به گوش برسد. هاروپ منتظر فرصت میماند. اگر فرصتی پیش نیاید این پهپاد در نهایت به پایگاه هوایی از قبل تعیینشده بازمیگردد و برای ماموریت بعدی آماده میشود.
هاروپ (Harop) پهپاد انتحاری همانند اسبی که از دروازه بیرون میدود از پرتابکننده خود خارج میشود. اما این ابزار با هدف سرعت یا حرکات نمایشی ساخته نشده است. به جای آن، هاروپ بدون آنکه کسی بر آن نظارت کند در ارتفاع بسیار بالا بر فراز میدان جنگ پرسه میزند بدون آنکه صدایی از آن به گوش برسد. هاروپ منتظر فرصت میماند. اگر فرصتی پیش نیاید این پهپاد در نهایت به پایگاه هوایی از قبل تعیینشده بازمیگردد و برای ماموریت بعدی آماده میشود. اما اگر راداری با هدف شوم بر روی آن قفل کند هاروپ سیگنالهای آن را دنبال میکند تا به منبع سیگنالها برسد و سپس کلاهک جنگی نصبشده در دماغه آن خود پهپاد، رادار و اپراتورهای آن محدوده را منفجر میسازد.
شرکت صنایع هوا-فضای اسرائیل (IAI) بیش از یک دهه است که هاروپ را میفروشد. تعدادی از کشورها از جمله هند و آلمان این پهپاد را خریداری کردهاند. آنها مجبور نیستند پهپاد را در حالت خودکار راداریاب بهکار گیرند بلکه میتوان آن را علیه هر هدفی بهکار برد که دوربینهای آن تشخیص میدهند و اپراتورها دستور حمله به آن را صادر میکنند. احتمال میرود آذربایجان در سال 2016 در مناقشه با ارمنستان بر سر منطقه ناگورنو قرهباغ از این قابلیت بهره گرفته باشد. اما آن پهپادهای هاروپ که اسرائیل علیه سامانههای دفاع هوایی سوریه بهکار گرفت احتمالاً خودکار بودند.
طبق گزارش سال 2017 اندیشکده «موسسه پژوهشهای صلح بینالملل در استکهلم» هاروپ یکی از 49 سامانه جنگی است که میتوانند اهداف احتمالی را تشخیص دهند و بدون دخالت انسان به آنها حمله کنند. بنابراین، هاروپ جزو آن دسته از سلاحهایی قرار میگیرد که ائتلاف 89 سازمان غیردولتی از 50 کشور را آزار میدهند. این با شعار «کارزار توقف روباتهای قاتل» تشکیل شده است. نام این کارزار نمونه تاثیرگذاری از مقابله با یک برند است. کدام فرد عاقل و بالغی هست که خواستار توقف استفاده از روباتهای قاتل نباشد؟ عنوان روبات قاتل خود دو بحث مهم و هراسآور در مباحث علمی-تخیلی را تداعی میکند: سلاحهایی با قدرت خارقالعاده و هوشمندی غیرانسانی.
اما موضوع هاروپ نشان میدهد که اینگونه سلاحها و نگرانیهای مرتبط با آنها تازگی ندارند. موشکهای «شلیک و فراموش کن» (Fire and Forget) که میتوانند قبل از تشخیص سیگنالهای رادار و حمله به هدف تا مدتها پرسه بزنند از دههها قبل استفاده میشوند. این موشکها از هواپیما شلیک میشدند، زمان کمتری پرسه میزدند و اگر شانس پیدا کردن رادار دشمن را از دست میدادند نمیتوانستند به پایگاه بازگردند و منتظر ماموریتی دیگر بمانند. اما توانایی خودکاری آنها در حمله کردن تغییری نکرده است. مینهای ضدنفر که قرنها مورد استفاده قرار میگیرند در یکجا مستقر هستند و هر کسی را که بر رویشان پا بگذارد میکشند به جای آنکه به اهداف راداری حمله کنند. اما وقتی اینگونه سلاحها کار گذاشته میشوند دیگر هیچ انسانی در زمان و هدف حمله آنها دخالت ندارد. شناخت تاریخچه طولانی و ناخوشایند سلاحهایی که هر کس را میکشند و انسان دخالت مستقیمی در عملکرد آنها ندارد برای هرگونه بحث پیرامون مخاطرات و وضعیت اخلاقی سلاحهای خودکار اهمیت زیادی دارد. نمیتوان این حقیقت را کتمان کرد که قابلیتهای آنها رو به افزایش است و هرچند توافقاتی برای محدودیت استفاده از آنها به عمل آمده اجرای این توافقات دشوار است. به راحتی میتوان گفت که مینهای کاشتنی در زمره سلاحهایی قرار میگیرند که طبق معاهده اتاوا (Ottawa Treaty) ممنوع هستند. اما گفتن اینکه هاروپ یک روبات خودکار است یا سلاح کنترل از راه دور، به نرمافزاری بستگی دارد که در آن زمان آن را کنترل میکند.
از زمانی که اولین اژدرهای آکوستیک در جنگ جهانی دوم بهکار گرفته شدند سلاحها قادر شدند بدون نظارت انسان هدفهایشان را تشخیص دهند. اکثر سلاحهای مدرن که علیه ابزارهای پرسرعت بهکار میروند هدفگیری را بر مبنای صدا، امواج رادار یا حرارت انجام میدهند. اما در اکثر موارد تصمیمگیری در مورد اینکه کدام هواپیما یا کشتی مورد هدف قرار گیرد بر عهده یک انسان است.
سامانههای دفاعی از قبیل توپهای فالانکس (Phalanx) که در نیروی دریایی آمریکا و متحدانش استفاده میشود جزو موارد استثنا هستند. این سامانهها وقتی روشن باشند هر چیزی را که به سمت کشتی محل استقرار آنها بیاید هدف قرار میدهند. این ویژگی در مواردی که کشتی در خطر حمله موشکهای بسیار سریع قرار دارد و واکنش انسانی زمانبر است منطقی به نظر میرسد. همین استدلال را میتوان در مورد سلاحهای روباتی نگهبان در منطقه غیرنظامی بین کره شمالی و جنوبی بهکار برد.
ظهور دستگاهها
چالش پیش روی نیروهای مسلح عصر جدید و سازندگان سلاح توانایی تشخیص هدف از میان انبوهی از موارد غیرهدف است. دو نوع پیشرفت فناوری وجود دارد که حل این چالش را در زمان مناسب امکانپذیر میسازند. اول اینکه رایانهها در مقایسه با گذشته بسیار قدرتمندتر شدهاند و به خاطر یادگیری ماشینی توانایی قابل ملاحظهای در تمایز اشیا از یکدیگر دارند. اگر یک آیفون میتواند صورت شما را تشخیص دهد و دیگران را از دسترسی به گوشی شما بازدارد دلیلی ندارد که موشک نتواند یک تانک را از اتوبوس مدرسه تشخیص دهد.
تغییر دیگر آن است که خودکاری در بخشهای غیرکشنده صنایع نظامی به سرعت رو به گسترش است. پهپادها، کامیونهای بدون راننده و زیردریاییهای بدون خدمه برای مقاصد مختلف مورد استفاده قرار میگیرند که اکثراً کشنده نیستند. در رزمایش «جنگجویان خودکار ارتش بریتانیا» که در دسامبر 2018 در زمینهای مرطوب و دارای باد شدید دشت سالزبری در جنوب انگلستان برگزار شد افسران ارتش وسایل نقلیه و هواپیماهای خودکار را به نمایش گذاشتند که برای بررسی خطوط دشمن، تخلیه سربازان مجروح و تحویل امکانات در منطقه پرخطر و خط مقدم طراحی شده بودند. وسایل نقلیه خودکار حتی اگر توان کشتار داشته باشد لزوماً به سلاحهای خودکار تبدیل نمیشوند. پهپادهای ریپر (Reaper) که آمریکا با آنها دشمنان را میکشد هنگام عملیات تحت کنترل شدید انسانی هستند با وجود اینکه آنها قابلیت پرواز در حالت خودکار را دارند.
کنترل از راه دور ماهوارهای با تاخیر زمانی صورت میگیرد. این تاخیر در زمانی که پهپادها در یک جنگ تمامعیار هدف قرار میگیرند اهمیت ویژهای پیدا میکند. همکاری با انسانهایی که خارج از حوزه نظامی هستند نیز مفید خواهد بود. شاخه اندیشه پنتاگون (DARPA) که خارج از سازمان است بر روی حملات فوجی خودکار (همانند حرکت فوجسازها) و جایگزین کردن آن به جای ساخت بمبافکنها کار میکند. اما کدام اپراتور انسانی میتواند این نوع حمله پویا را هماهنگ سازد؟ این نگرانی صرفاً به آینده مربوط نمیشود. شرکت موشکسازی MDBA در اروپا با افتخار اعلام میکند که یکی از مزایای موشکهای هوا به زمین بریماستون (Brimstone) آن است که میتوانند به ترتیب شلیک خود دست به انتخاب بزنند. اگر هواپیماهای مختلف چندین موشک بریماستون را همزمان در یک منطقه شلیک کنند و به آنها اختیار انتخاب هدف بدهند موشکها با یکدیگر ارتباط برقرار میکنند تا احتمال اینکه دو موشک یک هدف را بزنند کاهش یابد.
در ارتشهایی که هزینه نیروهای آموزشدیده بسیار بالاست بحث بودجه عامل مهمی خواهد بود. ژنرال ریچارد بارونز یکی از ارشدترین فرماندهان بریتانیا تا سال 2016 میگوید روباتها به حقوق و مستمری نیاز ندارند و از آنجا که زن و بچه و وابستگانی هم ندارند از دست رفتن یک روبات صرفاً بر مبنای خسارت پولی و قابلیت آن ارزیابی میشود نه پتانسیل انسانی.
اگر موضوع حفظ دخالت انسانی فقط به هزینه آن مربوط باشد این کار ارزش دارد. اما کنترلهای انسانی آسیبپذیرند. به آن معنا که شما باید انبوهی از دادههای رمزنگاریشده را جابهجا کنید. اما اگر پیوندهای (لینکهای) دادههای ضروری به صورت فیزیکی –مثلاً با سلاحهای ضدماهواره- مورد حمله قرار گیرند یا در ترافیک الکترونیکی گرفتار شوند یا جنگافزارهای سایبری مسیر آنها را عوض کنند چه باید کرد؟ احتمالاً جنگهای آینده در فضایی صورت میگیرند که نیروهای مسلح آمریکا آن را «محیط پرمنازعه الکترومغناطیس» مینامند. اما نیروی هوایی علاقهمند است مطمئن شود که خلبانان شغل خود را از دست نمیدهند. این نگرانی ممکن است آنها را به تعصب و جانبداری ناخودآگاه بکشاند. آسیبپذیری پیوندهای ارتباطات دلیل دیگری برای طرفداری از خودکاری بیشتر است. اما سامانههای خودکار نیز ممکن است مورد مداخله قرار گیرند. حسگرهای سلاحهایی مانند موشکهای بریماستون باید خیلی هوشمندتر از حسگرهای اتومبیلهای خودران باشند، نهتنها به خاطر اینکه میدان جنگ پر از هرجومرج است بلکه به این دلیل که طرف مقابل تلاش میکند جهت آنها را تغییر دهد. درست همانگونه که معترضان در تظاهرات از آرایشهای نامتقارن برای فریب دادن سامانههای تشخیص چهره استفاده میکنند اهداف نظامی نیز تلاش میکنند سیگنالهای انحرافی را برای سلاحهای خودکار بفرستند. پل شار نویسنده کتاب «ارتش هیچکس: سلاحهای خودکار و آینده جنگها» هشدار میدهد که سامانههای عصبی مورد استفاده در یادگیری ماشینی در مقابل فریبکاری آسیبپذیر هستند.
روز قضاوت
قابلیتهای جدید، پایداری در برابر اقدامات متقابل و وجود بازارهای صادراتی جدید عوامل مشوق توسعه و پژوهش در زمینه سلاحهای خودکار هستند. کارزار متوقف کردن روباتهای قاتل برای مهار این انگیزه خواستار ممنوعیت زودهنگام سلاحهای کاملاً خودکار شده است. مشکل آنجاست که در مورد حد و مرز آن اجماعی وجود ندارد. به عنوان مثال سوئیس میگوید سلاحهای خودکار آنهایی هستند که قادرند «بخشی یا به طور کامل به جای انسانها در نبرد به ویژه در هدفگیری ایفای نقش کنند». این تعریف هاروپ و بریماستون و چندین سلاح دیگر را دربر میگیرد. در مقابل، بریتانیا میگوید سلاحهای خودکار آنهایی هستند که سطوح بالای منظور و جهت را درک میکنند. این تعریف هیچ چیز از تجهیزات جنگی امروزی یا حتی آنهایی را که در نوبت طراحی قرار دارند شامل نمیشود. به منظور سروسامان دادن به این اوضاع در سال 2017 کنوانسیون سازمان ملل در زمینه سلاحهای متعارف خاص بحثهای گذشته در این باره را رسمیتر ساخت و گروهی از متخصصان دولتی تشکیل داد تا نکات ظریفتر خودکاری را مطالعه کنند. این گروه علاوه بر تلاش برای ایجاد درکی مشترک از تعریف سلاحهای کاملاً خودکار، ممنوعیت فراگیر و سایر گزینهها برای چالشهای انسانی و امنیتی این سلاحها را بررسی میکند. اکثر دولتهای شرکتکننده در مباحثات کنوانسیون اهمیت کنترل انسانی را میپذیرند اما در مورد معنای واقعی آن اختلاف نظر دارند. «ماده 36» نام گروهی است که اسم خود را از یکی از مفاد کنوانسیون ژنو میگیرد که خواستار بررسیهای قانونی روشهای نوین جنگافزارهاست. هذر راف و ریچارد مویز در مقالهای که برای این گروه نوشتند استدلال میکنند که انسانی که صرفاً در پاسخ به پیامهای یک رایانه و بدون شفافیت شناختی یا آگاهی کلید شلیک را فشار میدهد واقعاً کنترل را در اختیار ندارد. به گفته آنها «کنترل معنادار» مستلزم درک محیطی که اسلحه در آن بهکار میرود و همچنین داشتن قابلیت مداخله به موقع و منطقی است. علاوه بر این، چنین مفهومی پاسخگویی را نیز دربر دارد.
سرهنگ دوم ریچارد کریگ که فرماندهی مرکز پژوهشهای سامانههای خودکار ارتش بریتانیا را بر عهده دارد اهمیت محیط را میپذیرد. او میگوید در برخی موارد ممکن است لازم باشد هر هدفی را بزنیم و در مواقع دیگر کافی است تهدید را درک و مطابق آن عمل کنیم. به عنوان مثال یک سامانه فالانکس فقط وقتی در حالت کاملاً خودکار قرار میگیرد که تهدید جدی باشد. کنترل معنادار انسانی روشن و خاموش کردن این حالت است.
این بدان معناست که جنگندههای روباتی آینده از قبیل آنهایی که در برنامه اِنیورون (nEuron) فرانسه و تارانیس انگلستان مطالعه میشوند و تشخیص خودکار هدف را آزمایش میکنند بزرگترین چالش خواهند بود. از آنجا که این جنگندهها برد زیادی دارند ممکن است به محیطی پر از هدف برسند که برایشان غیرمنتظره است. این وضعیت بسته به مکان آنها، توانایی و تجربه اپراتورها، چیزهایی که در مسیر آنها قرار میگیرد و به ویژه تغییر الگوریتم آنها به خاطر یادگیری ماشینی میتواند تحت یا خارج از کنترل انسانی باشد. آنها میدان کارزاری برای اخلاقگرایان و کابوسی برای سازندگان پیمانهای جهانی به شمار میروند.
بیست و اندی کشور که خواستار ممنوعیت الزامآور سلاحهای کاملاً خودکار هستند اغلب کشورهای ضعیفی مانند جیبوتی و پرو هستند اما برخی از آنها مانند اتریش توان دیپلماتیک زیادی دارند. آنها استدلالهای خود را بر مبنای قانون بینالمللی بشردوستی (IHL) قرار میدهند که مجموعهای از قواعد جنگ است که در کنوانسیونهای لاهه و ژنو تدوین شدهاند.
این قانون از ارتشها میخواهد بین جنگجویان و شهروندان تمایز قائل شوند، هرجا خطر آسیب به غیرنظامیان از مزیت حمله نظامی بیشتر باشد از حمله اجتناب ورزند، از توانی متناسب با هدف استفاده کنند و از ایجاد آسیبهای غیرضروری بپرهیزند.
وینست بولانین و مایک وبروگن دو متخصص از SIPRI میگویند با وجود بهبود اوضاع، سامانههای تشخیص هدف هنوز ابتدایی هستند و اغلب در مقابل بدی آب و هوا و بههمریختگی پسزمینه خود آسیبپذیرند. آنهایی که قادر به تشخیص انسانها هستند بسیار نپخته و پیشپا افتادهاند. این در حالی است که دشمنان مکار تلاش میکنند روباتها را برای حمله به هدفهای غلط اعزام کنند.
ضرورت و تناسب مستلزم سنجش ارزش جان انسانها در برابر اهداف نظامی است. سرهنگ کاتلین از ارتش بریتانیا میگوید دستگاههای جدید هرچند که پیشرفته باشند چنین قابلیتی ندارند. ارتشی که از سلاحهای خودکار استفاده میکند باید به گونهای آرایش شود که قبل از شلیک بتواند تصمیماتی متناسب اتخاذ کند.
راهحل؟
به طور کلی، قانون بینالمللی بشردوستی از «بند مارتنز» نشات میگیرد که در کنوانسیون سال 1899 لاهه پذیرفته شد. این بند بیان میدارد که سلاحهای جدید باید با «اصول انسانیت» و «ندای وجدان عمومی» مطابقت داشته باشند. دانی دوچرتی از سازمان مردمنهاد «ناظر حقوق بشر» که کارزارهای ضدروبات را هماهنگ میسازد عقیده دارد که سلاحهای کاملاً خودکار همانند دیگر دستگاههای خودکار نمیتوانند ارزش زندگی انسان و اهمیت از دست رفتن آن را درک کنند بنابراین آنها نمیتوانند به کرامت انسانی احترام بگذارند. این استدلال قوی اما فاقد وجهه قانونی است. در مورد وجدان عمومی نیز، تاریخ و پژوهشها نشان میدهند که این وجدان از آنچه بشردوستان فکر میکنند انعطافپذیرتر است.
سوای از قانون و اخلاقیات، سلاحهای خودکار میتوانند مخاطرات جدید بیثباتکننده ایجاد کنند. درست همانگونه که الگوریتمهای تجاری میتوانند آسیبهای برقآسا به بازار بورس بزنند، سامانههای خودکار نیز ممکن است به روشهای ظاهراً غیرقابل پیشبینی با یکدیگر وارد تعامل شوند. آقای شار احتمال بروز جنگ برقآسا را در نتیجه مجموعهای از دخالتهای روزافزون بعید نمیداند. پیتر رابرتس مدیر بخش علوم نظامی در اندیشکده «موسسه خدمات یکپارچه سلطنتی» میگوید اگر ما بپذیریم که انسانها میتوانند تصمیمهای بد بگیرند باید قبول کنیم که سامانههای هوش مصنوعی نیز میتوانند تصمیمات غلط اتخاذ کنند با این تفاوت که سرعت تصمیمگیری آنها بالاتر است.
فعلاً بدون سلاح
در آن سوی هسته اصلی طرفداران ممنوعیت سلاحهای خودکار دامنه وسیعی از عقاید و نظرات وجود دارد. چین بیان کرد که در اصل با ممنوعیت موافق است اما ممنوعیت در کاربرد نه توسعه. فرانسه و آلمان در حال حاضر مخالف ممنوعیت هستند اما از کشورها میخواهند بر یک قاعده عملکردی اجماع کنند که در آن فضایی برای «تفسیرهای ملی» وجود داشته باشد. هند علاقهمند است تاریخ فناوری هستهای دوباره تکرار نشود. جایی که در آن یک پیمان تبعیضآمیز کشورهای فاقد فناوری را از دستیابی به سلاحهای تغییردهنده شرایط بازی بازمیدارد.
در انتهای طیف، گروهی از کشورها از جمله آمریکا، بریتانیا و روسیه صراحتاً با ممنوعیت مخالفاند. این کشورها اصرار دارند که قانون بینالمللی کنونی برای کنترل سامانههای آینده کافی است. ماده 36 باید جدی گرفته شود و برخی کشورها از آن شانه خالی نکنند. به استدلال این گروه وقتی موضوع تبعیض مطرح میشود نباید قانون را بر مبنای نقایص سامانههای کنونی تدوین کرد.
برخی حتی چنین استدلال میکنند که سلاحهای خودکار جنگها را «انسانیتر» میسازند. جنگجویان انسانی قوانین بینالمللی را زیر پا میگذارند اما روباتهایی که به خوبی برنامهریزی شدهاند قادر به انجام چنین کاری نیستند. سلاح SGR-AI ساخت سامسونگ میتواند بالا بردن دستان و انداختن اسلحه بر روی زمین را به عنوان نشانه تسلیم تشخیص دهد و تیراندازی نکند. انواع محدودیتهای ذکرشده در قانون بینالمللی بشردوستی را میتوان در برنامههای سلاحهای بعدی گنجاند. اما چقدر طول میکشد تا یک ارتش درگیر جنگ تصمیم بگیرد قلادهها را باز و سگهای روباتی جنگی را رها سازد؟ این بحث یکی از بزرگترین مشکلاتی را که طرفداران ممنوعیت و کنترل با آن مواجه میشوند زنده میکند. کنترل تسلیحات مستلزم تایید است و هنگامی که موضوع خودکاری در میان باشد این امر پیچیدگی زیادی پیدا میکند. مایکل راویتز از دانشگاه پنسیلوانیا میگوید تفاوت یک موشک ریپر مدل MQ-9 و نمونه خودکار آن در نرمافزار آنهاست نه در سختافزار، بنابراین نمیتوان با تکنیکهای قدیمی کنترل تسلیحات مرحله تایید را انجام داد.
اصرار بر محدودیت این فناوری قبل از فراگیر شدن آن قابل درک است. اگر معلوم شود اعطای خودکاری بیشتر به سلاحها در عمل مزیت و برتری نظامی ایجاد میکند و اگر کشورهای پیشرفته به جای وارد شدن با انتخاب خود به جنگها (آنگونه که در سالهای اخیر انجام دادند)، بقای خود را در خطر ببینند تمام محدودیتهای اخلاقی و قانونی کنار گذاشته میشوند. ژنرال مادونز میگوید ممکن است دولتها کنترل انسانی را فدای بقای خویش کنند. شما میتوانید فرزندانتان را به جنگ بفرستید و شاهد نتایج وحشتناک باشید یا اینکه روباتها را به جنگ بفرستید و فرزندانتان در کنار شما باشند. فرزندان دیگر مردم مشکل خود آنهاست.
منبع: اکونومیست