آزمون واقعیت
تمرکز بر خطرات واقعی و وجودی هوش مصنوعی
شاید این جمله برایتان آشنا باشد: «متاسفم دیو، نمیتونم انجامش بدم». هال 9000 (HAL 9000) کامپیوتر قاتل فیلم «2001: یک اودیسه فضایی» یکی از چندین نمونه علمی-تخیلی هوش مصنوعی است که از پدیدآورندگان انسانی خود پیش میافتد و عواقب مرگباری به بار میآورد. پیشرفتهای اخیر هوش مصنوعی و بهویژه معرفی چت جیپیتی موضوع «خطر وجودی» را در صدر دستور کار بینالمللی قرار داد. تعدادی از بزرگان فناوری از جمله ایلان ماسک در مارس 2023 خواستار آن شدند که به خاطر مسائل امنیتی توسعه هوش مصنوعی حداقل به مدت شش ماه متوقف شود. سیاستمداران و متخصصان در همایش امنیت هوش مصنوعی در پاییز گذشته در بریتانیا درباره بهترین روشهای نظارت بر این فناوری بالقوه خطرناک به بحث و گفتوگو پرداختند. اما آن حالوهوا با یک حرکت سریع در زمان حال تغییر کرد. نگرانیهای مربوط به حرکت سریع هوش مصنوعی جای خود را به ترس از این داد که ممکن است این فناوری در شکل کنونی خودش به آن اندازه که انتظار میرفت سودمند نباشد و بنگاههای فناوری درباره آن اغراق کرده باشند. همزمان، فرآیند تدوین قوانین سیاستگذاران را بر آن داشت تا نیاز برای مقابله با مسائل موجود مرتبط با هوش مصنوعی از قبیل تبعیض، یکسویهنگری و نقض حقوق مالکیت معنوی را کاملاً درک کنند. تمرکز مقرراتگذاری و نظارت از خطرات مبهم و فرضی به خطرات مشخص و آنی سوق داده شده و این خبر خوبی است. به عنوان مثال، مشخص شد که سامانههای مبتنی بر هوش مصنوعی که افراد را برای دریافت وام مسکن یا دیگر وامها و تخصیص مزایا ارزیابی میکنند یکسونگری نژادی دارند. سامانههای تشخیص چهره که نهادهای اعمال قانون از آنها استفاده میکنند با احتمال زیاد در شناسایی رنگینپوستان دچار خطا میشوند. از هوش مصنوعی میتوان برای ساخت ویدئوهای جعل عمیق (deep fake) بهویژه تصاویر مستهجن بهره برد و از دیگران اخاذی کرد، یا دیدگاههای سیاستمداران را بهگونهای دیگر جلوه داد. هنرمندان، موسیقیدانان و سازمانهای خبری میگویند که از کارهایشان بدون اجازه برای آموزش الگوهای هوش مصنوعی استفاده میشود. همچنین بحث قانونی بودن استفاده از دادههای شخصی برای مقاصد آموزشی بدون رضایت فرد هنوز ابهامات زیادی دارد. در نتیجه انبوهی از مقررات جدید خلق شدند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا استفاده از سامانههای زنده تشخیص چهره از سوی مقامات اعمال قانون و همچنین استفاده از هوش مصنوعی برای پیشبینی اقدامات مجرمانه، تشخیص احساسات و آگهیهای احساسی را ممنوع کرده است. بسیاری از کشورها قوانینی را تدوین کردهاند که نصب برچسب بر روی ویدئوهای ساخت هوش مصنوعی را الزامی میکنند. در کره جنوبی ساخت ویدئوهای جعل عمیق از سیاستمداران در 90 روز قبل از انتخابات ممنوع است. سنگاپور هم احتمالاً همین قاعده را در پیش خواهد گرفت. قوانین موجود باید در برخی موارد شفافسازی شوند. شرکتهای اپل و متا گفتهاند که به خاطر ابهامات موجود درباره استفاده از دادههای شخصی برخی از محصولات هوش مصنوعی خود را در اتحادیه اروپا عرضه نخواهند کرد. به عقیده آنها این ابهامات موجب میشوند مصرفکنندگان اروپایی از دسترسی به تازهترین فناوریها محروم بمانند. برخی موارد از قبیل اینکه آیا میتوان تحت قانون «استفاده عادلانه» از مطالب دارای حق کپیرایت برای مقاصد آموزشی استفاده کرد یا خیر، نیز به تصمیم دادگاه واگذار میشوند. برخی از روشهای مقابله با مشکلات موجود کار با هوش مصنوعی کارکرد خوبی دارند، اما بازتابی از روشهای قانونگذاران برای تمرکز بر خطرات واقعی مرتبط با سامانههای موجود هوش مصنوعی هستند. این حرف بدان معنا نیست که از مخاطره ایمنی (safety risk) غافل بمانیم. مقررات خاص ایمنی در زمان خود ضروری هستند. اما تعیین ماهیت و میزان مخاطرات وجودی آینده آسان نیست و نمیتوان از اکنون برای آن قانونگذاری کرد. برای درک این موضوع به قانون پرمناقشه SB1047 نگاهی بیندازید که هماکنون مراحل تصویب را در مجلس ایالتی کالیفرنیا میگذراند. مدافعان آن میگویند که چنین لایحهای خطر بروز یک فاجعه از طریق هوش مصنوعی را کاهش میدهد. طبق تعریف، این فاجعه یک «خسارت عظیم» یا آسیبی با ارزش بیش از 500 میلیون دلار است که با استفاده از تسلیحات اتمی، رادیولوژی، بیولوژیک یا حملات سایبری علیه زیرساختارهای حیاتی صورت میگیرد. لایحه جدید پدیدآورندگان الگوهای بزرگ هوش مصنوعی را ملزم میکند پروتکلهای امنیتی را رعایت و «کلید خودتخریب» را نصب کنند. منتقدان میگویند که چهارچوب این لایحه بیش از واقعیت بر مسائل علمی-تخیلی اتکا دارد و متن ابهامآلود آن به شرکتها و آزادیهای دانشگاهی آسیب میرساند. اندرو انجی، پژوهشگر حوزه هوش مصنوعی هشدار میدهد که این قانون پژوهشگران را سردرگم خواهد کرد، چون آنها متوجه نمیشوند که چگونه میتوانند از قانونشکنی اجتناب ورزند. پس از لابیگری زیاد مخالفان لایحه برخی از بخشهای آن در اوایل این ماه تعدیل شد. قسمتهای دیگر از جمله حمایت از سوتزنان شرکتهای هوش مصنوعی منطقی به نظر میرسند. اما اکثر بخشهای آن برمبنای یک باور شبهدینی است که میگوید هوش مصنوعی میتواند فاجعهای در مقیاس وسیع ایجاد کند. این در حالی است که تولید سلاحهای هستهای یا بیولوژیک مستلزم دسترسی به ابزارها و موادی است که بهشدت کنترل میشوند. اگر این لایحه به دفتر گاوین نیوسام، فرماندار کالیفرنیا برسد ممکن است وتو شود. آنگونه که شرایط نشان میدهد نمیتوان فهمید که یک الگوی بزرگ هوش مصنوعی چگونه میتواند خسارات فیزیکی یا مرگبار به بار آورد؟ اما سامانههای هوش مصنوعی میتوانند به روشهای مختلف اشکال غیرفیزیکی از آسیبها را پدید آورند. کاری که قبلاً هم اتفاق افتاده است. بنابراین منطقی است که قانونگذاران بر این دسته از آسیبها تمرکز کنند.