اندیشه قبل از اقدام
شکیبایی در نظارت بر هوش مصنوعی
آیا هوش مصنوعی همه را ما را به کشتن خواهد داد؟ برخی متخصصان فناوری از صمیم قلب باور دارند که پاسخ این پرسش مثبت است. در یک سناریوی کابوسوار، هوش مصنوعی در نهایت از بشر جلو میزند، کامپیوترها و کارخانهها را در دست میگیرد و آسمان را از پهپادهای قاتل پر میکند. در سناریویی دیگر، الگوهای زبانی بزرگ (LLMs) از آن نوعی که هوش مصنوعی زایشی از قبیل چت جیپیتی را توانمند کردهاند دانش ساخت سلاحهای سایبری مخرب و عوامل بیماریزای جدید و مرگبار را در اختیار افراد بدطینت میگذارند.
اکنون زمان آن است که با دقت به این سناریوهای وحشتناک بیندیشیم. نه به این خاطر که احتمال آنها بیشتر شده است. در واقع هیچکس از احتمال بروز آنها خبر ندارد، بلکه به این دلیل که سیاستگذاران سرتاسر جهان به اقداماتی برای محافظت در برابر آنها فکر میکنند. اتحادیه اروپا در حال نهایی کردن یک لایحه گسترده درباره هوش مصنوعی است. انتظار میرود کاخ سفید به زودی آییننامهای را در مورد الگوهای زبانی بزرگ صادر کند. دولت بریتانیا نیز در اول و دوم نوامبر رهبران جهان و مدیران شرکتهای فناوری را در «اجلاس ایمنی هوش مصنوعی» گردهم میآورد تا درباره خطرات شدید احتمالی الگوهای هوش مصنوعی به بحث و مذاکره بنشینند.
دولتها نمیتوانند یک فناوری را که قادر است جهان را عمیقاً دگرگون کند نادیده بگیرند. همچنین، هر تهدید واقعی علیه بشریت را باید جدی گرفت. مقرراتگذاران در گذشته بسیار کند عمل میکردند. بسیاری از آنها آرزو میکنند کاش در دهه 2010 زودتر برای نظارت بر رسانههای اجتماعی وارد عمل میشدند. آنها علاقهمندند که اینبار دست پیش را داشته باشند. اما اقدام عجولانه هم میتواند خطرناک باشد. اگر سیاستگذاران سرعت بیش از حد داشته باشند ممکن است قواعد جهانی و نهادهایی را خلق کنند که مشکلات اشتباهی را هدف میگیرند؛ در برابر مشکلات واقعی اثربخشی ندارند و نوآوری را سرکوب میکنند. این دیدگاه که هوش مصنوعی میتواند بشریت را منقرض کند هنوز کاملاً خیالپردازانه است. هیچکس نمیداند چگونه ممکن است چنین تهدیدی واقعی شود. هیچ روش مشترکی وجود ندارد که تعیین کند چه چیزی خطرناک تلقی میشود یا بتواند الگوها را با معیاری برای خطرات ارزیابی کند. لازم است قبل از تدوین استانداردها و قواعد پژوهشهای زیادی انجام شود. به همین دلیل است که شمار فزایندهای از مدیران عامل حوزه فناوری میگویند که جهان برای بررسی هوش مصنوعی به یک نهاد همانند گروه بیندولتی تغییرات اقلیمی (IPCC) نیاز دارد که گرمایش جهانی را رصد میکند و علل آن را توضیح میدهد. شتاب در مقرراتگذاری با هدف پیشگیری از خطرات حاشیهای میتواند توجه سیاستگذاران را از دیگر مشکلات شدید دور کند. شاید لازم باشد قوانین جدیدی برای کنترل استفاده از مطالب دارای حق کپی در آموزش الگوهای زبانی بزرگ وضع شود یا حقوق حریم خصوصی در زمان بررسی دادهها از طریق الگوها رعایت شود. علاوه بر این، هوش مصنوعی میتواند تولید اطلاعات جعلی را سادهتر کند در حالی که این اطلاعات برای تمام جوامع مشکلآفرین هستند. همچنین مقرراتگذاری شتابزده میتواند رقابت و نوآوری را سرکوب کند. به خاطر محدودیت منابع رایانشی و مهارتهای فنی لازم، تعداد انگشتشماری از شرکتها تاکنون موفق شدهاند الگوهای پیشتاز قدرتمند بسازند. مقررات جدید به سادگی میتوانند جایگاه این شرکتها را تثبیت کنند و جلوی رقبا را بگیرند. حداقل به این دلیل که بزرگترین سازندگان مدلها در تدوین مقررات همکاری نزدیکی با دولتها دارند. تمرکز بر خطرات بزرگ میتواند مقرراتگذاران را نسبت به الگوهای منبع باز حساس کند که به رایگان در دسترس و قابل تغییر هستند. تا همین اواخر، شایع شده بود که کاخ سفید قصد دارد شرکتها را از توزیع الگوهای پیشتاز منبع باز منع کند. بنابراین، اگر ثابت شود که آن خطرات واقعی نیستند محدودسازی الگوهای منبع باز فقط یک منبع مهم رقابت را از میان برمیدارد. مقرراتگذاران باید آماده باشند که در صورت لزوم به سرعت وارد عمل شوند اما نباید برای تدوین قواعد یا ساخت نهادهایی که ممکن است غیرضروری یا حتی مضر باشند عجله کنند. ما هنوز درباره مسیر هوش مصنوعی زایشی اطلاعات کافی نداریم که بخواهیم خطرات مربوط به آن را درک کنیم چه رسد به اینکه بخواهیم آن خطرات را مدیریت کنیم.
بهترین کاری که دولتها در حال حاضر میتوانند انجام دهند آن است که زیرساختارهایی را برای مطالعه فناوری و خطرات بالقوه آن بسازند و اطمینان یابند کسانی که بر روی این مساله کار میکنند منابع کافی در اختیار دارند. در جهان پراکنده امروز، ساخت نهادی شبیه به گروه بیندولتی تغییرات اقلیمی و توسعه آن کار دشواری خواهد بود اما نهادهایی مانند سازمان همکاریهای اقتصادی و توسعه (OECD) و «نیروی اقدام پیشتاز هوش مصنوعی» بریتانیا که بر روی مسائل مرتبط با هوش مصنوعی کار میکنند و قصد دارند به تمام پیچومهرههای الگوها دسترسی داشته باشند میتوانند همکاری نزدیکی با یکدیگر برقرار کنند.
شایسته است که دولتها بر روی یک قانون عملکردی در برابر سازندگان الگوها به توافق برسند که شبیه به تعهدات داوطلبانهای باشد که کاخ سفید و 15 سازنده الگو امضا کردهاند. این امر سازندگان الگوها را متعهد میکند تا علاوه بر اقدامات دیگر، اطلاعات مربوط به چگونگی مدیریت خطرات هوش مصنوعی را به اشتراک گذارند. این تعهدات الزامآور نیستند اما جلوی اقدامات خودسرانه آزاد را میگیرند. باید از سازندگان الگوهای منبع باز نیز خواست تا به این پویش بپیوندند. با پیشرفت هوش مصنوعی، مقرراتگذاران نسبت به خطرات آگاهی بیشتری پیدا میکنند و در نتیجه میدانند کتاب قواعد آنها چه شکلی باید داشته باشد. در نهایت، یک نظام کامل شبیه نظامهای دیگر فناوریهای دگرگونکننده مانند نیروی هستهای یا مهندسی زیستی خواهد بود. اما خلق چنین نظامی به زمان و اراده قوی نیاز دارد.