حکمرانی هوش مصنوعی
درسهایی از راهآهن و امور مالی
هوش مصنوعی با سرعت پیش میرود و قابلیتهای بزرگ و مخاطرات شدیدی پیشروی ما میگذارد. چگونه میتوان همزمان با مدیریت موثر مخاطرات از هوش مصنوعی برای تقویت نوآوری بهره برد؟ تفکرات رایج پیرامون چگونگی تنظیمگری هوش مصنوعی عمدتاً بر حکمرانی خود مدلها تاکید میکنند. بهعنوان مثال لایحه امنیت هوش مصنوعی کالیفرنیا که اکنون وتو شده است توسعهدهندگان را در قبال سوءاستفاده از آن مسئول میداند و تعبیه یک کلید نابودگر را الزامی کرده است. بدون تردید توسعه سامانههای ایمن، اخلاقی و کارآمد هوش مصنوعی به استاندارد و آزمایش نیاز دارد و همانند هر ابزار دیگر ما نیازمند رهنمودهایی هستیم که بیان کند چه چیزهایی قابل پذیرش هستند. همانگونه که آلن تورین از طریق ریاضیات در یک قرن قبل ثابت کرد هیچ رویکردی نمیتواند درستی یک برنامه کاملاً پیچیده را تضمین کند. علاوه بر این اختراع دیپسیک (Deep Seek) در چین به ما میگوید که جهان به نقطه عطفی رسیده است که در آن مدلهای منبع باز دور از دسترس هرگونه حکمرانی بهسرعت تکثیر میشوند. حکمرانی باید با یک رویکرد عملی آغاز شود و نقاط تقاطعی را مورد توجه قرار دهد که در آنها مدلها با یکدیگر تعامل دارند و بر جهان خارج تاثیر میگذارند. تاریخ درسهایی را به ما میآموزد. دوران رونق راهآهن در قرن 19 را به یاد آورید. در آن زمان جامعه ایمنی را نه با پایش هر قطار، بلکه با مدیریت تقاطع ریلها به دست آورد، چراکه اکثر تصادفات در آن تقاطعها روی میداد. بازارهای مالی هم بهتازگی همین رویکرد را در پیش گرفتهاند. قانون دسترسی بازار مصوب کمیسیون بورس و اوراق بهادار محدودیتی برای فعالیتهای داخلی معاملهگران ایجاد نمیکند. مقرراتگذاران در عوض بر نقاط تماس آنها با بازار تاکید دارند و بررسیهای کفایت سرمایه را قبل از آنکه الگوریتمها سفارشی را در بورس ثبت کنند الزامی کردهاند. به همین ترتیب، فدرالرزرو از مدیریت خرد بانکها پرهیز میکند و در عوض آنها را ملزم میکند تا جریان نقدینگی، اظهارنامههای درآمدی و ترازنامههایشان را برای 9 فصل آینده شبیهسازی کنند و ثابت کنند که سرمایه کافی برای وامدهی و بازارسازی در سناریوهای وخیم مورد نظر مقرراتگذار را دارند. در هر دو صورت مشخص شد که تنظیمگری نقاط تعامل اثربخشی بیشتری از تلاش برای کنترل پیچیدگیهای داخلی هر سیستم دارد. همین منطق را میتوان در مورد هوش مصنوعی به کار برد. سیاستگذاران و تنظیمگران باید توجه خود را به صفحات تعاملی معطوف دارند که سامانههای هوش مصنوعی و کارگزاران از طریق آنها با زیرساختارهای حیاتی، بازارهای مالی، بخش درمان و دیگر حوزههای حساس ارتباط برقرار میکنند. آنها باید استانداردهای واضح و قابل آزمایش را برای چگونگی تعامل سامانههای هوش مصنوعی با جهان واقعی طراحی و تدوین کنند که از آن میان میتوان به آزمون استرس، بررسیهای حسابرسی، اعتبارنامهها و گواهینامهها اشاره کرد. ما به کمترین مقررات ممکن نیاز داریم، اما به کمتر از آن راضی نمیشویم. البته با وجود کاربردهای بالقوه فراوان هوش مصنوعی هیچ رویکردی بهتنهایی نمیتواند تمام مخاطرات را مدیریت کند. برای مثال، یک روبات گفتوگو میتواند انسانها را فریب دهد یا یک سامانه هوش مصنوعی ممکن است یک سلاح زیستی جدید بسازد. نظارت در سطح صفحات تعاملی نمیتواند چنین مخاطراتی را مدیریت کند. ما باید از طریق شبیهسازی و طراحی سناریوها به ساخت تابآوری اقدام کنیم درست همانند آزمونهای استرس که برای پایش بانکها اجرا میشوند. استانداردها باید در یک راستا قرار گیرند تا بتوانند پیچیدگی و مخاطرات سامانههای هوش مصنوعی را لحاظ کنند. به جای آنکه قواعدی با آستانههای مصلحتی وضع کنیم باید آستانههایی پویا داشته باشیم که احتمال و شدت تعاملات منفی با جهان خارج را بازتاب دهند. حکمرانی باید به منظور مهار واقعی قدرت هوش مصنوعی انگیزههای شرکتها را با ایمنی جامعه هماهنگ کند. حکمرانی مبتنی بر همکاری و ارتباطات شفاف اعتمادآفرینی میکنند و راه را برای تقویت ایمنی و نوآوری هموار میکنند. در این راه از جریمه، مجازات و دیگر سازوکارها استفاده میشود تا توسعهدهندگان ایمنی را در اولویت خود بگذارند. قانون هوش مصنوعی اتحادیه اروپا با اجرای حکمرانی مبتنی بر سطح مخاطره دیدگاهها را برای استانداردهای سطح صفحات تعاملی ارائه میدهد. اما این قانون از یک سو پرسشهای مهمی را بدون پاسخ میگذارد و از سوی دیگر دامنه عملیاتی خود را بیش از حد گسترده کرده است. سامانههای پرمخاطره با ممنوعیتهای صریح و الزامات سختگیرانه مواجه میشوند، اما سامانههای کمخطر -که عمدتاً برای کاربردهای شخصی طراحی شدهاند- در معرض کمترین مقررات قرار میگیرند، با وجود اینکه ضریب نفوذ آنها بالاست. در زمانی که تقاضا برای ابزارهای هوش مصنوعی از عرضه آنها پیشی میگیرد آمریکا این فرصت را دارد که رهبری را در زمینه تدوین استانداردهای جهانی هوش مصنوعی در دست گیرد. استانداردهایی که بدون ایجاد مانع برای نوآوری نویدبخش ایمنی هستند. آمریکا باید بهسرعت و قاطعانه وارد عمل شود تا توان رقابتی خود را حفظ کند. پذیرش استانداردها در سطح صفحات تعاملی سامانهها اولین گام مهم بهشمار میرود. تنظیمگری بیش از حد یک نگرانی بزرگ است، اما رویکرد متزلزلی که آمریکا تاکنون در پیش گرفته فقط مانعی بر سر راه همتوسعهدهندگان و همکاربران بوده است. این رویکرد با قواعدی که در هر ایالت متفاوت هستند جلوی خلاقیت را میگیرد. اما با حکمرانی شفاف، منسجم و جامع، آمریکا میتواند به مرکز جهانی هوش مصنوعی تبدیل شود. ما برای ساخت یک چهارچوب انعطافپذیر، آیندهنگر و تابآور به مشارکت بخشهای خصوصی و دولتی نیاز داریم. این مشارکت میتواند استانداردهای سطح صفحات تعاملی سامانهها را تدوین و تضمین کند که فناوریهای ساخت خارج در زمان تعامل با سامانههای حساس از استانداردهای ایمنی داخلی پیروی خواهند کرد. رویکردی که مبتنی بر صفحات تعاملی است اولین گام به سمت برنامه گستردهتر ایمنی هوش مصنوعی خواهد بود. هنری کیسینجر، کریگ ماندی و اریک اشمیت در کتاب سال گذشته خود با عنوان «آفرینش» پیشنهاد کردند که «کتاب قانون هوش مصنوعی» با توجه به پیشزمینههای قانونی، قضاوت، اظهارات دانشمندان و هنجارهای انسانی تدوین شود و مفاهیم کرامت انسانی در سامانههای هوش مصنوعی کدگذاری شوند تا اطمینان یابیم که آنها طبق اصول اخلاقی عمل میکنند. ما با ایجاد سازوکارهای عملی کنترل تعامل هوش مصنوعی با جهان واقعی میتوانیم مخاطرات لحظهای آن را مدیریت کنیم و در درازمدت آن را با ارزشهای انسانی منطبق کنیم. حکمرانی هوش مصنوعی در نقاط تماس با جهان واقعی نقطه آغازین موثر و عملگرایانه خواهد بود. ما باید اصرار بیهوده بر دستیابی به یک راهحل کامل را کنار بگذاریم و چهارچوبی را بپذیریم که بتواند با همان سرعت تحولات فناوری خود را سازگار کند. به این ترتیب ما قادر خواهیم بود که همزمان با مدیریت مخاطرات هوش مصنوعی قدرت آن را مهار کنیم و نوآوری همراه با ایمنی را به ارمغان آوریم.