شناسه خبر : 49256 لینک کوتاه
تاریخ انتشار:

حکمرانی هوش مصنوعی

درس‌هایی از راه‌آهن و امور مالی

هوش مصنوعی با سرعت پیش می‌رود و قابلیت‌های بزرگ و مخاطرات شدیدی پیش‌روی ما می‌گذارد. چگونه می‌توان همزمان با مدیریت موثر مخاطرات از هوش مصنوعی برای تقویت نوآوری بهره برد؟ تفکرات رایج پیرامون چگونگی تنظیم‌گری هوش مصنوعی عمدتاً بر حکمرانی خود مدل‌ها تاکید می‌کنند. به‌عنوان مثال لایحه امنیت هوش مصنوعی کالیفرنیا که اکنون وتو شده است توسعه‌دهندگان را در قبال سوء‌استفاده از آن مسئول می‌داند و تعبیه یک کلید نابودگر را الزامی کرده است. بدون تردید توسعه سامانه‌های ایمن، اخلاقی و کارآمد هوش مصنوعی به استاندارد و آزمایش نیاز دارد و همانند هر ابزار دیگر ما نیازمند رهنمودهایی هستیم که بیان کند چه چیزهایی قابل پذیرش هستند. همان‌گونه که آلن تورین از طریق ریاضیات در یک قرن قبل ثابت کرد هیچ رویکردی نمی‌تواند درستی یک برنامه کاملاً پیچیده را تضمین کند. علاوه بر این اختراع دیپ‌سیک (Deep Seek) در چین به ما می‌گوید که جهان به نقطه عطفی رسیده است که در آن مدل‌های منبع باز دور از دسترس هرگونه حکمرانی به‌سرعت تکثیر می‌شوند. حکمرانی باید با یک رویکرد عملی آغاز شود و نقاط تقاطعی را مورد توجه قرار دهد که در آنها مدل‌ها با یکدیگر تعامل دارند و بر جهان خارج تاثیر می‌گذارند. تاریخ درس‌هایی را به ما می‌آموزد. دوران رونق راه‌آهن در قرن 19 را به یاد آورید. در آن زمان جامعه ایمنی را نه با پایش هر قطار، بلکه با مدیریت تقاطع ریل‌ها به دست آورد، چراکه اکثر تصادفات در آن تقاطع‌ها روی می‌داد. بازارهای مالی هم به‌تازگی همین رویکرد را در پیش گرفته‌اند. قانون دسترسی بازار مصوب کمیسیون بورس و اوراق بهادار محدودیتی برای فعالیت‌های داخلی معامله‌گران ایجاد نمی‌کند. مقررات‌گذاران در عوض بر نقاط تماس آنها با بازار تاکید دارند و بررسی‌های کفایت سرمایه را قبل از آنکه الگوریتم‌ها سفارشی را در بورس ثبت کنند الزامی کرده‌اند. به همین ترتیب، فدرال‌رزرو از مدیریت خرد بانک‌ها پرهیز می‌کند و در عوض آنها را ملزم می‌کند تا جریان نقدینگی، اظهارنامه‌‌های درآمدی و ترازنامه‌هایشان را برای 9 فصل آینده شبیه‌سازی کنند و ثابت کنند که سرمایه کافی برای وام‌دهی و بازارسازی در سناریوهای وخیم مورد نظر مقررات‌گذار را دارند. در هر دو صورت مشخص شد که تنظیم‌گری نقاط تعامل اثربخشی بیشتری از تلاش برای کنترل پیچیدگی‌های داخلی هر سیستم دارد.  همین منطق را می‌توان در مورد هوش مصنوعی به کار برد. سیاست‌گذاران و تنظیم‌گران باید توجه خود را به صفحات تعاملی معطوف دارند که سامانه‌های هوش مصنوعی و کارگزاران از طریق آنها با زیرساختارهای حیاتی، بازارهای مالی، بخش درمان و دیگر حوزه‌های حساس ارتباط برقرار می‌کنند. آنها باید استانداردهای واضح و قابل آزمایش را برای چگونگی تعامل سامانه‌های هوش مصنوعی با جهان واقعی طراحی و تدوین کنند که از آن میان می‌توان به آزمون استرس، بررسی‌های حسابرسی، اعتبارنامه‌ها و گواهی‌نامه‌ها اشاره کرد. ما به کمترین مقررات ممکن نیاز داریم، اما به کمتر از آن راضی نمی‌شویم. البته با وجود کاربردهای بالقوه فراوان هوش مصنوعی هیچ رویکردی به‌تنهایی نمی‌تواند تمام مخاطرات را مدیریت کند. برای مثال، یک روبات گفت‌وگو می‌تواند انسان‌ها را فریب دهد یا یک سامانه هوش مصنوعی ممکن است یک سلاح زیستی جدید بسازد. نظارت در سطح صفحات تعاملی نمی‌تواند چنین مخاطراتی را مدیریت کند. ما باید از طریق شبیه‌سازی و طراحی سناریوها به ساخت تاب‌آوری اقدام کنیم درست همانند آزمون‌های استرس که برای پایش بانک‌ها اجرا می‌شوند. استانداردها باید در یک راستا قرار گیرند تا بتوانند پیچیدگی و مخاطرات سامانه‌های هوش مصنوعی را لحاظ کنند. به جای آنکه قواعدی با آستانه‌های مصلحتی وضع کنیم باید آستانه‌هایی پویا داشته باشیم که احتمال و شدت تعاملات منفی با جهان خارج را بازتاب دهند. حکمرانی باید به منظور مهار واقعی قدرت هوش مصنوعی انگیزه‌های شرکت‌ها را با ایمنی جامعه هماهنگ کند. حکمرانی مبتنی بر همکاری و ارتباطات شفاف اعتمادآفرینی می‌کنند و راه را برای تقویت ایمنی و نوآوری هموار می‌کنند. در این راه از جریمه، مجازات و دیگر سازوکارها استفاده می‌شود تا توسعه‌دهندگان ایمنی را در اولویت خود بگذارند.  قانون هوش مصنوعی اتحادیه اروپا با اجرای حکمرانی مبتنی بر سطح مخاطره دیدگاه‌ها را برای استانداردهای سطح صفحات تعاملی ارائه می‌دهد. اما این قانون از یک سو پرسش‌های مهمی را بدون پاسخ می‌گذارد و از سوی دیگر دامنه عملیاتی خود را بیش از حد گسترده کرده است. سامانه‌های پرمخاطره با ممنوعیت‌های صریح و الزامات سخت‌گیرانه مواجه می‌شوند، اما سامانه‌های کم‌خطر -که عمدتاً برای کاربردهای شخصی طراحی شده‌اند- در معرض کمترین مقررات قرار می‌گیرند، با وجود اینکه ضریب نفوذ آنها بالاست.  در زمانی که تقاضا برای ابزارهای هوش مصنوعی از عرضه آنها پیشی می‌گیرد آمریکا این فرصت را دارد که رهبری را در زمینه تدوین استانداردهای جهانی هوش مصنوعی در دست گیرد. استانداردهایی که بدون ایجاد مانع برای نوآوری نویدبخش ایمنی هستند. آمریکا باید به‌سرعت و قاطعانه وارد عمل شود تا توان رقابتی خود را حفظ کند.  پذیرش استانداردها در سطح صفحات تعاملی سامانه‌ها اولین گام مهم به‌شمار می‌رود. تنظیم‌گری بیش از حد یک نگرانی بزرگ است، اما رویکرد متزلزلی که آمریکا تاکنون در پیش گرفته فقط مانعی بر سر راه هم‌توسعه‌دهندگان و هم‌کاربران بوده است. این رویکرد با قواعدی که در هر ایالت متفاوت هستند جلوی خلاقیت را می‌گیرد. اما با حکمرانی شفاف، منسجم و جامع، آمریکا می‌تواند به مرکز جهانی هوش مصنوعی تبدیل شود.  ما برای ساخت یک چهارچوب انعطاف‌پذیر، آینده‌نگر و تاب‌آور به مشارکت بخش‌‌های خصوصی و دولتی نیاز داریم. این مشارکت می‌تواند استانداردهای سطح صفحات تعاملی سامانه‌ها را تدوین و تضمین کند که فناوری‌های ساخت خارج در زمان تعامل با سامانه‌های حساس از استانداردهای ایمنی داخلی پیروی خواهند کرد. رویکردی که مبتنی بر صفحات تعاملی است اولین گام به سمت برنامه گسترده‌تر ایمنی هوش مصنوعی خواهد بود. هنری کیسینجر، کریگ ماندی و اریک اشمیت در کتاب سال گذشته خود با عنوان «آفرینش» پیشنهاد کردند که «کتاب قانون هوش مصنوعی» با توجه به پیش‌زمینه‌های قانونی، قضاوت، اظهارات دانشمندان و هنجارهای انسانی تدوین شود و مفاهیم کرامت انسانی در سامانه‌های هوش مصنوعی کدگذاری شوند تا اطمینان یابیم که آنها طبق اصول اخلاقی عمل می‌کنند. ما با ایجاد سازوکارهای عملی کنترل تعامل هوش مصنوعی با جهان واقعی می‌توانیم مخاطرات لحظه‌ای آن را مدیریت کنیم و در درازمدت آن را با ارزش‌های انسانی منطبق کنیم.  حکمرانی هوش مصنوعی در نقاط تماس با جهان واقعی نقطه آغازین موثر و عمل‌گرایانه خواهد بود. ما باید اصرار بیهوده بر دستیابی به یک راه‌حل کامل را کنار بگذاریم و چهارچوبی را بپذیریم که بتواند با همان سرعت تحولات فناوری خود را سازگار کند. به این ترتیب ما قادر خواهیم بود که همزمان با مدیریت مخاطرات هوش مصنوعی قدرت آن را مهار کنیم و نوآوری همراه با ایمنی را به ارمغان آوریم. 

دراین پرونده بخوانید ...