فناوری و جامعه
نگرانی منطقی درباره هوش مصنوعی
آیا ما باید تمامی مشاغل از جمله مشاغل پایه را خودکارسازی کنیم؟ آیا باید مغزهایی غیرانسانی پرورش دهیم که در نهایت از خود ما پرتعدادتر و باهوشتر شوند و جای ما را بگیرند؟ آیا باید خطر از دست دادن کنترل تمدنمان را بپذیریم؟ اینها پرسشهایی هستند که ماه گذشته از موسسه مردمنهاد «آینده زندگی» پرسیده شدند. در این نامه سرگشاده درخواست شد شش ماه در خلق هوش مصنوعی درنگ شود. بزرگانی از جمله ایلان ماسک از امضاکنندگان نامه بودند. این نامه آشکارا نشان میدهد چگونه پیشرفت سریع در هوش مصنوعی نگرانیهایی را درباره خطرات بالقوه فناوری برانگیخته است.
الگوهای زبانی بزرگ (LLMs) جدید که محرک چتجیپیتی هستند با استعدادهای غیرمنتظرهای که در زمان توسعه آشکار شد حتی پدیدآورندگانشان را غافلگیر کردهاند. اینگونه تواناییهای نوظهور همه چیز از حل معماهای منطقی تا نوشتن کدهای کامپیوتری را دربر میگیرد.
این الگوها رابطه انسانها با کامپیوترها، دانش و حتی با خودشان را متحول میکنند. طرفداران هوش مصنوعی از توانایی بالقوه آن در حل مسائل بزرگ، تولید داروهای جدید، طراحی مواد جدید برای مقابله با تغییرات اقلیمی یا حل پیچیدگیهای نیروی هستهای صحبت میکنند. از نظر دیگران، این حقیقت که توانمندیهای هوش مصنوعی از حد درک خالقان آنها فراتر رفته است این خطر را ایجاد میکند که سناریوی فاجعهبار علمی-تخیلی ماشینی پدیدار شود که از مخترع خودش باهوشتر میشود و عواقب مرگباری به بار میآورد.
این ترکیب حبابآلود هیجان و ترس باعث میشود نتوان فرصتها و مخاطرات را در مقابل یکدیگر سنجید. اما میتوان از صنایع دیگر و همچنین تحولات گذشته فناوری درسهایی آموخت. چه چیزهایی تغییر کردهاند که هوش مصنوعی تا این اندازه پراهمیت شده است؟ ما تا چه اندازه باید نگران باشیم؟ و دولتها چه کاری باید انجام دهند؟
ما عملکرد الگوهای زبانی بزرگ و مسیر آینده آنها را بررسی میکنیم. اولین موج سامانههای جدید هوش مصنوعی که یک دهه قبل پدیدار شد و دادههای آموزشی با دقت برچسبخورده متکی بود. وقتی تعدادی کافی از نمونههای برچسبخورده به آنها داده میشد آنها میتوانستند اموری مانند شناسایی تصاویر یا نوشتن متن سخنرانیها را به انجام رسانند. سامانههای امروزی به برچسب نیاز ندارند، در نتیجه میتوانند با استفاده از مجموعه دادههای بسیار بزرگتری که از منابع آنلاین گرفته میشوند آموزش ببینند. الگوهای زبانی بزرگ در عمل میتوانند از کل اینترنت آموزش بگیرند و همین قابلیتهای خوب و بد فراوان آنها را توضیح میدهد.
این قابلیتها در زمان معرفی چت جیپیتی در ماه نوامبر برای عموم مردم آشکار شدند. ظرف یک هفته یک میلیون و در دو ماه 100 میلیون نفر از آن استفاده کردند. خیلی سریع از آن برای نوشتن تکالیف مدارس و سخنرانیهای مراسم عروسی استفاده شد. محبوبیت چت جیپیتی و اقدام مایکروسافت برای گنجاندن آن در موتور جستوجوی بینگ (Bing) شرکتهای رقیب را بر آن داشت تا روباتهای گفتوگوی (Chat bots) خود را عرضه کنند.
برخی از این روباتها نتایجی عجیب و غریب ارائه دادند. چت بینگ به یک خبرنگار توصیه کرد که از همسرش جدا شود. یک استاد حقوق چت جیپیتی را به آبروریزی متهم کرد. الگوهای زبانی بزرگ پاسخهایی ارائه میدهند که روکشی از حقیقت دارند اما حاوی خطا یا مطالب ساختگی هستند. با وجود این، گوگل، مایکروسافت و دیگر بنگاههای فناوری این الگوها را در محصولاتشان میگنجانند تا به کاربران در خلق اسناد و انجام دیگر وظایف یاری رسانند.
شتابگیری سریع توانمندی و مطلوبیت سامانههای هوش مصنوعی و آگاهی فزاینده از قابلیتها و نقایص آنها این نگرانی را ایجاد میکند که هماکنون فناوری آنقدر با سرعت پیش میرود که نمیتوان آن را بهطور ایمن کنترل کرد. به همین دلیل است که درخواست برای توقف آن مطرح میشود و این نگرانی شدت میگیرد که هوش مصنوعی نهتنها مشاغل، واقعیتها و اعتبار بلکه وجود انسانی را تهدید میکند.
انقراض؟ شورش؟
این ترس که دستگاهها مشاغل را بگیرند چند قرن قدمت دارد. اما تاکنون فناوری همواره مشاغل جدیدی خلق کرده است که جای مشاغلی را که از بین رفتهاند میگیرد. دستگاهها فقط برخی وظایف را انجام میدهند نه همه آنها را، بنابراین تقاضای نیروی کار در مشاغلی بالا میرود که از عهده دستگاهها ساخته نیست. آیا این دفعه شرایط متفاوت خواهد بود؟ وقوع جابهجایی ناگهانی در بازار کار را نمیتوان رد کرد هرچند اکنون نشانهای از آن دیده نمیشود. فناوریهای گذشته جای کارگران غیرماهر را میگرفت اما الگوهای زبانی بزرگ میتوانند برخی وظایف کارکنان یقهسفید (اداری) از قبیل تلخیص اسناد و کدنویسی را انجام دهند.
میزان مخاطرات بالقوه هوش مصنوعی موضوع مناظرههای داغی بوده است. متخصصان نظرات متفاوتی دارند. در یک نظرسنجی از پژوهشگران هوش مصنوعی که در سال 2022 انجام گرفت 48 درصد عقیده داشتند که حداقل 10 درصد احتمال دارد که تاثیر هوش مصنوعی به شدت بد (مثلاً انقراض بشریت) باشد اما 25 درصد دیگر، چنین احتمالی را صفر میدانستند. نفر میانه این احتمال را پنج درصد برآورد میکرد. کابوس بزرگ آن است که یک هوش مصنوعی پیشرفته با اقداماتی از قبیل تولید سم یا ویروس یا تشویق انسانها به انجام اقدامات تروریستی آسیبهایی در مقیاس وسیع ایجاد کند. برای این کار نیازی به مقاصد شرورانه نیست. پژوهشگران نگران آناند که هوش مصنوعی در آینده اهدافی داشته باشد که با اهداف پدیدآورندگانش هماهنگ و همراستا نباشد.
این سناریوها را نباید نادیده گرفت اما تمام آنها حاوی گمانهزنیهای فراوان و اندیشهای فراتر از فناوریهای امروز هستند. بسیاری تصور میکنند که هوش مصنوعی آینده به انرژی، پول و توان رایانشی دسترسی نامحدود خواهند داشت. عواملی که امروز محدودیتهایی واقعی هستند و میتوان در آینده دسترسی هوش مصنوعی نامطلوب به آنها را برداشت. علاوه بر این، متخصصان در مقایسه با دیگر پیشبینیکنندگان درباره مخاطرات حوزه خودشان اغراق میکنند. تحمیل مقررات سنگین یا ایجاد وقفه امروز واکنشی بیش از حد تلقی میشود و ایجاد وقفه در عمل قابل اجرا نیست.
مقرراتگذاری لازم است اما باید دلایلی ملموستر از نجات بشریت داشته باشد. سامانههای موجود هوش مصنوعی نگرانیهایی واقعی درباره یکجانبهنگری، حریم خصوصی و حقوق مالکیت معنوی ایجاد میکنند. با پیشرفت فناوری دیگر مشکلات هم آشکار میشوند. موضوع کلیدی آن است که بتوان بین دستاوردهای هوش مصنوعی و ارزیابی مخاطرات آن توازن برقرار کرد و سپس با آن سازگار شد.
تاکنون دولتها سه رویکرد مختلف در پیش گرفتهاند. بریتانیا در یک انتهای طیف قرار دارد که رویکردی سبک و بدون نهادهای مقرراتی یا قوانین جدید اتخاذ کرده است اما مقررات موجود را به سامانههای هوش مصنوعی تعمیم میدهد. هدف دولت آن است که سرمایهگذاری را تشویق و بریتانیا را به یک ابرقدرت هوش مصنوعی تبدیل کند. آمریکا نیز از رویکردی مشابه پیروی میکند هرچند دولت بایدن در حال حاضر نظرات عمومی درباره شکل مقررات را جویا شده است.
اتحادیه اروپا رویکرد سختگیرانهتری دارد. این اتحادیه قانونی را معرفی کرد که کاربریهای متفاوت هوش مصنوعی را بر مبنای میزان مخاطراتشان طبقهبندی میکند و با توجه به میزان مخاطره (مثلاً از توصیه موسیقی تا اتومبیلهای خودران) پایشگری و افشای اطلاعات سختگیرانهای را الزامی میکند. برخی کاربریها از قبیل تبلیغات غیرمستقیم و بیومتریک از راه دور بهطور کامل ممنوع شدهاند. بنگاههایی که مقررات را زیر پا بگذارند جریمه خواهند شد. این مقررات از دیدگاه برخی منتقدان بسیار شدید هستند.
برخی دیگر عقیده دارند رویکردها باید از این هم سختگیرانهتر باشند. دولتها باید هوش مصنوعی را همانند حوزه دارو و درمان بدانند که در آن یک مقام ناظر متعهد آزمایشهای سخت و تایید اولیه قبل از توزیع را انجام میدهد. چین تا حدی از این روش پیروی و بنگاهها را به ثبت محصولات هوش مصنوعی و اجرای بازبینی امنیتی قبل از توزیع آنها ملزم میکند. اما در چین سیاست بیشتر از ایمنی دخالت میکند: یک الزام کلیدی آن است که محصولات هوش مصنوعی بازتابی از «ارزشهای هستهای سوسیالیسم» باشند.
چه میتوان کرد؟ احتمالاً رویکرد سبک سهلگیرانه کافی نخواهد بود. اگر هوش مصنوعی همانند خودرو، هواپیما و دارو اهمیت داشته باشد (که قطعاً اینگونه است) بنابراین مانند آنها به مقررات جدید نیاز دارد. الگوی اتحادیه اروپا تناسب بیشتری دارد هرچند نظام طبقهبندی آن پیچیده است و رویکردی مبتنی بر اصول انعطاف بیشتری خواهد داشت. الزام افشا درباره چگونگی آموزش سامانهها، چگونگی عملکرد آنها و چگونگی پایش آنها به همراه الزام بازرسی شبیه به مقرراتی است که در سایر صنایع اعمال میشوند.
این رویکرد میتواند با گذشت زمان و در صورت لزوم امکان تدوین مقررات شدیدتر را فراهم کند. شاید در آن زمان وجود یک مقام ناظر متعهد ضرورت پیدا کند. همچنین به پیمانهای بیندولتی شبیه آنچه درباره سلاحهای هستهای وجود دارد نیاز پیدا شود. به ویژه اگر شواهدی منطقی دال بر وجود مخاطرات بزرگ وجود داشته باشد. دولتها برای پایش مخاطرات میتوانند نهادی طبق الگوی سرن (CERN) بسازند که یک آزمایشگاه فیزیک ذرات است. این نهاد میتواند ایمنی و اخلاقیات را در هوش مصنوعی بررسی کند چراکه شرکتها به اندازه جامعه برای انجام چنین کاری انگیزه ندارند.
این فناوری قدرتمند مخاطرات جدیدی ایجاد میکند اما فرصتهای فوقالعادهای نیز به همراه میآورد. ایجاد توازن میان این دو به معنای گام برداشتن محتاطانه خواهد بود. یک رویکرد سنجیده در امروز میتواند بنیانهایی را بسازد که در آینده مقررات جدید بر روی آن نهاده شوند. هماکنون زمان ساختن چنین بنیانهایی است.