هک سیستم عامل تمدن بشری
یووال نوح هراری و هوش مصنوعی
ترس از هوش مصنوعی از زمان آغاز عصر کامپیوتر بشریت را مشغول داشته است. تاکنون این ترسها بر ماشینهایی متمرکز بودند که با استفاده از ابزارهای فیزیکی انسانها را به قتل میرسانند، به بردگی میکشند یا جای آنها را میگیرند. اما در دو سال گذشته ابزارهای جدید هوش مصنوعی به عرصه آمدهاند که بقای تمدن بشری را از مسیری غیرمنتظره تهدید میکنند. هوش مصنوعی قابلیتهای چشمگیری بهدست آورده که با کلمات، صداها یا تصاویر زبان را دستکاری، یا زبان جدید خلق میکنند. بنابراین، هوش مصنوعی سیستم عامل تمدن ما را هک کرده است. زبان چیزی است که تقریباً تمام فرهنگ بشری را میسازد. به عنوان مثال، حقوق بشر در دیانای ما حک نشده است، بلکه مصنوعاتی فرهنگی هستند که ما با گفتن داستان و نوشتن قانون آنها را میسازیم. خدایان واقعیتهای فیزیکی نیستند، بلکه مصنوعاتی فرهنگی هستند که ما با خلق افسانه و نوشتن متون مذهبی ساختهایم.
پول نیز یک مصنوع فرهنگی است. اسکناسها فقط قطعات رنگارنگ کاغذ هستند و هماکنون بیش از 90 درصد از پولها به شکل اسکناس نیست، بلکه اطلاعات دیجیتالی در کامپیوتر است. آنچه به پول ارزش میدهد داستانهایی است که بانکداران، وزرای دارایی و متخصصان رمزارزها درباره آن به ما میگویند. سام بانکمن-فراید (Sam Bankman-Fried)، الیزابت هولمز و برنی مادوف تنها در خلق ارزش واقعی مهارت نداشتند، بلکه همگی داستانسرایی قهار بودند.
اما اگر یک هوش غیرانسانی بتواند بهتر از یک انسان معمولی داستان بسراید، آهنگ بسازد، نقاشی بکشد و قوانین یا متون مذهبی بنویسد چه خواهد شد؟ وقتی افراد درباره چت جیپیتی و دیگر ابزارهای هوش مصنوعی فکر میکنند اغلب ذهن آنها به سمت مواردی مانند دانشآموزانی کشیده میشود که با استفاده از هوش مصنوعی تکالیفشان را مینویسند. وقتی دانشآموزان چنین کاری انجام دهند تکلیف نظام آموزشی چه خواهد شد؟ اما این نوع سوالات ما را از تصویر بزرگتر دور میکند. تکالیف مدارس را فراموش کنید. به انتخابات بعدی ریاستجمهوری آمریکا در سال 2024 بیندیشید و تلاش کنید تاثیر ابزارهای هوش مصنوعی را متصور شوید که در مقیاس وسیع محتوای سیاسی، اخبار جعلی و متون مذهبی فرقههای جدید را تولید میکند.
در سالهای اخیر فرقه کیو انان (Q Anon) پیامهای آنلاین بینام و نشانی با عنوان «قطرات کیو» (Q drops) پخش کرده است. دنبالکنندگان این قطرات کیو را همانند متون مقدس گردآوری و تفسیر میکردند و آنها را محترم میشمردند. ما میدانیم که تمام قطرات کیو را در گذشته انسانها مینوشتند و روباتها صرفاً آنها را پخش میکردند. در آینده میتوانیم شاهد اولین فرقههایی در تاریخ باشیم که متون مقدسشان به وسیله یک هوش غیرانسانی نوشته میشود.
در مقیاس وسیعتر، ممکن است ما درگیر مباحثات طولانی آنلاین درباره سقط جنین، تغییرات اقلیمی یا حمله روسیه به اوکراین با شخصیتهایی باشیم که فکر میکنیم انسان باشند، اما در حقیقت هوش مصنوعی هستند. نکته مهم آن است که ما به هیچ عنوان نمیتوانیم دیدگاه یک روبات هوش مصنوعی را تغییر دهیم در حالی که هوش مصنوعی میتواند پیامهایش را با چنان دقتی بیان کند که شانس خوبی برای تاثیرگذاری بر ما داشته باشد.
هوش مصنوعی با تبحری که در زبان دارد میتواند روابط صمیمانهای با افراد برقرار کند و با استفاده از قدرت این صمیمیت، دیدگاهها و جهانبینی آنها را تغییر دهد. هنوز نشانهای دال بر این وجود ندارد که هوش مصنوعی آگاهی یا احساسی از خودش داشته باشد تا بتواند آن صمیمیت قلابی با انسانها را تسریع کند اما حتی اگر بتواند انسانها را از نظر احساسی وابسته کند پیشرفت بزرگی خواهد بود. در ژوئن سال 2022، بلیک لموان (Lemoine) مهندس گوگل صراحتاً اعلام کرد که روبات گفتوگوی هوش مصنوعی لامدا (LaMDA) -که خودش بر روی آن کار میکرد- به نوعی دارای احساسات شده است. این ادعای مناقشهبرانگیز به بهای از دستدادن شغلش تمام شد. نکته جالب این داستان ادعای آقای لموان که احتمالاً غلط بود نیست، بلکه آن است که او حاضر شد به خاطر یک روبات گفتوگوی هوش مصنوعی شغل خود را به خطر اندازد. اگر هوش مصنوعی بتواند به گونهای بر افراد تاثیر گذارد که شغل خود را به خطر بیندازند آنها را به چه کارهای دیگری وادار خواهد کرد؟
در جدال سیاسی برای تسخیر ذهنها و قلبها، صمیمیت کارآمدترین سلاح خواهد بود. هوش مصنوعی این توانایی را بهدست آورده تا رابطه صمیمی گستردهای با میلیونها نفر برقرار کند. همه ما میدانیم که در دهه گذشته رسانههای اجتماعی به میدان جنگی برای کنترل توجه انسانها تبدیل شد. با نسل جدید هوش مصنوعی، جبهه جنگ از توجه به سمت صمیمیت کشیده میشود. چه اتفاقی برای جامعه بشری و روانشناسی انسانی میافتد وقتی یک هوش مصنوعی برای برقراری رابطه صمیمی با انسانها با یک هوش مصنوعی دیگر وارد نبرد شود؟ رابطهای که بعدها میتواند انسان را قانع کند تا به سیاستمداران خاصی رای بدهند یا محصولات خاصی را بخرند.
حتی بدون ایجاد صمیمیت قلابی، ابزارهای جدید هوش مصنوعی تاثیر پررنگی بر دیدگاهها و جهانبینی ما دارند. افراد ممکن است از یک مشاور هوش مصنوعی به عنوان یک پیشگوی همهچیزدان استفاده کنند. تعجبی ندارد که گوگل به هراس افتاده است. اگر من بتوانم از پیشگو سوال کنم نیازی به جستوجو در گوگل ندارم. بنگاههای خبری و تبلیغاتی نیز باید نگران باشند. وقتی من بتوانم از پیشگو بخواهم آخرین اخبار را بگوید دیگر سراغ روزنامهخوانی نمیروم. وقتی بتوانم از پیشگو بپرسم که چه چیزی را بخرم دیگر تبلیغات و آگهیها سودمندی نخواهند داشت.
اما حتی این سناریوها هم تصویر بزرگ را نشان نمیدهند. آنچه ما درباره آن صحبت میکنیم احتمال بالقوه پایان یافتن تاریخ بشری است. نه پایان کل تاریخ، بلکه فقط پایان بخشی که تحت سلطه انسان است. تاریخ را باید تعامل میان زیستشناسی و فرهنگ دانست؛ بین نیازهای زیستی بشر و تمایل به اموری مانند غذا و روابط جنسی با مخلوقات فرهنگی از قبیل ادیان و قوانین. تاریخ فرآیندی است که در طی آن قوانین و ادیان، غذا و روابط جنسی را شکل میدهند.
وقتی هوش مصنوعی فرهنگ را تسخیر و تولید داستان، آهنگ، قوانین و مذاهب را آغاز کند چه اتفاقی در مسیر تاریخ روی خواهد داد؟ ابزارهای گذشته از قبیل رسانههای چاپی و رادیو به گسترش دیدگاههای فرهنگی بشر کمک کردند اما هرگز خود پدیدآورنده دیدگاههای فرهنگی جدید نبودند. هوش مصنوعی تفاوتی بنیادین دارد چون میتواند دیدگاههایی کاملاً جدید و فرهنگی کاملاً نو بیافریند.
احتمالاً هوش مصنوعی در ابتدا از نمونههای انسانی که بر مبنای آن تعلیم دیده است تقلید خواهد کرد اما با گذشت هر سال، فرهنگ هوش مصنوعی با جسارت تمام به جایی میرود که هیچ انسانی قبلاً به آنجا نرفته است. هزاران سال است که انسانها در میان رویاهای دیگر انسانها زیستهاند. ممکن است در سالهای آینده ما در میان رویاهای یک هوش مصنوعی بیگانه زندگی کنیم.
ترس از هوش مصنوعی فقط چند دهه است که انسان را دربر گرفته است اما انسانها از هزاران سال قبل ترسی عمیقتر داشتهاند. ما همیشه به قدرت داستانها و تصاویر برای دستکاری اذهان و خلق توهمات اذعان داشتهایم. در نتیجه، از زمان باستان انسانها از این میترسیدند که در جهان توهمات گرفتار شوند.
رنه دکارت در قرن 17 از آن هراس داشت که یک شیطان شرور او را درون جهانی از توهمات به دام اندازد و هر چیزی را که او میبیند یا میشنود خلق کند. افلاطون در یونان باستان داستان مشهور «غار» را بیان میکند که در آن گروهی از افراد داخل یک غار به زنجیر کشیده شدهاند و تمام عمرشان به یک دیوار سیاهرنگ نگاه میکنند. آنها در این صفحه انعکاس سایههای مختلف را میبینند. این زندانیان توهماتی را که میبینند به اشتباه واقعیت میپندارند. در هند باستان، حکمای بودایی و هندو میگفتند که تمامی انسانها درون مایا (Maya) -جهان توهمات- گرفتار شدهاند. آنچه ما به عنوان واقعیت میپذیریم در واقع تخیلی در درون ذهن ماست. مردم ممکن است به خاطر اعتقاد به این یا آن توهم جنگهایی به راه اندازند، دیگران را بکشند و خود آماده کشته شدن باشند. انقلاب هوش مصنوعی ما را با شیطان دکارت، غار افلاطون و مایا روبهرو میکند. اگر مراقب نباشیم ممکن است در پشت پردهای از توهمات گرفتار شویم. پردهای که قادر به دریدن آن نخواهیم بود یا حتی متوجه بودن آن نمیشویم.
البته از قدرت جدید هوش مصنوعی میتوان برای مقاصد خوب نیز استفاده کرد. من نمیخواهم وارد این بحث شوم چون پدیدآورندگان هوش مصنوعی به اندازه کافی در این باره صحبت میکنند. وظیفه تاریخدانان و فیلسوفانی مانند من آن است که خطرات را گوشزد کنند. اما قطعاً هوش مصنوعی میتواند از راههای بیشماری -از یافتن درمانهای جدید برای سرطان گرفته تا کشف راهحلهایی برای بحرانهای اکولوژیک- به ما کمک کند. پرسش پیشروی ما آن است که چگونه میتوانیم مطمئن شویم که از ابزارهای جدید هوش مصنوعی برای اهداف خوب و نه مقاصد شوم بهرهبرداری میشود. به این منظور ما باید در ابتدا قابلیتهای واقعی این ابزارها را بشناسیم.
از سال 1945 ما متوجه شدیم که فناوری هستهای میتواند انرژی ارزان را برای بشریت فراهم کند اما همچنین قادر است تمدن بشری را بهطور فیزیکی از میان ببرد. بنابراین ما کل نظم بینالمللی را از نو شکل دادیم تا از بشریت محافظت کنیم و اطمینان یابیم که از فناوری هستهای صرفاً برای اهداف خوب بهرهبرداری میشود. اکنون سلاحی جدید با قابلیت تخریب انبوه پیشروی ماست. سلاحی که قادر است جهان فکری و اجتماعی ما را از بین ببرد.
ما هنوز میتوانیم بر ابزارهای جدید هوش مصنوعی نظارت کنیم اما باید به سرعت دست به کار شویم. سلاحهای هستهای نمیتوانند سلاحهای قدرتمندتری اختراع کنند اما هوش مصنوعی میتواند یک هوش مصنوعی بسیار قدرتمندتر بسازد. گام اولیه باید انجام بازرسیهای ایمنی قبل از عرضه ابزارهای توانمند هوش مصنوعی به حوزه عمومی باشد. درست همانگونه که یک شرکت داروسازی نمیتواند بدون ارزیابی اثرات جانبی کوتاهمدت و درازمدت یک داروی جدید آن را عرضه کند شرکتهای فناوری نیز نباید ابزارهای جدید هوش مصنوعی را بدون ایمنسازی عرضه کنند. ما برای فناوریهای جدید به چیزی شبیه سازمان غذا و دارو (FDA) نیاز داریم و این نیاز بسیاری ضروری است.
آیا کندی سرعت عرضه عمومی هوش مصنوعی باعث نمیشود دموکراسیها از نظامهای خودکامه بیرحم عقب بمانند؟ درست برعکس. عرضه بدون نظارت هوش مصنوعی باعث بروز هرجومرج اجتماعی میشود که به نفع خودکامههاست و دموکراسیها را ویران میکند. دموکراسی به معنای گفتوگو است و گفتوگوها به زبان متکی هستند. وقتی هوش مصنوعی زبان را هک کند توانایی ما برای برقراری گفتوگوی معنادار را از بین میبرد و به دنبال آن دموکراسی نابود میشود.
مدت زیادی نیست که ما با یک هوش بیگانه درست اینجا بر روی زمین مواجه شدهایم. ما چیز زیادی درباره آن نمیدانیم بهجز اینکه لازم است عرضه غیرمسوولانه ابزارهای هوش مصنوعی در حوزه عمومی را متوقف کنیم و هوش مصنوعی را کنترل کنیم قبل از اینکه ما را کنترل کند. اولین قانونی که من پیشنهاد میکنم آن است که هوش مصنوعی را ملزم کنیم که هوش مصنوعی بودن خود را افشا کند. اگر من با کسی در حال گفتوگو باشم و نتوانم بگویم آیا او یک انسان است یا هوش مصنوعی این به معنای پایان دموکراسی خواهد بود.
این متن را یک انسان نوشته است، شاید هم نه!!!