هوش مصنوعی و دموکراسی
اقدامات دولتها برای مقابله با اطلاعات غلط
در یکی از روزهای نوامبر گذشته اولاف شولتس مردم آلمان را با یک اطلاعیه غیرمنتظره مورد خطاب قرار داد. ویدئویی حاوی پیام رهبر آلمان در وبسایتی که مشخصاً به همان هدف ساخته شده بود بارگزاری شد که بیان میکرد دولتش قصد دارد از دادگاه قانون اساسی آلمان بخواهد فعالیت حزب فاشیست «آلترناتیو آلمان» را که یک حزب سیاسی راست افراطی است ممنوع کند. فقط اینکه در آن ویدئو آقای شولتس واقعی نبود. گروهی از هنرمندان مبارز آلمانی با استفاده از هوش مصنوعی یک جعل عمیق (deepfake) ساخته بودند. جعل عمیق تصویر یا ویدئویی است که نرمافزار یادگیری ماشینی تولید میکند. درست چند ساعت پس از پخش ویدئو سخنگوی دولت دستکاری چنین ویدئوهایی و قابلیت آنها برای ایجاد نااطمینانی را محکوم کرد. مرکز ملی امنیت سایبری بریتانیا به تازگی هشدار داد که جعل عمیق میتواند با استفاده از اطلاعات نادرست هدفمند به گفتمان دموکراتیک و انتخابات پیشرو آسیب برساند. رایدهندگان عادی هم همزمان با سیاستمداران از این بابت نگران شدهاند. طبق نظرسنجی سال گذشته موسسه ایپسوس (Ipsos) اکثر مردم در کشورهای زیادی از جمله آمریکا، بریتانیا و فرانسه عقیده دارند هوش مصنوعی وضعیت اطلاعات نادرست را بدتر خواهد کرد. با وجود این تردیدهای زیادی درباره واقعی بودن این خطر وجود دارد. جعل عمیق آقای شولتس با هوش مصنوعی پیشرفتهای ساخته شد، اما عدم هماهنگی در حرکات لبها و صدای غیرطبیعی آن را لو داد. این امر در مورد اکثر جعلهای عمیقی که در رسانههای اجتماعی پخش میشوند صحت دارد. آیا در مورد نگرانیهای مربوط به ساخت اطلاعات نادرست از طریق هوش مصنوعی اغراق میشود؟ برخی متخصصان به مطالعاتی اشاره میکنند که قبل از پیدایش هوش مصنوعی انجام شدهاند و نشان میدهند که پخش اطلاعات نادرست عمدتاً موفقیت زیادی ندارد. به عنوان مثال، کریس بیل، جامعهشناس دانشگاه دوک و همکارانش با بررسی کارزار پخش هماهنگ اطلاعات نادرست از سوی روسیه در توئیتر در سال 2017 به این نتیجه رسید که کارزار نتوانست در میان آمریکاییان تفرقه بیفکند. عدم تمایل عموم مردم به تغییر دیدگاههای سیاسی خود آن هم در واکنش به هر نوع اطلاعات را میتوان نوعی موهبت به شمار آورد. هوش مصنوعی چشمانداز اطلاعات نادرست را تغییر میدهد، اما تاثیر آن بر رسانههای ایستا از قبیل متون و تصاویر با تاثیر آن بر صوت و تصویر تفاوت دارد. هوش مصنوعی نمیتواند کیفیت رسانههای ایستا را بالا ببرد. مطالعات نشان میدهند که متون ساخت هوش مصنوعی در بهترین حالت اندکی از متون ساخت انسان قانعکنندهتر هستند و خاصیت بیشتری ندارند. همچنین مدتها قبل از پیدایش هوش مصنوعی، فتوشاپ میتوانست تصاویر جعلی پیچیدهای بسازد. تنها تغییر ایجادشده به کمیت مربوط میشود: هوش مصنوعی بسیار آسانتر میتواند انبوهی از اطلاعات نادرست را تولید و توزیع کند. الگوهای زبانی بزرگ عملاً بدون هیچ هزینهای متون باکیفیت تولید میکنند. ابزارهایی مانند میدجرنی (Midjourney) حتی به کاربران تازهکار امکان میدهند تا با کمترین راهنمایی تصاویری واقعگرایانه بسازند. الگوهای زبانی بزرگ میتوانند با نوشتن کدهای کامپیوتری فرآیند پخش اطلاعات نادرست را خودکار کنند. از این الگوها برای ساخت وبسایتهای «اخبار جایگزین» استفاده میشود که واقعیتها و دروغها را با یکدیگر ترکیب میکنند و به خاطر نگرانیهای مربوط به سانسور نمیتوان جلوی آنها را گرفت. باتهای اجتماعی یعنی پروفایلهایی که از طریق هوش مصنوعی اداره میشوند میتوانند الگوریتمها را به گونهای دستکاری کنند که انواع خاصی از محتوا را پیش ببرند. این باتها در آینده میتوانند به شخصیتهای کامل آنلاینی تبدیل شوند که با کاربران ارتباط برقرار میکنند و با پیامهای دقیق شخصیسازیشده آنها را هدف میگیرند. شاید هیچکدام از این قابلیتها برای منحرف کردن افکار عمومی کافی نباشند. اما این بدان معنا نیست که هیچ خبری وجود ندارد. سیاستمداران دیگر نمیتوانند به سادگی شواهدی را جعلی بخوانند. بزرگترین نگرانیها به رسانههای پویا مربوط میشوند. هوش مصنوعی علاوه بر افزایش کمیت مطالب جدید صوتی و تصویری کیفیت آنها را هم بالا میبرد. در گذشته تولید ویدئوهای جعلی از شخصیتهای دولتی به جز در استودیوهای هالیوود امکانپذیر نبود. اکنون به روزگاری رسیدهایم که در آن هر کسی میتواند با یک لپتاپ شخصی به تولید چنین محتوایی اقدام کند. برندان نیهان (Brendan Nyhan) از کالج دارتموث در آگوست گذشته به نشریه اکونومیست گفت: «ما شواهد قانعکنندهای نداریم که نشان دهد جعل عمیق میتواند تاثیری در سیاست ایجاد کند.» اما فقط چند هفته بعد چنین موردی را در اسلواکی مشاهده کردیم. درست دو روز قبل از انتخابات سپتامبر 2023 یک جعل عمیق صوتی در رسانههای اجتماعی به گردش افتاد. این فایل که به سرعت پخش شد در ظاهر متعلق به میشل سیمکا، رهبر حزب ترقیخواه اسلواکی بود که در آن در مورد برنامههایش برای تقلب در انتخابات صحبت میکرد. از آنجا که فایل در مهلت 48ساعته قبل از رایگیری پخش شد فرصتی برای انکار آن باقی نماند. حزب آقای سیمکا در جدالی سخت به حزب عوامگرای طرفدار روسیه آقای رابرت فیکو باخت. فاصله آنها فقط پنج واحد درصد بود. متخصصان نظرات متفاوتی درباره تاثیر اطلاعات نادرست ساخت هوش مصنوعی بر دموکراسی و انتخابات دارند و ممکن است مدتی طول بکشد تا این اختلاف دیدگاهها برطرف شود. اما سیاستمداران نمیتوانند منتظر بمانند تا گردوخاکها فرو بنشیند. سرعت پیشرفت هوش مصنوعی آنقدر زیاد است که نمیتوان «منتظر ماند و دید که چه میشود». آنها هماکنون باید تصمیم بگیرند که حاضرند چه مقدار ریسک تهدیدکننده گفتمان عمومی را بپذیرند. خوشبختانه چند روش مداخله وجود دارد که میتوانند تابآوری را افزایش دهند. اول، شرکتهای هوش مصنوعی باید ابزارهای علامتگذاری و تشخیص بسازند که محتوای واقعی را از تولیدات هوش مصنوعی متمایز میکنند. این ابزارها باید واقعاً کارآمد باشند، چون ابزارهای کنونی به راحتی دور زده میشوند. این شرکتها باید حق انتخاب داشته باشند: یا الگوهایی بسازند که از تولید انواع خاصی از محتوا -مثلاً ویدئوهای واقعنمایانه از شخصیتهای دولتی- امتناع میکنند، یا راهی برای علامتگذاری مطمئن تولیداتشان پیدا کنند. دوم، این تمهیدات فنی باید با مداخلات آزمایششده همراه باشند. از این مداخلات میتوان به کارزارهای رسانهای، ویدئوهای کوتاه یا بازیهایی اشاره کرد که مردم را از اهداف و راهبردهای کارزارهای اطلاعات نادرست آگاه میکنند و مقاومت افکار عمومی را در برابر اخبار جعلی بالا میبرند. سوم، ما به سامانههای قوی پایشگری و ارزیابیهای اشخاص ثالث نیاز داریم تا بر قابلیتهای آینده الگوها نظارت کنند. به عنوان مثال، دولتها باید بدانند الگوها چه موقع میتوانند به طور خودکار کارزارهایی را از طریق باتهای اجتماعی آنلاین به راه اندازند. بدون چنین نظارتی سیاستگذاران نمیتوانند در صورت وخامت اوضاع به موقع وارد عمل شوند.