خوب، بد، شرور
هوش مصنوعی چگونه سیاست را متحول خواهد کرد؟
مِه اطلاعات، اطلاعات غلط و دادههای گمراهکنندهای که این روزها روی شیشه مقابل دید ما مینشیند آنقدر غلیظ هست که به عنوان یک شهروند عادی نتوانیم در هیچ حوزهای -بااطمینان- مسیر درست را از غلط تشخیص دهیم. شهروند آگاه بودن به همان اندازه که به لطف انقلاب اطلاعات و ارتباطات تقویت شده، سختتر از گذشته است. چه بخواهیم چه نخواهیم، هوش مصنوعی دارد با ما به آینده میآید و تاثیر آن بر تمام حوزههای زندگی ناگزیر است. حالا به سیاست و دموکراسی بیندیشید؛ جایی که همین حالا هم تشخیص درست از غلط و خوب از بد در آن چندان آسان نیست. بیشک یکی از عمیقترین تاثیرات فناوریهای هوشمند را در همین جا مشاهده خواهید کرد. جایی که هوش میتواند مفید و همزمان مضر باشد؛ خوب باشد یا بد و زشت ... ببینیم هوش مصنوعی قرار است چه بر سر سیاست بیاورد؟
خوشبینها میگویند استقرار هوش مصنوعی در مکانیسمهای حکمرانی به ایجاد زیربنای محکمی از اطلاعات پیشرفته برای سیاستهای دموکراتیک کمک میکند و سبب تقویت پاسخگویی و مسوولیتپذیری میشود. ابزارهای مبتنی بر هوش مصنوعی تصمیمگیریهای کارکنان دولت را در جهت کارآمدی حداکثری متحول میکنند و به یاری پیشبینی و مداخله بهتر در امور عمومی میآیند. در نهایت فناوریها به دولتها کمک میکنند تا در انجام وظایف خود پاسخگوتر و موثرتر باشند، نیازهای شهروندان را برآورده کنند، و شفافیت بیشتری در تمام رویهها ایجاد کنند. بدبینها اما معتقدند هوش مصنوعی تا جایی میتواند در سیاست موثر واقع شود که آسیبهای متعدد آن بر جنبههای مختلف امور انسانی -مانند حریم خصوصی، نظارت، سوگیری، نابرابری، آزادی و استقلال- قابل کنترل باشد. تا زمانی که انسانها هوش مصنوعی را کنترل میکنند عینیت میتواند مخدوش شود. اما اگر هوش پیشرفتهای اختراع شود که بهوسیله انسان قابل کنترل نباشد آن وقت عینیت قطعیتر است و هم در سیاست و هم در دموکراسی بهبود و پیشرفت چشمگیری حاصل میشود. به نظر شما کدامیک از این سناریوها به واقعیت نزدیکتر است؟
سناریوی هپی اندینگ!
هوش مصنوعی ثابت کرده است که در زمینههای خاص، به ویژه در مواردی که برای حل مشکلات پیچیده، نیاز به استدلال استراتژیک پیشرفته و تجزیه و تحلیل حجم وسیعی از دادهها وجود دارد، برتر از تصمیمگیری انسانی عمل میکند. سیاست هم حوزهای است که با برخی از پیچیدهترین مسائل انسانی سروکار دارد؛ بنابراین لازم است پیامدهای کوتاهمدت و بلندمدت آن به دقت بررسی و مشخص شوند. و به همین دلیل است که از نقش هوش مصنوعی در فرآیند تحلیل سیاستها، نمیتوان چشمپوشی کرد. اجازه بدهید با کارایی (efficacy) شروع کنیم. هوش مصنوعی وظایفی مانند تولید محتوا را خودکار میکند و به استراتژیستها اجازه میدهد تا فقط روی استراتژیها تمرکز کنند. در نبرد میان کسانی که سنگ پرتاب میکنند و کسانی که مجبور به مقابله با شیشههای شکسته هستند، یادگیری ماشینی با نظارت بر اخبار، شناسایی الگوها و مشکلات، به سازمانها در ارتباطات بحران کمک میکند تا آسیبها را به حداقل برسانند. ممکن است هوش مصنوعی به پیشبینی نتایج انتخابات و همهپرسیها (با دقت بیشتری نسبت به نظرسنجیها) کمک کند؛ در نتیجه به یاری کمپینهای سیاسی میآید تا سیاستمداران و استراتژیستهای آنان درباره صرف هزینه و وقت، تصمیمات آگاهانهتری بگیرند.
علاوه بر این، هوش مصنوعیِ مولد، الگوسازی سیاسی و تحلیل احساسات را به سطح دیگری ارتقا خواهد داد و در محافل سیاسی، به منظور شخصیسازی پیامهایی که به رایدهندگان داده میشود به کار خواهد رفت. در واقع هوش مصنوعی کاندیداها را قادر میکند تا آسانتر و سریعتر از گذشته، به گروههای خاص از رایدهندگان دسترسی پیدا کنند، هواداران جدید بیابند، مشارکت را تقویت کنند و برای نامزدها و حزب مربوطه سرمایه جمع کنند. متونی که بر اساس رایگیریهای گذشته شخصیسازی شدهاند یا مسائلی که رایدهندگان به آن اهمیت میدهند نیز دقیقتر میشوند.
از سوی دیگر، هوش مصنوعی برای کمک به اطلاعرسانی لازم برای تصمیمات سیاسی دولتی، مقادیر زیادی از دادهها را غربال و دستهبندی میکند. با قدرت پیشبینی که دارد میتواند به جلوگیری از موارد تداخل و بهبود خدمات عمومی کمک کند. ممکن است با دادن صدا و اختیار بیشتر به شهروندان، توازن قدرت بین دولتها و شهروندان را تغییر دهد. در مجامع و انجمنهای شهروندی میتوان از آن برای کمک به تسهیل جمعآوری اطلاعات، ایجاد اجماع و ایدهپردازی استفاده کرد. هوش مصنوعی احتمالاً به رسانهها هم کمک میکند تا نقش نظارتی خود را بهتر ایفا کنند. اگر این کارکردها به نظرتان مفید میآید باید بگوییم داستان به همین سادگی هم نیست.
هوش شرور
داستان هوشمند شدن سیاست اما میتواند روی ترسناکی هم داشته باشد. تحلیلگران میگویند بیشتر آسیبهای واقعی که این سیستمها میتوانند ایجاد کنند -در کنار همه فرصتها- ربطی به تسلط روباتها بر جهان یا سیستمهای هوش مصنوعی خودساز ندارد. این آسیبها به این پرسشهای کلیدی بازمیگردد که چگونه، چه زمانی و چرا باید از ابزارهای قدرتمند پیشبینی در سیستمهای تصمیمگیری سازمانهای سیاسی، اجتماعی و اقتصادی خود استفاده کنیم. اصلاً آیا ضروری است که از قدرت پیشبینی AI استفاده کنیم تا تصمیم بگیریم چه کسی وام دریافت کند؟ افسران پلیس به کدام محلهها فرستاده شوند؟ کدام اتهامات مربوط به کودکآزاری و غفلت از تحقیق در مورد آنها رسیدگی شوند یا کدام پستها حذف یا در فیسبوک نمایش داده شوند؟ کدام سیاستها در مورد مالیات باید اجرایی شوند؟
پاسخ به این سوالات در دنیای بدون هوش مصنوعی همیشه یکسان نیست. این سوالات بسته به مسائل اخلاقی و سیاسی در حوزه عمومی میتواند جواب متفاوتی داشته باشد یا بسته به شرایط تعدیل شود. این بدان معناست که راهحلهای سیاستی (مورد نیاز سازمانهایی که از دادهها برای تصمیمگیری استفاده میکنند) الزاماً از الگوهای خطی ساده، یادگیری ماشینی و هوش مصنوعی تبعیت نمیکنند و از اینرو باید در ساختار پلیس، رسانهها، امور مالی و... کاملاً متفاوت باشند.
این اما، تنها سکانس نگرانکننده بازی هوش مصنوعی در صحنه سیاست نیست. هوش مصنوعی در حال حاضر در تمام زمینههای زندگی اجتماعی مانند رانندگی، نظامیگری، معاملات، سهام، ناوبری، تشخیص گفتار، پیشبینی آبوهوا و حفاظت مورد بهرهبرداری قرار میگیرد. در تمامی این زمینهها هوش مصنوعی کارایی را افزایش میدهد اما به همان اندازه راه را برای کنترل و جهتدهی باز میگذارد. هوش مصنوعی میتواند به دولتها قدرت نظارتیِ بیسابقهای بر شهروندان بدهد. میتواند اطلاعات غلط /گمراهکننده و دیپفیک را تشدید کند. میتواند ارزشهای دموکراتیک را با تداوم و تقویت نابرابریهای اجتماعی تضعیف کند. این همه میتواند اعتماد و قرارداد اجتماعی را بیشتر تضعیف کند. و در نهایت میتواند سیاستمداران و ارتباطات را به دلیل اختلال در کار، اشتغال و اقتصاد به چالش بکشد.
دشمن دموکراسی؟
فرض اصلی در کاربرد هوش مصنوعی در سیاست آن است که این فناوری، بهطور گسترده، امکانات لازم را برای تجزیه و تحلیل و هدایت گفتمانهای عمومی افزایش میدهد. نقاط قوت برنامههای کاربردی هوش مصنوعی امروزی در توانایی مشاهده و تجزیه و تحلیل بلادرنگ مقادیر عظیمی از ارتباطات و اطلاعات، تشخیص الگوها و اجازه دادن به واکنشهای فوری و اغلب نامرئی نهفته است. همه این پیشرفتها به سمت اتوماسیون پیش میروند. بنابراین، هوش مصنوعی در پشتوانه تمامی ارتباطات قرار میگیرد و به یک نیروی ساختاری ظریف و در عین حال بسیار قدرتمند تبدیل میشود. خطر ناشی از این توسعه دوجانبه است. از یکسو، ممکن است بازیگران بدخواهی وجود داشته باشند که از این امکانات جدید برای دستکاری شهروندان، در مقیاس وسیع استفاده کنند. ریسک دیگر در تغییر رابطه میان شرکتهای دولتی و خصوصی است. قدرتهای خصوصی بهطور فزایندهای درگیر مسائل سیاسی میشوند و ظرفیت آنها برای اعمال نفوذ غیرشفاف بر فرآیندهای سیاسی به دلایل ساختاری و تکنولوژیک در حال افزایش است. علاوه بر این، با تغییر عقلانیت اقتصادی جوامع دیجیتالی (مانند توسعه اقتصاد توجه) و تحول الگوهای کسبوکار خصوصی، حوزه عمومی شکل دیگری به خود گرفته است. با این روند، نهادهای خصوصی قویتر میشوند و کمتر پاسخگوی مقامات دولتی خواهند بود. در واقع این شکل جدید سرمایهداری که تهاجمی و فراگیرتر است، از دادههای جمعآوریشده برای پیشبینی، اصلاح و کنترل رفتارها استفاده میکند و به نوعی «سیاسیسازی» میشود. حوزه دیگری که هوش مصنوعی میتواند بر سیاست اثر بگذارد، خدمات عمومی است. خوشبینها امیدوارند که در جهانی پیچیدهتر، تغییر به سمت سیستمهای بسیار خودکار، به یک سیستم سیاسی کارآمدتر منجر شود. اتوماسیون باید شکستها و ناکارآمدیها را ریشهکن کند، امکان قضاوت دقیقتر و سریعتر را فراهم کند و منابع را برای مشکلات دیگر آزاد کند. اما چرا تغییر در نحوه اداره خدمات، به عنوان چالشی برای دموکراسی مطرح میشود؟
یک پیشفرض غالباً ناشناخته دموکراسی، تکیه آن بر قوانین و قواعد حقوقی بهعنوان سازوکارهای اصلی هدایت جامعه است. قوانین مکتوب و اعمال آنها بهوسیله یک مجری تحت کنترل قضایی، به عنوان یک ضرورت برای سیستمهای دموکراتیک در نظر گرفته میشود. عنصر اساسی ایده دموکراسی مردمی هستند که بر خود حکومت میکنند. قوانین و ساختارهای قانونی تضمین میکنند که رژیمهای دموکراتیک این امکان را مبتنی بر قانون برای شهروندان خود فراهم میکنند. بنابراین، اگر دولتها به تدریج فرآیندهای قانونی را با فرآیندهای خودکار و انطباقی، جایگزین یا تکمیل کنند، این امر بر عملکرد و مشروعیت نظامهای دموکراتیک تاثیر نامطلوبی میگذارد.
ماهی گرفتن از آب گلآلود
در کشورهای خودکامه سیستمهای هوش مصنوعی میتوانند مستقیماً از کنترل و نظارت حمایت کنند و به نیروهای امنیتی داخلی کمک کنند تا حجم عظیمی از اطلاعات را -از پستهای رسانههای اجتماعی و پیامهای متنی گرفته تا ایمیلها و تماسهای تلفنی- سریعتر و کارآمدتر پردازش کنند. پلیس میتواند روندهای اجتماعی و افراد خاصی را که ممکن است رژیم را تهدید کنند بر اساس اطلاعات کشفشده از طریق این سیستمها شناسایی کند. برای مثال دولت چین از هوش مصنوعی در سرکوبهای گسترده در مناطقی که محل سکونت اقلیتهای قومی در چین است استفاده میکند. سیستمهای نظارتی در سین کیانگ و تبت به «اوروِلی» توصیف شدهاند. این اقدامات کنترلی، شامل نمونههای اجباری DNA، نظارت بر شبکه WiFi و دوربینهای تشخیص چهره است که همگی به پلتفرمهای تجزیه و تحلیل دادههای یکپارچه متصل هستند. به گفته وزارت امور خارجه ایالات متحده مقامات چینی با کمک این سیستمها بین یک تا دو میلیون نفر را خودسرانه بازداشت کردهاند.
نتایج پژوهشی که در 90 کشور جهان (با انواع حکومتهای مختلف) از جمله تایلند، ترکیه، بنگلادش و کنیا انجام شده نشان میدهد که شرکتهای چینی، فناوری نظارت بر هوش مصنوعی را به حداقل 54 کشور صادر میکنند. اغلب، این فناوریها در شبکه گسترده جادهها، راهآهن، خطوط لوله انرژی و شبکههای مخابراتی به کار میروند و به 60 درصد از جمعیت جهان و اقتصادهایی که 40 درصد از تولید ناخالص داخلی جهانی را به خود اختصاص میدهند، خدماترسانی میکنند. جالب است بدانید شرکتهای چینی مانند هواوی و ZTE در حال ساخت «شهرهای هوشمند» در پاکستان، فیلیپین و کنیا هستند که دارای فناوری نظارت داخلی گسترده است. آنها فیلیپین را به دوربینهای متصل به اینترنت با کیفیت بالا مجهز کردهاند که «نظارت امنیتی هوشمند 24ساعته با تجزیه و تحلیل دادهها را برای شناسایی جرم و کمک به مدیریت ترافیک ارائه میکند».1
علاوه بر ارائه قابلیتهای نظارتی که هم گسترده و هم دقیق هستند، هوش مصنوعی میتواند به دولتهای سرکوبگر در دستکاری اطلاعات موجود و انتشار اطلاعات نادرست کمک کند. این کمپینها میتوانند خودکار یا به کمک خودکارسازی باشند و پیامهای بسیار شخصیسازیشده را به افراد یا گروههای خاص یا علیه آنها ارسال کنند. هوش مصنوعی همچنین زیربنای فناوری «دیپفیک» است که در آن الگوریتمها محتواهای جعلی ویدئویی و صوتی را ایجاد میکنند. گلآلود کردن آب بین حقیقت و تخیل در یک رقابت انتخاباتی فشرده را تصور کنید؛ یک کاندیدا میتواند ویدئوهای جعلی ایجاد کند که نشان میدهد رقیب چیزهایی را انجام میدهد و میگوید که در واقع هرگز اتفاق نیفتاده است! البته تنها کشورهای اقتدارگرا نیستند که به استفاده شرورانه از هوش مصنوعی گرایش دارند و فقط شرکتهای چینی نیستند که این فناوری را گسترش میدهند. بسیاری از شرکتهای آمریکایی، از جمله مایکروسافت، IBM، Cisco و Thermo Fisher نیز، قابلیتهای پیچیدهای را برای اقدامات شیطنتآمیز دولتها فراهم کردهاند.
تاثیر هوش مصنوعی بر دموکراسی، به نحوه توسعه و استقرار آن بستگی دارد. سیاستگذاران باید خطرات و مزایای بالقوه هوش مصنوعی را به دقت در نظر بگیرند و گامهایی بردارند تا اطمینان حاصل کنند که از آن به روشهایی استفاده میشود که ارزشهای دموکراتیک را ارتقا میدهد و از حقوق بشر محافظت میکند. این بند پایانی یادداشت البته، نوشته من نیست. اگر شما هم مثل من از chatGPT بپرسید هوش مصنوعی چگونه بر ارتباطات سیاسی و دموکراسی تاثیر میگذارد، همین جواب را خواهید گرفت!
پینوشت:
1- Feldstein, Steven, Artificial Intelligence and Digital Repression: Global Challenges to Governance (April 18, 2019).