شناسه خبر : 49195 لینک کوتاه
تاریخ انتشار:

هوش وابسته

هوش مصنوعی چگونه در خدمت ذی‌نفعان قرار می‌گیرد؟

 

سعید ابوالقاسمی / نویسنده نشریه 

82«ورودی بد، خروجی بد» پدیده این روزهای استفاده از چت‌بات‌های هوش مصنوعی در سراسر جهان است. با افزایش استفاده از هوش مصنوعی، برخی افراد و جریان‌ها تلاش می‌کنند با پرسش‌های سوگیرانه، روی پاسخ‌هایی که از سوی ابزارهای هوش مصنوعی ارائه می‌شود، تاثیر بگذارند. یکی از اصلی‌ترین دلایل بروز این پدیده، وابستگی پاسخ الگو‌های زبانی بزرگ (Large Language Models) به شیوه پرسشی است که در برابر آنها قرار می‌گیرد. انگیزه‌های انسانی نیز در این میان دخیل است. افراد یا گروه‌هایی که منافع خاص سیاسی، اقتصادی یا اجتماعی دارند، تلاش می‌کنند روایت‌های برساخته خود را از واقعیت‌ها رواج دهند که افکار عمومی به سمت‌وسوی مشخصی هدایت شود. در کمپین‌های تبلیغاتی و سیاسی، گاهی داده‌های گزینشی یا تحریف‌شده به الگو‌های تحلیلی وارد می‌شود که نتایج دلخواه به دست آید. این اتفاق باعث می‌شود تصمیم‌گیری‌ها یا برداشت‌های مردم تحت تاثیر قرار گیرد.

سرچشمه اطلاعات هوش مصنوعی

هوش مصنوعی در قالب نوعی نظام پیچیده تشکیل‌یافته از الگوریتم‌ها و الگوهایی عمل می‌کند که برای تقلید از جنبه‌های شناخت انسان، همانند یادگیری، استدلال و تصمیم‌گیری طراحی شده‌اند. این نوع از فناوری، در هسته مرکزی خود، داده‌ها را جمع‌آوری، پردازش و تحلیل می‌کند تا پاسخ‌ها یا پیش‌بینی‌های آگاهانه‌تری تولید کند. در این فرآیند عملکردی، سه بخش اصلی وجود دارد؛ نخست، چگونگی جمع‌آوری اطلاعات به وسیله هوش مصنوعی، دوم، سازوکارهایی که اطلاعات در آنها کنار هم قرار می‌گیرد و البته استدلال‌های لازم درباره این داده‌ها انجام می‌شود و در نهایت، بستری که متداول‌ترین نوع اطلاعات برای ارائه پاسخ‌های لازم مورد استفاده قرار می‌گیرد. اصلی‌ترین موضوعی که باید به آن پرداخته شود، این است که هوش مصنوعی چگونه اطلاعات را جمع‌آوری می‌کند؟ نظام‌های هوش مصنوعی، بسته به هدفی که برای آن طراحی و تولید شده‌اند، اطلاعات را از طریق راه‌های گوناگون به دست می‌آورند. نخستین روش کلیدی جمع‌آوری داده‌ها از طریق هوش مصنوعی، ورودی داده‌ها و حسگرهاست؛ در این روش، هوش مصنوعی به حسگرها یا دستگاه‌های ورودی برای جمع‌آوری داده‌های خام تکیه می‌کند. تصاویر و ویدئوها، متن‌ها، صداها و حسگرها در این دسته جای می‌گیرند. برای مثال، سیستم‌های هوش مصنوعی برای فعالیت‌هایی همانند تشخیص تصویر یا اشیا، داده‌های بصری دوربین‌ها را پردازش می‌کنند. همچنین، الگو‌های زبانی هوش مصنوعی، به منابع وسیع و گسترده‌ای از محتوای نوشتاری مثل کتاب‌ها، مقاله‌ها و محتوای تولیدشده از سوی کاربران متصل هستند و داده‌های خود را از آنها جمع‌آوری می‌کنند. دومین روش جمع‌آوری اطلاعات به وسیله هوش مصنوعی، Web Scrapingها، وب‌سایت‌ها یا پایگاه‌های داده (استخراج مجموعه داده‌های بزرگ از منابع آنلاین) و APIها (رابط‌های برنامه‌نویسی کاربردی) هستند. رابط‌های برنامه‌نویسی کاربردی، موجب تسهیل تبادل داده‌های ساختاریافته میان سیستم‌های هوش مصنوعی و سایر نرم‌افزارها می‌شوند. سومین روش کلیدی، جمع‌آوری اطلاعات از طریق هوش مصنوعی، تعامل و بازخورد کاربران است. در این روش، سیستم‌هایی همانند روبات‌های گفت‌وگو یا موتورهای توصیه‌کننده، داده‌ها را به شکل مستقیم از تعاملات کاربران جمع‌آوری می‌کنند. برای توضیح ساده‌تر، یک برنامه پخش موسیقی را در نظر بگیرید. این برنامه، تمایلات و علاقه‌مندی‌های کاربر را از طریق آهنگ‌های نادیده گرفته‌شده یا آهنگ‌های چندبار شنیده‌شده و مورد پسند واقع‌شده، یاد می‌گیرد. بنابراین، در فهرست پیشنهادهای موسیقی، آهنگ‌هایی را توصیه می‌کند که در همان قالب‌های مورد علاقه کاربر قرار دارند. در سوی دیگر، هوش مصنوعی مبتنی بر چت، پرسش‌ها و پاسخ‌ها را جمع‌آوری و ذخیره می‌کند که آنها را در پاسخ‌های آینده لحاظ کند. تازه‌ترین روش کلیدی که هوش مصنوعی به جمع‌آوری اطلاعات می‌پردازد، مجموعه داده‌های از پیش جمع‌آوری و مدیریت‌شده است. در این روش، مجموعه داده‌ها از قبل برای آموزش هوش مصنوعی آماده شده و در اختیار آن قرار گرفته‌اند. برای مثال، Kaggle؛ پلت‌فرم‌های داده عمومی برای علوم داده و آموزش الگو‌های هوش مصنوعی، ImageNet؛ پایگاه داده برای آموزش مدل‌های تشخیص تصویر و Common Crawl؛ مجموعه داده‌ای حاوی متن است که ابزارهای هوش مصنوعی را تغذیه می‌کنند.

استدلال، نقطه ابهام بزرگ

روش‌های پردازش و استدلال درباره اطلاعات که از سوی ابزارهای مختلف هوش مصنوعی به کار گرفته می‌شود، موضوع مهمی است که همچنان درباره آن ابهام وجود دارد. نکته اینجاست، زمانی که داده‌ها جمع‌آوری می‌شوند، هوش مصنوعی مراحل زیادی را برای درک این اطلاعات پشت سر می‌گذارد. در درجه نخست، پیش‌پردازش‌ها انجام می‌شوند. داده‌های خام، همواره اختلال‌هایی دارند و البته بسیار ناقص هستند. بنابراین، مرحله پیش‌پردازش، فرآیندهایی همانند پاکسازی اطلاعات به روش حذف خطاها یا ناسازگاری در داده‌ها، عادی‌سازی به وسیله تنظیم مقادیر داده‌ها برای قرار گرفتن در محدوده استانداردشده و در نهایت، استخراج ویژگی با استفاده از شناسایی ویژگی‌های مهم را در خود جای داده است. پس از آن، نوبت به تشخیص الگو از طریق الگوریتم‌ها می‌رسد. قدرت هوش مصنوعی در شناخت الگوها پنهان شده است. روش‌های رایج تشخیص الگو، در دسته‌های مختلفی همانند یادگیری نظارت‌شده، یادگیری بدون نظارت و یادگیری تقویتی جای می‌گیرند. در یادگیری نظارت‌شده، هوش مصنوعی با مجموعه داده‌های برچسب‌گذاری‌شده (برای مثال، تصاویر برچسب‌گذاری‌شده از گربه‌ها و سگ‌ها) آموزش می‌بیند و این دانش را در داده‌های جدید به کار می‌گیرد. یا در کنار آن، در یادگیری تقویتی، ابزارهای هوش مصنوعی یاد می‌گیرند که با دریافت بازخوردهای مثبت یا منفی درباره اطلاعات ارائه‌شده، تصمیم‌گیری کنند که این اطلاعات را مورد استفاده قرار بدهند یا دیگر از آن استفاده نکنند. یکپارچه‌سازی داده‌ها، مرحله بعدی است که طی آن، هوش مصنوعی انواع داده‌های مختلف را برای ایجاد درک منسجم با یکدیگر ادغام می‌کند. برای مثال، یک خودرو خودران، داده‌های بصری دریافت‌شده از دوربین، داده‌های مکانی و معیارهای سرعت را برای حرکت ترکیب می‌کند. سپس، نوبت به شبکه‌های عصبی و یادگیری عمیق می‌رسد. در این مرحله، هوش مصنوعی برای استدلال پیچیده از شبکه‌های عصبی مدل‌سازی‌شده از مغز انسان استفاده می‌کند. در این روش، داده‌های خام وارد شبکه می‌شود، سپس لایه‌های پنهان، محاسباتی را برای استخراج الگوها و ارتباطات آنها با یکدیگر انجام می‌دهند و در نهایت، پیش‌بینی‌ها یا تصمیم‌های نهایی در لایه خروجی تولید می‌شوند. با در نظر گرفتن این مراحل، به این نتیجه می‌رسیم که استدلال توسط هوش مصنوعی، از طریق سازوکارهای مشخصی صورت می‌گیرد. ابزارهای هوش مصنوعی برای استدلال صحیح به مواردی همانند سیستم‌های مبتنی بر قانون، روش‌های آماری و مدل‌های مولد تکیه می‌کنند. برای مثال، در روش آماری، استنتاج احتمالی بر اساس الگوها انجام می‌شود و مدل‌های مولد نیز با ایجاد محتوا یا فرضیه‌های جدید، حالت‌های مختلف استدلال را مدنظر قرار می‌دهند. در چنین شرایطی، حلقه‌های بازخورد به‌عنوان آخرین مرحله استدلال، به کمک ابزارهای هوش مصنوعی می‌آید که عملکرد خود را تقویت کنند. سیستم‌های هوش مصنوعی به‌طور مداوم از طریق بازخورد بهبود می‌یابند. در این فرآیندها، سیگنال‌های تقویتی، عملکرد هوش مصنوعی را در فعالیت‌هایی همانند بازی‌ها بهبود می‌بخشند یا ارزیابی‌های انسانی، به اصلاح سیستم‌های هوش مصنوعی مکالمه‌ای کمک می‌کنند. گستردگی کار ابزارهای هوش مصنوعی در استدلال، زمانی مشخص می‌شود که بدانیم اطلاعات مورد استفاده در پاسخ‌های هوش مصنوعی در سطح گسترده‌ای جمع‌آوری می‌شوند. دقت و ارتباط پاسخ‌های هوش مصنوعی، به کیفیت داده‌های زیربنایی آن بستگی دارد.

دستکاری اطلاعات هوش مصنوعی؟

درست است که سیستم‌های هوش مصنوعی ابزارهای قدرتمندی هستند که برای عملکرد موثر به میزان زیادی داده تکیه دارند، اما در مقابل، وابستگی آنها به داده‌ها باعث می‌شود در برابر دستکاری افراد یا سازمان‌هایی که به اطلاعات سازمان‌یافته دسترسی دارند، آسیب‌پذیر باشند. این پدیده که به‌عنوان «مسمومیت داده‌ها» یا «دستکاری مدل‌ها» نامیده می‌شود، می‌تواند خروجی‌های سیستم‌های هوش مصنوعی را مخدوش کند و به ارائه نتایج مغرضانه، گمراه‌کننده یا مضر منجر شود. اما چه فرآیندهایی طی می‌شود که سیستم‌های هوش مصنوعی، مورد دستکاری اطلاعاتی قرار می‌گیرند؟ سیستم‌های هوش مصنوعی با استفاده از مجموعه داده‌هایی که به‌عنوان پایه‌ای برای فرآیندهای تصمیم‌گیری آنها عمل می‌کنند، آموزش دیده‌اند. اگر این مجموعه داده‌ها به صورت عمدی دستکاری شوند، خروجی‌های هوش مصنوعی منحرف خواهند شد. یکی از روش‌های دستکاری اطلاعات برای ارائه نتایج هدفمند از طریق هوش مصنوعی، مسمومیت داده‌هاست. مسمومیت داده شامل معرفی داده‌های مخرب یا گمراه‌کننده به مجموعه داده‌های آموزشی سیستم هوش مصنوعی است. این اقدام می‌تواند در مرحله آموزش اولیه یا از طریق فرآیندهای یادگیری مداوم رخ دهد. برخی از این مسمومیت‌ها، هدفمند هستند. در این ارتباط، نقاط داده خاص برای ایجاد خطا در سناریوهای خاص تغییر می‌کنند. چنین روشی در سیستم‌های تشخیص چهره بسیار دیده می‌شود؛ در این اقدام، ممکن است مهاجمان تصاویری را ارائه کنند که برای شناسایی اشتباه افراد طراحی شده‌اند. همچنین، در روش دیگری، توزیع‌کنندگان اطلاعات وب، محرک‌های مخفی را در داده‌های آموزشی پنهان می‌کنند که باعث می‌شود هوش مصنوعی در صورت برآورده شدن شرایط خاص، رفتار غیرعادی از خود نشان دهد. بهره‌برداری الگوریتمی، روش دیگری است که با استفاده از آن، افراد حتی بدون تغییر داده‌های آموزشی، می‌توانند از الگوریتم‌ها بهره‌برداری کنند. برای مثال، در الگو‌های مبتنی بر متن هوش مصنوعی، نوع پرسش‌ها یا اطلاعات ورودی ارائه‌شده، هوش مصنوعی را برای ایجاد پاسخ‌های خاص دستکاری می‌کنند. همچنین، تغییرات ظریف در داده‌های ورودی می‌تواند سیستم‌های هوش مصنوعی را گیج کند و به ارائه خروجی‌های نادرست منجر شود. همچنین، سازمان‌هایی که به اطلاعات سازمان‌یافته دسترسی دارند، می‌توانند داده‌های مغرضانه‌ای را به‌عنوان ورودی استفاده کنند که روایت‌ها یا دیدگاه‌های خاصی را تقویت می‌کند. این اتفاق به‌ویژه در زمینه‌هایی که اخبار زیادی از یک موضوع خاص منتشر می‌شود، بسیار نگران‌کننده است. در چنین شرایطی، مجموعه داده‌های مغرضانه می‌توانند باعث انتشار اطلاعات نادرست شوند. بنابراین، سیستم‌های هوش مصنوعی که به داده‌های مختلف و البته به‌روز مثل ابزارهای نظارت بر رسانه‌های اجتماعی اتکا دارند، تحت تاثیر کمپین‌های هماهنگ قرار می‌گیرند. نکته مهم اینجاست که دستکاری سیستم‌های هوش مصنوعی پیامدهای گسترده‌ای خواهد داشت. از جمله این پیامدها می‌توان به از بین رفتن اعتماد عمومی به فناوری، ایجاد زیان‌های اقتصادی، ایجاد شکاف‌های اجتماعی ناشی از انتشار اطلاعات نادرست و بروز خطرات امنیتی اشاره کرد. دستکاری داده‌ها برای فریب دادن یا گمراه کردن، نقض اصول صداقت و شفافیت است که باید در استفاده از فناوری رعایت شود. با این حال، از منظر عملی، این کار به دلیل ضعف‌های موجود در نظارت بر داده‌ها و پیچیدگی تشخیص دستکاری، همچنان رخ می‌دهد.

نمونه‌هایی از دستکاری اطلاعات در جهان

نمونه‌های بسیار زیادی از دستکاری اطلاعات هوش مصنوعی در سطح جهان رخ داده که مثال‌های جالبی از عملکرد غیرقابل اعتماد ابزارهای مختلف فناوری،‌ ترند این روزهای جهان به شمار می‌رود. نشت داده‌های سامسونگ از طریق چت جی‌پی‌تی (ChatGPT) که سال 2023 در کره جنوبی رخ داد، یکی از اصلی‌ترین رخدادهای این حوزه محسوب می‌شود. در این اتفاق، کارمندان سامسونگ به‌طور ناخواسته اطلاعات محرمانه را با استفاده از ChatGPT برای بررسی کدها و اسناد داخلی فاش کردند. اگرچه این حادثه یک دستکاری عمدی نبود، اما بر خطرات استفاده از هوش مصنوعی نظارت‌نشده، تاکید کرد. همچنین، در سال 2023 میلادی، چت‌بات مبتنی بر هوش مصنوعی یکی از نمایندگی‌های شورولت در ایالات‌متحده آمریکا، با دریافت اطلاعات نادرست و دستکاری‌شده، فریب خورد و یک وسیله نقلیه 76 هزاردلاری را فقط با قیمت یک دلار به خریدار عرضه کرد. این اتفاق نشان داد چگونه مهندسی پرسش یا حرفه پرسش‌پردازی (Prompt Engineering)، به‌عنوان فرآیندی برای استفاده کارآمدتر و اثربخش‌تر از هوش مصنوعی، می‌تواند از سیستم‌های هوش مصنوعی سوءاستفاده کند. یکی از عمیق‌ترین اتفاق‌هایی که در این زمینه روی داد، مسمومیت داده‌ها در سیستم‌های هوش مصنوعی مالی جهانی بود که طی آن، مهاجمان با ارائه داده‌های نادرست برای دستکاری پیش‌بینی‌های بازار، سیستم‌های هوش مصنوعی مالی را هدف قرار دادند که در مواردی باعث بروز اختلال‌های اقتصادی بسیار زیادی شد. این حملات از ماهیت داده‌محور سیستم‌های هوش مصنوعی مالی سوءاستفاده می‌کنند که برای فعالیت‌هایی همانند تجارت الگوریتمی، تشخیص تقلب و امتیازدهی اعتباری استفاده می‌شود. مهاجمان با ایجاد اختلال در مجموعه داده‌های استفاده‌شده در طول آموزش هوش مصنوعی، می‌توانند پیش‌بینی‌ها را تحریف کنند و با ارائه مولفه‌های ناقص تصمیم‌گیری، باعث بروز اختلال‌های اقتصادی شوند. رسانه‌های اجتماعی نیز از دستکاری اطلاعات در امان نیستند. در این زمینه می‌توان به رقابت‌های انتخاباتی اشاره کرد که روبات‌ها برای تاثیرگذاری بر افکار عمومی، محتوای هواداری حزبی را در رسانه‌های اجتماعی مختلف توزیع می‌کنند. دستکاری محتوایی رسانه‌های اجتماعی، نوعی استراتژی عمدی است که برای تاثیرگذاری بر ابزارهای تحلیل احساس‌ها مبتنی بر هوش مصنوعی، با هدف شکل دادن به افکار عمومی یا تحریف ادراکات استفاده می‌شود. برای مثال در زمان انتخابات، روبات‌ها ممکن است پیام‌های هواداری ارسال کنند، به تقویت هشتگ‌ها بپردازند یا در بحث‌هایی حضور پیدا کنند که احساس‌های اجتماعی را به نفع یک نامزد یا ایدئولوژی خاص تغییر دهد. این کمپین‌ها توهم حمایت یا مخالفت گسترده را ایجاد می‌کنند و سیستم‌های هوش مصنوعی را فریب می‌دهند که این احساس‌ها را واقعی‌تر کنند. همچنین، اطلاعات نادرست یا گمراه‌کننده برای شکل دادن به روایت‌ها منتشر می‌شود. سیستم‌های هوش مصنوعی که احساس‌های خبری را تجزیه‌وتحلیل می‌کنند، ممکن است به‌طور ناخواسته این روایت‌ها را تقویت و درک عمومی را خدشه‌دار کنند. در نتیجه، افکار عمومی تحریف می‌شوند، اعتماد عمومی در اثر مهندسی شدن احساس‌ها از بین می‌رود و شکاف‌های اجتماعی و سیاسی شکل می‌گیرند.

اقتصاد ایران، هدف جدید دستکاری اطلاعات

دستکاری داده‌های اقتصادی با استفاده از هوش مصنوعی به‌عنوان دغدغه مهم، ایران را نیز تحت تاثیر قرار داده است. در ماه‌های گذشته، ادعاها و نشانه‌هایی مبنی بر اینکه گروه‌های ذی‌نفع اعم از داخلی و بین‌المللی سعی در تحریف داده‌های اقتصادی ایران داشته‌اند، به چشم می‌خورد. این دستکاری‌های داده‌ای براساس موارد متعددی انجام شده است. ارقام تورم و تولید ناخالص داخلی، یکی از این موارد به شمار می‌رود. در بیشتر مواقع، گزارش‌های رسمی نرخ‌های تورم و ارقام رشد تولید ناخالص داخلی را در سطح و اندازه‌ای ارائه می‌دهند که به شکل محسوسی با تحلیل‌های مستقل تفاوت دارد. برای مثال، در حالی که دولت ممکن است متوسط تورم را 58 /44 درصد گزارش کند، منابع خارجی می‌گویند که این رقم می‌تواند تا 70 درصد ثبت شده باشد. یا در بخشی دیگر، با وجود ادعای رشد بسیار زیاد تولید انرژی، ایران با کمبود شدید انرژی، خاموشی‌های زیاد و عملکرد ضعیف پالایشگاه‌ها روبه‌رو بوده است. این اختلافات آماری و عملکردی، حکایت از دستکاری بالقوه داده‌ها و اطلاعات برای ارائه تصویری مطلوب از اقتصاد ایران دارد. در اعلام آمار رسمی اشتغال نیز وضع پیچیده دیگری وجود دارد. رقم‌های رسمی که از میزان اشتغال در کشور ارائه می‌شوند، همواره شرایط مطلوب‌تری را نسبت به آنچه در جامعه وجود دارد، ترسیم می‌کنند. در حالی که دولت نرخ مشارکت نیروی کار را به سازمان بین‌المللی توسعه و همکاری‌های اقتصادی ارائه می‌کند، اما تحلیل‌های مستقل نشان می‌دهند که نرخ اشتغال پایین‌تری در سطح جامعه وجود دارد. در این ارتباط، می‌توان به کمپین‌های رسانه‌های اجتماعی نیز اشاره کرد؛ جایی که تلاش‌های هماهنگ در پلت‌فرم‌هایی همانند X و تلگرام برای تقویت روایت‌ها در مورد ثبات یا بی‌ثباتی اقتصادی انجام می‌شود که در نهایت بر ادراکات داخلی و بین‌المللی تاثیر می‌گذارد. با ارائه چنین مثال‌هایی، این پرسش شکل می‌گیرد که چه انگیزه‌هایی در پس روایت‌های مثبت اقتصادی وجود دارد که سبب می‌شود آمارها و داده‌ها دستکاری شوند و تحلیل‌های هوش مصنوعی را با اختلال و اشتباه روبه‌رو کنند؟ پاسخ اینجاست که اهداف سیاسی مختلف باعث ایجاد انگیزه‌هایی در راستای مثبت نشان دادن وضع اقتصادی با استفاده از هوش مصنوعی می‌شود. در یکی از این انگیزه‌ها، دولت‌ها می‌توانند با پیش‌بینی ثبات و رشد اقتصاد، به دنبال مقابله با انتقادها از عملکرد اقتصادی خود باشند؛ در کنار آن، از روایت‌های مختلف برای حفظ روحیه عمومی و جلوگیری از ناآرامی‌های اجتماعی در شرایط سخت اقتصادی استفاده کنند. جذب سرمایه‌گذاری، هدف دیگری است که گاهی باعث می‌شود دولت‌ها در کشورهای مختلف، به دستکاری اطلاعات اقتصادی و توزیع گسترده آن در فضای وب و پایگاه‌های داده هوش مصنوعی روی بیاورند. در کنار آن، از این روایت‌های مثبت اقتصادی می‌توان برای تضعیف انتقاد مخالفان سیاسی یا نهادهای خارجی استفاده کرد. نکته مهم‌تر این است که دستکاری داده‌های اقتصادی، پیامدهایی دارد که اصل اقتصاد کشور را تحت تاثیر قرار می‌دهد. داده‌های اشتباه و تحریف‌شده، در کنار از بین بردن اعتماد، می‌تواند اشتباهات سیاست‌گذاری را نیز رقم بزند. سیاست‌گذارانی که بر داده‌های دستکاری‌شده تکیه می‌کنند، در ادامه، سیاست‌های ناقصی را اجرا می‌کنند که باعث تشدید چالش‌های اقتصادی می‌شود. همچنین در شرایطی که چنین مشکلی ایجاد می‌شود، سرمایه‌گذاران و کسب‌وکارها براساس داده‌های نادرست تصمیم می‌گیرند که بی‌ثباتی بازار را به دنبال خواهد داشت. از اینکه بگذریم، داده‌های اقتصادی نادرست می‌تواند بر افکار عمومی تاثیر بگذارد و به‌طور بالقوه به ناآرامی یا حتی تغییر در قدرت سیاسی منجر شود. البته، ایران در رویارویی با چالش‌های دستکاری داده‌های اقتصادی تنها نیست؛ در سطح جهانی نیز، کشورهایی همانند چین، ایالات‌متحده و روسیه با چنین اقدام‌هایی تلاش می‌کنند تصویر مطلوبی از اقتصاد خود به نمایش بگذارند. در چین، ادعاهایی مبنی بر افزایش ارقام تولید ناخالص داخلی برای پیش‌بینی قدرت اقتصادی مطرح شده است. همچنین در ایالات‌متحده نیز نگرانی در مورد استفاده از ابزارهای تجزیه‌وتحلیل احساس‌ها مبتنی بر هوش مصنوعی در طول انتخابات برای تاثیرگذاری بر افکار عمومی به اوج خود رسید و تحلیلگران، به روسیه نیز اتهام وارد کردند که برای کم‌رنگ کردن تاثیر تحریم‌ها، داده‌های اقتصادی را دستکاری می‌کند.

83

هوش مصنوعی فقط ابزار است

پس از اینکه ایلان ماسک، ثروتمند و سرمایه‌گذار آمریکایی در حوزه فناوری، ابزار هوش مصنوعی خود را با نام گراک (Grok AI) معرفی کرد، بسیاری از کاربرانی که در پلت‌فرم X فعالیت و حضور داشتند، تلاش کردند بخش زیادی از اطلاعات موجود در این پلت‌فرم را مورد راستی‌آزمایی قرار دهند. در دسترس بودن و میزان روبه‌رشد استفاده از ابزارهای همه‌کاره هوش مصنوعی همانند چت جی‌پی‌تی، Microsoft Copilot، جمینی و گراک ای‌آی باعث شده «بسیاری مردم باور پیدا کنند هوش مصنوعی آنقدر قابلیت‌های زیادی دارد که نه‌تنها ابزاری جذاب است، بلکه در همه زمینه‌ها بسیار بهتر از انسان‌ها هم عمل می‌کند». این موضوع را دکتر مهدی فیضی، عضو هیات علمی گروه اقتصاد دانشگاه فردوسی مشهد مطرح می‌کند. این اقتصاددان در کنار اینکه اعتقاد دارد «باید به مردم آموزش داده شود که هوش مصنوعی ابزاری کاربردی و ماشینی قدرتمند است که در زمینه‌هایی نسبت به انسان برتری دارد»، تاکید می‌کند، «نکته مهم این است که ابزارهای هوش مصنوعی، به‌شدت مستعد خطا هستند و نمی‌توان به آنها استناد کرد؛ بلکه فقط می‌توان از آنها به‌عنوان دستیار و ابزاری که در کنار انسان حضور دارد، استفاده کرد و از آنها کمک گرفت؛ درست است که بسیاری از ابزارهای هوش مصنوعی در ماه‌های گذشته به سمت استدلال پیش رفته‌اند و به اصطلاح، جعبه سیاه خود را باز کرده‌اند و به توضیح منطق قرارگرفته در پشت پاسخشان می‌پردازند، اما به شکل کلاسیک، مهم است که در نظر بگیریم هوش مصنوعی فقط ابزاری است که کاربردها و توانمندی‌های خاص خود و در کنار آن، باگ‌ها و خلأهای خودش را دارد که باعث اشتباه‌های سیستماتیک می‌شود». آن‌گونه که دکتر مهدی فیضی می‌گوید، «ما انسان‌ها نیز در ساختارهای تصمیم‌گیری خود اشتباه‌های سیستماتیک و سوگیری‌های نظام‌مند داریم؛ نه هوش مصنوعی و نه هوش انسانی، هیچ‌یک مطلق نیستند و همواره باید مورد بررسی قرار گیرند و مواردی که مطرح می‌کنند، در ترازوی سنجش، ارزیابی شود؛ بنابراین اهمیت دارد بدانیم اطلاعات ارائه‌شده از سوی هوش مصنوعی را نباید به‌عنوان منبع علمی قابل اعتماد که همه موضوع‌ها را مدنظر و به شکل دقیق مورد استناد قرار داده در نظر گرفت». این اقتصاددان در پاسخ به اینکه «آیا می‌توان به هوش مصنوعی استناد کرد؟» تاکید می‌کند: «هوش مصنوعی، به هیچ عنوان قابل استناد نیست؛ کمااینکه «ویکی‌پدیا» به‌عنوان یک دانشنامه آزاد هم قابل استناد نیست؛ البته به‌عنوان منبع علمی، ویکی‌پدیا بیشتر از ابزارهای هوش مصنوعی قابل استناد است؛ چرا که ویکی‌پدیا، براساس سلسله‌مراتب نظارتی، مورد پایش قرار می‌گیرد و انسان‌ها می‌توانند نظارت کنند که اگر اطلاعات نادرست باشد، مورد اصلاح قرار بگیرد؛ هوش مصنوعی از اساس این فرآیند را ندارد و به‌شدت و بسیار بیشتر، مستعد خطاست. اگر مقاله‌ای بنویسید و در آن موضوعی را مطرح کنید و استنادتان این باشد که هوش مصنوعی آن را ارائه کرده، روند اشتباهی را طی کرده‌اید. ما می‌توانیم ادعایی را بر مبنای طرح موضوع از سوی یک روزنامه، یک مجله یا یک کتاب مطرح کنیم، اما اینکه بگوییم موضوعی را مطرح می‌کنیم چرا که هوش مصنوعی آن را مطرح کرده، اشتباه است.»

84

اخلاق و حقوق در خطر است

پژوهشگران، هوش مصنوعی را به‌عنوان ابزاری که بتواند حد نهایی و مطلق اطلاعات و استدلال‌ها را برای مخاطبان ارائه کند، قبول ندارند. به باور آنها و از جمله دکتر مهدی فیضی، هوش مصنوعی مخاطره‌های جدی از نظر اخلاقی و حقوقی دارد: «اگر فردی از هوش مصنوعی مشاوره پزشکی یا روان‌شناسی بگیرد، ممکن است مواردی که مطرح می‌شود با خطا روبه‌رو باشد و احتمال دارد آن فرد دچار بیماری و اختلالی شود که روند درمان را در مسیر اشتباهی هدایت کند؛ یا در سطحی دیگر، اگر فردی بر مبنای اطلاعات مطرح‌شده از طریق هوش مصنوعی، سرمایه‌گذاری اشتباهی انجام دهد، چگونه می‌توان آن روند را تصحیح کرد؟ بر همین اساس، تنظیم‌گری موضوع مهمی است که باید مورد توجه قرار گیرد که این مخاطرات کاهش یابد. در مخاطرات هوش مصنوعی، نوعی از شکست بازار اتفاق می‌افتد که نظام حکمرانی باید در آن مداخله کند و قواعدی را در نظر بگیرد. موضوع مهمی که در حوزه هوش مصنوعی مطرح می‌شود، حقوق مالکیت معنوی است؛ در کشورهای اروپایی، تلاش‌های زیادی انجام شده تا حقوق مالکیت معنوی در ابزارهای هوش مصنوعی به صورت قاعده‌مند درآید. اما در ایران، فعالیتی در این ارتباط صورت نگرفته است.» این اقتصاددان یک مثال جذاب از آنچه این روزها در فضای ابزارهای هوش مصنوعی می‌گذرد نیز ارائه می‌کند: «در موضوع انیمه‌ها (سبکی از طراحی با دست و پویانمایی رایانه‌ای (انیمیشن) است که خاستگاه آن ژاپن بوده و معمولاً بر مبنای رمان گرافیکی، رمان راحت‌خوان یا بازی‌های ویدئویی ساخته می‌شود) از طریق هوش مصنوعی که به‌شدت مورد استقبال قرار گرفته، موضوع کپی‌رایت، نگران‌کننده است؛ در آینده نزدیک، ممکن است اقدام مشابهی با نقاشی‌های کمال‌الملک صورت گیرد؛ برای مثال، عکسی در اختیار هوش مصنوعی قرار می‌دهم و می‌گویم این عکس را همانند نقاشی‌های کمال‌الملک (نقاش ایرانی با نام اصلی محمد غفاری) یا هر نقاش دیگری به تصویر بکش؛ یا در سطح دیگری، صدایی از خودم در اختیار هوش مصنوعی قرار می‌دهم و می‌گویم این صدا را به صدای محسن چاووشی (خواننده و آهنگساز ایرانی) تغییر بده؛ در این شرایط، موضوع کپی‌رایت چه می‌شود؟ آن هنرمند، خواننده، نقاش یا نویسنده، چه حقوقی دارد؟ این موارد باید مدنظر قرار گیرد که منافع هنری آن افراد نیز تضییع نشود؛ چنین مواردی را هنوز در ایران در نظر نگرفته‌ایم؛ حتی به آن فکر هم نکرده‌ایم.»

85

سواد هوش مصنوعی را جدی بگیریم

با ظهور ابزارهای مختلف هوش مصنوعی در جهان، «سواد هوش مصنوعی» نیز اهمیت زیادی دارد. بسیاری از تحلیلگران، سواد هوش مصنوعی را به اندازه سواد رسانه‌ای حیاتی می‌دانند. سواد رسانه‌ای بر درک و ارزیابی انتقادی محتوایی که مصرف می‌کنیم، همانند اخبار، تبلیغات یا رسانه‌های اجتماعی تمرکز دارد. این نوع سواد، افراد را به تشخیص حقیقت، تشخیص تعصب و اجتناب از باور کردن اطلاعات نادرست ترغیب می‌کند. این مهارت، در عصر رسانه‌های فراگیر، مهارت اساسی به شمار می‌رود. در مقابل، سواد هوش مصنوعی بر درک فناوری‌های هوش مصنوعی و تاثیر آنها بر فرآیندهای تصمیم‌گیری در زمینه‌های شخصی، حرفه‌ای و اجتماعی تاکید دارد. این نوع سواد شامل دانش برنامه‌های کاربردی هوش مصنوعی، محدودیت‌ها، ملاحظه‌های اخلاقی و نقش آن در شکل دادن به محتوا و توصیه‌ها می‌شود. همان‌طور که هوش مصنوعی در ابزارهای روزمره، از موتورهای جست‌وجو گرفته تا سیستم‌های مالی، کاربرد پیدا کرده، سواد هوش مصنوعی به افراد کمک می‌کند تصمیم‌های آگاهانه بگیرند و ارزیابی کنند آیا نتایج ارائه‌شده از سوی هوش مصنوعی منصفانه و قابل اعتماد است یا خیر؟ دکتر مهدی فیضی، عضو هیات علمی گروه اقتصاد دانشگاه فردوسی مشهد، در این‌باره اعتقاد دارد که باید یاد بگیریم هرچه هوش مصنوعی گفت، را قابل استناد ندانیم: «سواد استفاده از هوش مصنوعی هم ظرافت‌هایی دارد؛ یکی از جنبه‌های این سواد، شیوه پرسش از ابزارهای هوش مصنوعی است؛ اینکه ما بدانیم چه چیزی را نمی‌دانیم و فقط درباره آن به درستی بپرسیم، اهمیت فراوانی دارد؛ زمانی که ما پرسشی را به صورت اشتباه از هوش مصنوعی مطرح کنیم، پاسخ اشتباهی هم از آن دریافت خواهیم کرد و طبیعی است که در جهل مرکب (جهل شخص غیرآگاه به جهل خویش) خود باقی خواهیم ماند؛ در چنین شرایطی است که هنر درست پرسیدن و مهارت مهندسی پرسش، اهمیت پیدا می‌کند.» این اقتصاددان می‌گوید، احتمال دارد اطلاعات را به گونه‌ای دستکاری کرد که هوش مصنوعی در ارائه آن دچار اشتباه شود: «این جنبه، بخشی از سوگیری تایید است؛ داستان از آنجا شروع می‌شود که ما نوعی پیش‌داوری درباره جهان داریم و آن پیش‌داوری باعث می‌شود جهان را همان‌گونه که باور داریم، ببینیم و بکوشیم آن پیش‌داوری را تایید کنیم؛ بر اساس سوگیری تایید، اگر پیش‌داوری اولیه نادرست باشد، به دنبال ابطال آن نمی‌رویم و به جای اینکه به دنبال کشف جهان باشیم، به دنبال تایید پیش‌داوری خودمان حرکت می‌کنیم و این اتفاق سبب می‌شود برداشت نادرست اولیه، تقویت شود. در هوش مصنوعی هم ممکن است این اتفاق رخ دهد. اگر من باور اشتباهی درباره ایران داشته باشم، این باور را به هوش مصنوعی القا کنم و به شکلی از آن سوال بپرسم که در تایید باور من صحبت کند، هوش مصنوعی اطلاعات اشتباه به من خواهد داد؛ این در حالی است که باور اولیه ما درست نبوده و در نتیجه، انتقال این باور به هوش مصنوعی به صورت نادرست و سوگیرانه انجام شده است. در علوم کامپیوتر اصطلاحی داریم که براساس آن، گفته می‌شود در صورتی که داده‌های ورودی، داده‌های به‌درد‌نخوری مثل زباله باشد، به شکل طبیعی، خروجی به‌دردنخوری هم دریافت خواهیم کرد. هوش مصنوعی یک ابزار است که اگر اطلاعات نادرست و سوگیرانه داشته باشد، خروجی‌های صحیحی هم ارائه نمی‌دهد. البته حواسمان باشد، حتی اگر اطلاعات ورودی آن هم درست باشد، ممکن است همچنان نتوانیم اطلاعات صحیحی دریافت کنیم.» به گفته دکتر فیضی، باید به نقش‌هایی که ما انسان‌ها به هوش مصنوعی محول می‌کنیم، هم توجه کنیم: «نکته دیگری که در هوش مصنوعی اهمیت دارد، این است که چه نقشی به هوش مصنوعی می‌دهیم؟ هر نقشی که بدهیم، در پاسخی که به ما می‌دهد، تاثیر می‌گذارد. برای مثال، اگر بخواهید هوش مصنوعی از زاویه یک تحلیلگر دانشگاهی وضع اقتصادی ایران را توضیح دهد، یا از زاویه یک فعال بازار به موضوع نگاه کند، در صورتی که ورودی‌های شما یکسان باشد، پاسخ‌هایی که ارائه می‌دهد، تفاوت خواهد کرد. بنابراین، هم شیوه تعامل ما با چت‌بات‌های هوش مصنوعی مهم است و هم نقشی که به آن می‌دهیم، اهمیت دارد.» 

دراین پرونده بخوانید ...