هوش وابسته
هوش مصنوعی چگونه در خدمت ذینفعان قرار میگیرد؟
«ورودی بد، خروجی بد» پدیده این روزهای استفاده از چتباتهای هوش مصنوعی در سراسر جهان است. با افزایش استفاده از هوش مصنوعی، برخی افراد و جریانها تلاش میکنند با پرسشهای سوگیرانه، روی پاسخهایی که از سوی ابزارهای هوش مصنوعی ارائه میشود، تاثیر بگذارند. یکی از اصلیترین دلایل بروز این پدیده، وابستگی پاسخ الگوهای زبانی بزرگ (Large Language Models) به شیوه پرسشی است که در برابر آنها قرار میگیرد. انگیزههای انسانی نیز در این میان دخیل است. افراد یا گروههایی که منافع خاص سیاسی، اقتصادی یا اجتماعی دارند، تلاش میکنند روایتهای برساخته خود را از واقعیتها رواج دهند که افکار عمومی به سمتوسوی مشخصی هدایت شود. در کمپینهای تبلیغاتی و سیاسی، گاهی دادههای گزینشی یا تحریفشده به الگوهای تحلیلی وارد میشود که نتایج دلخواه به دست آید. این اتفاق باعث میشود تصمیمگیریها یا برداشتهای مردم تحت تاثیر قرار گیرد.
سرچشمه اطلاعات هوش مصنوعی
هوش مصنوعی در قالب نوعی نظام پیچیده تشکیلیافته از الگوریتمها و الگوهایی عمل میکند که برای تقلید از جنبههای شناخت انسان، همانند یادگیری، استدلال و تصمیمگیری طراحی شدهاند. این نوع از فناوری، در هسته مرکزی خود، دادهها را جمعآوری، پردازش و تحلیل میکند تا پاسخها یا پیشبینیهای آگاهانهتری تولید کند. در این فرآیند عملکردی، سه بخش اصلی وجود دارد؛ نخست، چگونگی جمعآوری اطلاعات به وسیله هوش مصنوعی، دوم، سازوکارهایی که اطلاعات در آنها کنار هم قرار میگیرد و البته استدلالهای لازم درباره این دادهها انجام میشود و در نهایت، بستری که متداولترین نوع اطلاعات برای ارائه پاسخهای لازم مورد استفاده قرار میگیرد. اصلیترین موضوعی که باید به آن پرداخته شود، این است که هوش مصنوعی چگونه اطلاعات را جمعآوری میکند؟ نظامهای هوش مصنوعی، بسته به هدفی که برای آن طراحی و تولید شدهاند، اطلاعات را از طریق راههای گوناگون به دست میآورند. نخستین روش کلیدی جمعآوری دادهها از طریق هوش مصنوعی، ورودی دادهها و حسگرهاست؛ در این روش، هوش مصنوعی به حسگرها یا دستگاههای ورودی برای جمعآوری دادههای خام تکیه میکند. تصاویر و ویدئوها، متنها، صداها و حسگرها در این دسته جای میگیرند. برای مثال، سیستمهای هوش مصنوعی برای فعالیتهایی همانند تشخیص تصویر یا اشیا، دادههای بصری دوربینها را پردازش میکنند. همچنین، الگوهای زبانی هوش مصنوعی، به منابع وسیع و گستردهای از محتوای نوشتاری مثل کتابها، مقالهها و محتوای تولیدشده از سوی کاربران متصل هستند و دادههای خود را از آنها جمعآوری میکنند. دومین روش جمعآوری اطلاعات به وسیله هوش مصنوعی، Web Scrapingها، وبسایتها یا پایگاههای داده (استخراج مجموعه دادههای بزرگ از منابع آنلاین) و APIها (رابطهای برنامهنویسی کاربردی) هستند. رابطهای برنامهنویسی کاربردی، موجب تسهیل تبادل دادههای ساختاریافته میان سیستمهای هوش مصنوعی و سایر نرمافزارها میشوند. سومین روش کلیدی، جمعآوری اطلاعات از طریق هوش مصنوعی، تعامل و بازخورد کاربران است. در این روش، سیستمهایی همانند روباتهای گفتوگو یا موتورهای توصیهکننده، دادهها را به شکل مستقیم از تعاملات کاربران جمعآوری میکنند. برای توضیح سادهتر، یک برنامه پخش موسیقی را در نظر بگیرید. این برنامه، تمایلات و علاقهمندیهای کاربر را از طریق آهنگهای نادیده گرفتهشده یا آهنگهای چندبار شنیدهشده و مورد پسند واقعشده، یاد میگیرد. بنابراین، در فهرست پیشنهادهای موسیقی، آهنگهایی را توصیه میکند که در همان قالبهای مورد علاقه کاربر قرار دارند. در سوی دیگر، هوش مصنوعی مبتنی بر چت، پرسشها و پاسخها را جمعآوری و ذخیره میکند که آنها را در پاسخهای آینده لحاظ کند. تازهترین روش کلیدی که هوش مصنوعی به جمعآوری اطلاعات میپردازد، مجموعه دادههای از پیش جمعآوری و مدیریتشده است. در این روش، مجموعه دادهها از قبل برای آموزش هوش مصنوعی آماده شده و در اختیار آن قرار گرفتهاند. برای مثال، Kaggle؛ پلتفرمهای داده عمومی برای علوم داده و آموزش الگوهای هوش مصنوعی، ImageNet؛ پایگاه داده برای آموزش مدلهای تشخیص تصویر و Common Crawl؛ مجموعه دادهای حاوی متن است که ابزارهای هوش مصنوعی را تغذیه میکنند.
استدلال، نقطه ابهام بزرگ
روشهای پردازش و استدلال درباره اطلاعات که از سوی ابزارهای مختلف هوش مصنوعی به کار گرفته میشود، موضوع مهمی است که همچنان درباره آن ابهام وجود دارد. نکته اینجاست، زمانی که دادهها جمعآوری میشوند، هوش مصنوعی مراحل زیادی را برای درک این اطلاعات پشت سر میگذارد. در درجه نخست، پیشپردازشها انجام میشوند. دادههای خام، همواره اختلالهایی دارند و البته بسیار ناقص هستند. بنابراین، مرحله پیشپردازش، فرآیندهایی همانند پاکسازی اطلاعات به روش حذف خطاها یا ناسازگاری در دادهها، عادیسازی به وسیله تنظیم مقادیر دادهها برای قرار گرفتن در محدوده استانداردشده و در نهایت، استخراج ویژگی با استفاده از شناسایی ویژگیهای مهم را در خود جای داده است. پس از آن، نوبت به تشخیص الگو از طریق الگوریتمها میرسد. قدرت هوش مصنوعی در شناخت الگوها پنهان شده است. روشهای رایج تشخیص الگو، در دستههای مختلفی همانند یادگیری نظارتشده، یادگیری بدون نظارت و یادگیری تقویتی جای میگیرند. در یادگیری نظارتشده، هوش مصنوعی با مجموعه دادههای برچسبگذاریشده (برای مثال، تصاویر برچسبگذاریشده از گربهها و سگها) آموزش میبیند و این دانش را در دادههای جدید به کار میگیرد. یا در کنار آن، در یادگیری تقویتی، ابزارهای هوش مصنوعی یاد میگیرند که با دریافت بازخوردهای مثبت یا منفی درباره اطلاعات ارائهشده، تصمیمگیری کنند که این اطلاعات را مورد استفاده قرار بدهند یا دیگر از آن استفاده نکنند. یکپارچهسازی دادهها، مرحله بعدی است که طی آن، هوش مصنوعی انواع دادههای مختلف را برای ایجاد درک منسجم با یکدیگر ادغام میکند. برای مثال، یک خودرو خودران، دادههای بصری دریافتشده از دوربین، دادههای مکانی و معیارهای سرعت را برای حرکت ترکیب میکند. سپس، نوبت به شبکههای عصبی و یادگیری عمیق میرسد. در این مرحله، هوش مصنوعی برای استدلال پیچیده از شبکههای عصبی مدلسازیشده از مغز انسان استفاده میکند. در این روش، دادههای خام وارد شبکه میشود، سپس لایههای پنهان، محاسباتی را برای استخراج الگوها و ارتباطات آنها با یکدیگر انجام میدهند و در نهایت، پیشبینیها یا تصمیمهای نهایی در لایه خروجی تولید میشوند. با در نظر گرفتن این مراحل، به این نتیجه میرسیم که استدلال توسط هوش مصنوعی، از طریق سازوکارهای مشخصی صورت میگیرد. ابزارهای هوش مصنوعی برای استدلال صحیح به مواردی همانند سیستمهای مبتنی بر قانون، روشهای آماری و مدلهای مولد تکیه میکنند. برای مثال، در روش آماری، استنتاج احتمالی بر اساس الگوها انجام میشود و مدلهای مولد نیز با ایجاد محتوا یا فرضیههای جدید، حالتهای مختلف استدلال را مدنظر قرار میدهند. در چنین شرایطی، حلقههای بازخورد بهعنوان آخرین مرحله استدلال، به کمک ابزارهای هوش مصنوعی میآید که عملکرد خود را تقویت کنند. سیستمهای هوش مصنوعی بهطور مداوم از طریق بازخورد بهبود مییابند. در این فرآیندها، سیگنالهای تقویتی، عملکرد هوش مصنوعی را در فعالیتهایی همانند بازیها بهبود میبخشند یا ارزیابیهای انسانی، به اصلاح سیستمهای هوش مصنوعی مکالمهای کمک میکنند. گستردگی کار ابزارهای هوش مصنوعی در استدلال، زمانی مشخص میشود که بدانیم اطلاعات مورد استفاده در پاسخهای هوش مصنوعی در سطح گستردهای جمعآوری میشوند. دقت و ارتباط پاسخهای هوش مصنوعی، به کیفیت دادههای زیربنایی آن بستگی دارد.
دستکاری اطلاعات هوش مصنوعی؟
درست است که سیستمهای هوش مصنوعی ابزارهای قدرتمندی هستند که برای عملکرد موثر به میزان زیادی داده تکیه دارند، اما در مقابل، وابستگی آنها به دادهها باعث میشود در برابر دستکاری افراد یا سازمانهایی که به اطلاعات سازمانیافته دسترسی دارند، آسیبپذیر باشند. این پدیده که بهعنوان «مسمومیت دادهها» یا «دستکاری مدلها» نامیده میشود، میتواند خروجیهای سیستمهای هوش مصنوعی را مخدوش کند و به ارائه نتایج مغرضانه، گمراهکننده یا مضر منجر شود. اما چه فرآیندهایی طی میشود که سیستمهای هوش مصنوعی، مورد دستکاری اطلاعاتی قرار میگیرند؟ سیستمهای هوش مصنوعی با استفاده از مجموعه دادههایی که بهعنوان پایهای برای فرآیندهای تصمیمگیری آنها عمل میکنند، آموزش دیدهاند. اگر این مجموعه دادهها به صورت عمدی دستکاری شوند، خروجیهای هوش مصنوعی منحرف خواهند شد. یکی از روشهای دستکاری اطلاعات برای ارائه نتایج هدفمند از طریق هوش مصنوعی، مسمومیت دادههاست. مسمومیت داده شامل معرفی دادههای مخرب یا گمراهکننده به مجموعه دادههای آموزشی سیستم هوش مصنوعی است. این اقدام میتواند در مرحله آموزش اولیه یا از طریق فرآیندهای یادگیری مداوم رخ دهد. برخی از این مسمومیتها، هدفمند هستند. در این ارتباط، نقاط داده خاص برای ایجاد خطا در سناریوهای خاص تغییر میکنند. چنین روشی در سیستمهای تشخیص چهره بسیار دیده میشود؛ در این اقدام، ممکن است مهاجمان تصاویری را ارائه کنند که برای شناسایی اشتباه افراد طراحی شدهاند. همچنین، در روش دیگری، توزیعکنندگان اطلاعات وب، محرکهای مخفی را در دادههای آموزشی پنهان میکنند که باعث میشود هوش مصنوعی در صورت برآورده شدن شرایط خاص، رفتار غیرعادی از خود نشان دهد. بهرهبرداری الگوریتمی، روش دیگری است که با استفاده از آن، افراد حتی بدون تغییر دادههای آموزشی، میتوانند از الگوریتمها بهرهبرداری کنند. برای مثال، در الگوهای مبتنی بر متن هوش مصنوعی، نوع پرسشها یا اطلاعات ورودی ارائهشده، هوش مصنوعی را برای ایجاد پاسخهای خاص دستکاری میکنند. همچنین، تغییرات ظریف در دادههای ورودی میتواند سیستمهای هوش مصنوعی را گیج کند و به ارائه خروجیهای نادرست منجر شود. همچنین، سازمانهایی که به اطلاعات سازمانیافته دسترسی دارند، میتوانند دادههای مغرضانهای را بهعنوان ورودی استفاده کنند که روایتها یا دیدگاههای خاصی را تقویت میکند. این اتفاق بهویژه در زمینههایی که اخبار زیادی از یک موضوع خاص منتشر میشود، بسیار نگرانکننده است. در چنین شرایطی، مجموعه دادههای مغرضانه میتوانند باعث انتشار اطلاعات نادرست شوند. بنابراین، سیستمهای هوش مصنوعی که به دادههای مختلف و البته بهروز مثل ابزارهای نظارت بر رسانههای اجتماعی اتکا دارند، تحت تاثیر کمپینهای هماهنگ قرار میگیرند. نکته مهم اینجاست که دستکاری سیستمهای هوش مصنوعی پیامدهای گستردهای خواهد داشت. از جمله این پیامدها میتوان به از بین رفتن اعتماد عمومی به فناوری، ایجاد زیانهای اقتصادی، ایجاد شکافهای اجتماعی ناشی از انتشار اطلاعات نادرست و بروز خطرات امنیتی اشاره کرد. دستکاری دادهها برای فریب دادن یا گمراه کردن، نقض اصول صداقت و شفافیت است که باید در استفاده از فناوری رعایت شود. با این حال، از منظر عملی، این کار به دلیل ضعفهای موجود در نظارت بر دادهها و پیچیدگی تشخیص دستکاری، همچنان رخ میدهد.
نمونههایی از دستکاری اطلاعات در جهان
نمونههای بسیار زیادی از دستکاری اطلاعات هوش مصنوعی در سطح جهان رخ داده که مثالهای جالبی از عملکرد غیرقابل اعتماد ابزارهای مختلف فناوری، ترند این روزهای جهان به شمار میرود. نشت دادههای سامسونگ از طریق چت جیپیتی (ChatGPT) که سال 2023 در کره جنوبی رخ داد، یکی از اصلیترین رخدادهای این حوزه محسوب میشود. در این اتفاق، کارمندان سامسونگ بهطور ناخواسته اطلاعات محرمانه را با استفاده از ChatGPT برای بررسی کدها و اسناد داخلی فاش کردند. اگرچه این حادثه یک دستکاری عمدی نبود، اما بر خطرات استفاده از هوش مصنوعی نظارتنشده، تاکید کرد. همچنین، در سال 2023 میلادی، چتبات مبتنی بر هوش مصنوعی یکی از نمایندگیهای شورولت در ایالاتمتحده آمریکا، با دریافت اطلاعات نادرست و دستکاریشده، فریب خورد و یک وسیله نقلیه 76 هزاردلاری را فقط با قیمت یک دلار به خریدار عرضه کرد. این اتفاق نشان داد چگونه مهندسی پرسش یا حرفه پرسشپردازی (Prompt Engineering)، بهعنوان فرآیندی برای استفاده کارآمدتر و اثربخشتر از هوش مصنوعی، میتواند از سیستمهای هوش مصنوعی سوءاستفاده کند. یکی از عمیقترین اتفاقهایی که در این زمینه روی داد، مسمومیت دادهها در سیستمهای هوش مصنوعی مالی جهانی بود که طی آن، مهاجمان با ارائه دادههای نادرست برای دستکاری پیشبینیهای بازار، سیستمهای هوش مصنوعی مالی را هدف قرار دادند که در مواردی باعث بروز اختلالهای اقتصادی بسیار زیادی شد. این حملات از ماهیت دادهمحور سیستمهای هوش مصنوعی مالی سوءاستفاده میکنند که برای فعالیتهایی همانند تجارت الگوریتمی، تشخیص تقلب و امتیازدهی اعتباری استفاده میشود. مهاجمان با ایجاد اختلال در مجموعه دادههای استفادهشده در طول آموزش هوش مصنوعی، میتوانند پیشبینیها را تحریف کنند و با ارائه مولفههای ناقص تصمیمگیری، باعث بروز اختلالهای اقتصادی شوند. رسانههای اجتماعی نیز از دستکاری اطلاعات در امان نیستند. در این زمینه میتوان به رقابتهای انتخاباتی اشاره کرد که روباتها برای تاثیرگذاری بر افکار عمومی، محتوای هواداری حزبی را در رسانههای اجتماعی مختلف توزیع میکنند. دستکاری محتوایی رسانههای اجتماعی، نوعی استراتژی عمدی است که برای تاثیرگذاری بر ابزارهای تحلیل احساسها مبتنی بر هوش مصنوعی، با هدف شکل دادن به افکار عمومی یا تحریف ادراکات استفاده میشود. برای مثال در زمان انتخابات، روباتها ممکن است پیامهای هواداری ارسال کنند، به تقویت هشتگها بپردازند یا در بحثهایی حضور پیدا کنند که احساسهای اجتماعی را به نفع یک نامزد یا ایدئولوژی خاص تغییر دهد. این کمپینها توهم حمایت یا مخالفت گسترده را ایجاد میکنند و سیستمهای هوش مصنوعی را فریب میدهند که این احساسها را واقعیتر کنند. همچنین، اطلاعات نادرست یا گمراهکننده برای شکل دادن به روایتها منتشر میشود. سیستمهای هوش مصنوعی که احساسهای خبری را تجزیهوتحلیل میکنند، ممکن است بهطور ناخواسته این روایتها را تقویت و درک عمومی را خدشهدار کنند. در نتیجه، افکار عمومی تحریف میشوند، اعتماد عمومی در اثر مهندسی شدن احساسها از بین میرود و شکافهای اجتماعی و سیاسی شکل میگیرند.
اقتصاد ایران، هدف جدید دستکاری اطلاعات
دستکاری دادههای اقتصادی با استفاده از هوش مصنوعی بهعنوان دغدغه مهم، ایران را نیز تحت تاثیر قرار داده است. در ماههای گذشته، ادعاها و نشانههایی مبنی بر اینکه گروههای ذینفع اعم از داخلی و بینالمللی سعی در تحریف دادههای اقتصادی ایران داشتهاند، به چشم میخورد. این دستکاریهای دادهای براساس موارد متعددی انجام شده است. ارقام تورم و تولید ناخالص داخلی، یکی از این موارد به شمار میرود. در بیشتر مواقع، گزارشهای رسمی نرخهای تورم و ارقام رشد تولید ناخالص داخلی را در سطح و اندازهای ارائه میدهند که به شکل محسوسی با تحلیلهای مستقل تفاوت دارد. برای مثال، در حالی که دولت ممکن است متوسط تورم را 58 /44 درصد گزارش کند، منابع خارجی میگویند که این رقم میتواند تا 70 درصد ثبت شده باشد. یا در بخشی دیگر، با وجود ادعای رشد بسیار زیاد تولید انرژی، ایران با کمبود شدید انرژی، خاموشیهای زیاد و عملکرد ضعیف پالایشگاهها روبهرو بوده است. این اختلافات آماری و عملکردی، حکایت از دستکاری بالقوه دادهها و اطلاعات برای ارائه تصویری مطلوب از اقتصاد ایران دارد. در اعلام آمار رسمی اشتغال نیز وضع پیچیده دیگری وجود دارد. رقمهای رسمی که از میزان اشتغال در کشور ارائه میشوند، همواره شرایط مطلوبتری را نسبت به آنچه در جامعه وجود دارد، ترسیم میکنند. در حالی که دولت نرخ مشارکت نیروی کار را به سازمان بینالمللی توسعه و همکاریهای اقتصادی ارائه میکند، اما تحلیلهای مستقل نشان میدهند که نرخ اشتغال پایینتری در سطح جامعه وجود دارد. در این ارتباط، میتوان به کمپینهای رسانههای اجتماعی نیز اشاره کرد؛ جایی که تلاشهای هماهنگ در پلتفرمهایی همانند X و تلگرام برای تقویت روایتها در مورد ثبات یا بیثباتی اقتصادی انجام میشود که در نهایت بر ادراکات داخلی و بینالمللی تاثیر میگذارد. با ارائه چنین مثالهایی، این پرسش شکل میگیرد که چه انگیزههایی در پس روایتهای مثبت اقتصادی وجود دارد که سبب میشود آمارها و دادهها دستکاری شوند و تحلیلهای هوش مصنوعی را با اختلال و اشتباه روبهرو کنند؟ پاسخ اینجاست که اهداف سیاسی مختلف باعث ایجاد انگیزههایی در راستای مثبت نشان دادن وضع اقتصادی با استفاده از هوش مصنوعی میشود. در یکی از این انگیزهها، دولتها میتوانند با پیشبینی ثبات و رشد اقتصاد، به دنبال مقابله با انتقادها از عملکرد اقتصادی خود باشند؛ در کنار آن، از روایتهای مختلف برای حفظ روحیه عمومی و جلوگیری از ناآرامیهای اجتماعی در شرایط سخت اقتصادی استفاده کنند. جذب سرمایهگذاری، هدف دیگری است که گاهی باعث میشود دولتها در کشورهای مختلف، به دستکاری اطلاعات اقتصادی و توزیع گسترده آن در فضای وب و پایگاههای داده هوش مصنوعی روی بیاورند. در کنار آن، از این روایتهای مثبت اقتصادی میتوان برای تضعیف انتقاد مخالفان سیاسی یا نهادهای خارجی استفاده کرد. نکته مهمتر این است که دستکاری دادههای اقتصادی، پیامدهایی دارد که اصل اقتصاد کشور را تحت تاثیر قرار میدهد. دادههای اشتباه و تحریفشده، در کنار از بین بردن اعتماد، میتواند اشتباهات سیاستگذاری را نیز رقم بزند. سیاستگذارانی که بر دادههای دستکاریشده تکیه میکنند، در ادامه، سیاستهای ناقصی را اجرا میکنند که باعث تشدید چالشهای اقتصادی میشود. همچنین در شرایطی که چنین مشکلی ایجاد میشود، سرمایهگذاران و کسبوکارها براساس دادههای نادرست تصمیم میگیرند که بیثباتی بازار را به دنبال خواهد داشت. از اینکه بگذریم، دادههای اقتصادی نادرست میتواند بر افکار عمومی تاثیر بگذارد و بهطور بالقوه به ناآرامی یا حتی تغییر در قدرت سیاسی منجر شود. البته، ایران در رویارویی با چالشهای دستکاری دادههای اقتصادی تنها نیست؛ در سطح جهانی نیز، کشورهایی همانند چین، ایالاتمتحده و روسیه با چنین اقدامهایی تلاش میکنند تصویر مطلوبی از اقتصاد خود به نمایش بگذارند. در چین، ادعاهایی مبنی بر افزایش ارقام تولید ناخالص داخلی برای پیشبینی قدرت اقتصادی مطرح شده است. همچنین در ایالاتمتحده نیز نگرانی در مورد استفاده از ابزارهای تجزیهوتحلیل احساسها مبتنی بر هوش مصنوعی در طول انتخابات برای تاثیرگذاری بر افکار عمومی به اوج خود رسید و تحلیلگران، به روسیه نیز اتهام وارد کردند که برای کمرنگ کردن تاثیر تحریمها، دادههای اقتصادی را دستکاری میکند.
هوش مصنوعی فقط ابزار است
پس از اینکه ایلان ماسک، ثروتمند و سرمایهگذار آمریکایی در حوزه فناوری، ابزار هوش مصنوعی خود را با نام گراک (Grok AI) معرفی کرد، بسیاری از کاربرانی که در پلتفرم X فعالیت و حضور داشتند، تلاش کردند بخش زیادی از اطلاعات موجود در این پلتفرم را مورد راستیآزمایی قرار دهند. در دسترس بودن و میزان روبهرشد استفاده از ابزارهای همهکاره هوش مصنوعی همانند چت جیپیتی، Microsoft Copilot، جمینی و گراک ایآی باعث شده «بسیاری مردم باور پیدا کنند هوش مصنوعی آنقدر قابلیتهای زیادی دارد که نهتنها ابزاری جذاب است، بلکه در همه زمینهها بسیار بهتر از انسانها هم عمل میکند». این موضوع را دکتر مهدی فیضی، عضو هیات علمی گروه اقتصاد دانشگاه فردوسی مشهد مطرح میکند. این اقتصاددان در کنار اینکه اعتقاد دارد «باید به مردم آموزش داده شود که هوش مصنوعی ابزاری کاربردی و ماشینی قدرتمند است که در زمینههایی نسبت به انسان برتری دارد»، تاکید میکند، «نکته مهم این است که ابزارهای هوش مصنوعی، بهشدت مستعد خطا هستند و نمیتوان به آنها استناد کرد؛ بلکه فقط میتوان از آنها بهعنوان دستیار و ابزاری که در کنار انسان حضور دارد، استفاده کرد و از آنها کمک گرفت؛ درست است که بسیاری از ابزارهای هوش مصنوعی در ماههای گذشته به سمت استدلال پیش رفتهاند و به اصطلاح، جعبه سیاه خود را باز کردهاند و به توضیح منطق قرارگرفته در پشت پاسخشان میپردازند، اما به شکل کلاسیک، مهم است که در نظر بگیریم هوش مصنوعی فقط ابزاری است که کاربردها و توانمندیهای خاص خود و در کنار آن، باگها و خلأهای خودش را دارد که باعث اشتباههای سیستماتیک میشود». آنگونه که دکتر مهدی فیضی میگوید، «ما انسانها نیز در ساختارهای تصمیمگیری خود اشتباههای سیستماتیک و سوگیریهای نظاممند داریم؛ نه هوش مصنوعی و نه هوش انسانی، هیچیک مطلق نیستند و همواره باید مورد بررسی قرار گیرند و مواردی که مطرح میکنند، در ترازوی سنجش، ارزیابی شود؛ بنابراین اهمیت دارد بدانیم اطلاعات ارائهشده از سوی هوش مصنوعی را نباید بهعنوان منبع علمی قابل اعتماد که همه موضوعها را مدنظر و به شکل دقیق مورد استناد قرار داده در نظر گرفت». این اقتصاددان در پاسخ به اینکه «آیا میتوان به هوش مصنوعی استناد کرد؟» تاکید میکند: «هوش مصنوعی، به هیچ عنوان قابل استناد نیست؛ کمااینکه «ویکیپدیا» بهعنوان یک دانشنامه آزاد هم قابل استناد نیست؛ البته بهعنوان منبع علمی، ویکیپدیا بیشتر از ابزارهای هوش مصنوعی قابل استناد است؛ چرا که ویکیپدیا، براساس سلسلهمراتب نظارتی، مورد پایش قرار میگیرد و انسانها میتوانند نظارت کنند که اگر اطلاعات نادرست باشد، مورد اصلاح قرار بگیرد؛ هوش مصنوعی از اساس این فرآیند را ندارد و بهشدت و بسیار بیشتر، مستعد خطاست. اگر مقالهای بنویسید و در آن موضوعی را مطرح کنید و استنادتان این باشد که هوش مصنوعی آن را ارائه کرده، روند اشتباهی را طی کردهاید. ما میتوانیم ادعایی را بر مبنای طرح موضوع از سوی یک روزنامه، یک مجله یا یک کتاب مطرح کنیم، اما اینکه بگوییم موضوعی را مطرح میکنیم چرا که هوش مصنوعی آن را مطرح کرده، اشتباه است.»
اخلاق و حقوق در خطر است
پژوهشگران، هوش مصنوعی را بهعنوان ابزاری که بتواند حد نهایی و مطلق اطلاعات و استدلالها را برای مخاطبان ارائه کند، قبول ندارند. به باور آنها و از جمله دکتر مهدی فیضی، هوش مصنوعی مخاطرههای جدی از نظر اخلاقی و حقوقی دارد: «اگر فردی از هوش مصنوعی مشاوره پزشکی یا روانشناسی بگیرد، ممکن است مواردی که مطرح میشود با خطا روبهرو باشد و احتمال دارد آن فرد دچار بیماری و اختلالی شود که روند درمان را در مسیر اشتباهی هدایت کند؛ یا در سطحی دیگر، اگر فردی بر مبنای اطلاعات مطرحشده از طریق هوش مصنوعی، سرمایهگذاری اشتباهی انجام دهد، چگونه میتوان آن روند را تصحیح کرد؟ بر همین اساس، تنظیمگری موضوع مهمی است که باید مورد توجه قرار گیرد که این مخاطرات کاهش یابد. در مخاطرات هوش مصنوعی، نوعی از شکست بازار اتفاق میافتد که نظام حکمرانی باید در آن مداخله کند و قواعدی را در نظر بگیرد. موضوع مهمی که در حوزه هوش مصنوعی مطرح میشود، حقوق مالکیت معنوی است؛ در کشورهای اروپایی، تلاشهای زیادی انجام شده تا حقوق مالکیت معنوی در ابزارهای هوش مصنوعی به صورت قاعدهمند درآید. اما در ایران، فعالیتی در این ارتباط صورت نگرفته است.» این اقتصاددان یک مثال جذاب از آنچه این روزها در فضای ابزارهای هوش مصنوعی میگذرد نیز ارائه میکند: «در موضوع انیمهها (سبکی از طراحی با دست و پویانمایی رایانهای (انیمیشن) است که خاستگاه آن ژاپن بوده و معمولاً بر مبنای رمان گرافیکی، رمان راحتخوان یا بازیهای ویدئویی ساخته میشود) از طریق هوش مصنوعی که بهشدت مورد استقبال قرار گرفته، موضوع کپیرایت، نگرانکننده است؛ در آینده نزدیک، ممکن است اقدام مشابهی با نقاشیهای کمالالملک صورت گیرد؛ برای مثال، عکسی در اختیار هوش مصنوعی قرار میدهم و میگویم این عکس را همانند نقاشیهای کمالالملک (نقاش ایرانی با نام اصلی محمد غفاری) یا هر نقاش دیگری به تصویر بکش؛ یا در سطح دیگری، صدایی از خودم در اختیار هوش مصنوعی قرار میدهم و میگویم این صدا را به صدای محسن چاووشی (خواننده و آهنگساز ایرانی) تغییر بده؛ در این شرایط، موضوع کپیرایت چه میشود؟ آن هنرمند، خواننده، نقاش یا نویسنده، چه حقوقی دارد؟ این موارد باید مدنظر قرار گیرد که منافع هنری آن افراد نیز تضییع نشود؛ چنین مواردی را هنوز در ایران در نظر نگرفتهایم؛ حتی به آن فکر هم نکردهایم.»
سواد هوش مصنوعی را جدی بگیریم
با ظهور ابزارهای مختلف هوش مصنوعی در جهان، «سواد هوش مصنوعی» نیز اهمیت زیادی دارد. بسیاری از تحلیلگران، سواد هوش مصنوعی را به اندازه سواد رسانهای حیاتی میدانند. سواد رسانهای بر درک و ارزیابی انتقادی محتوایی که مصرف میکنیم، همانند اخبار، تبلیغات یا رسانههای اجتماعی تمرکز دارد. این نوع سواد، افراد را به تشخیص حقیقت، تشخیص تعصب و اجتناب از باور کردن اطلاعات نادرست ترغیب میکند. این مهارت، در عصر رسانههای فراگیر، مهارت اساسی به شمار میرود. در مقابل، سواد هوش مصنوعی بر درک فناوریهای هوش مصنوعی و تاثیر آنها بر فرآیندهای تصمیمگیری در زمینههای شخصی، حرفهای و اجتماعی تاکید دارد. این نوع سواد شامل دانش برنامههای کاربردی هوش مصنوعی، محدودیتها، ملاحظههای اخلاقی و نقش آن در شکل دادن به محتوا و توصیهها میشود. همانطور که هوش مصنوعی در ابزارهای روزمره، از موتورهای جستوجو گرفته تا سیستمهای مالی، کاربرد پیدا کرده، سواد هوش مصنوعی به افراد کمک میکند تصمیمهای آگاهانه بگیرند و ارزیابی کنند آیا نتایج ارائهشده از سوی هوش مصنوعی منصفانه و قابل اعتماد است یا خیر؟ دکتر مهدی فیضی، عضو هیات علمی گروه اقتصاد دانشگاه فردوسی مشهد، در اینباره اعتقاد دارد که باید یاد بگیریم هرچه هوش مصنوعی گفت، را قابل استناد ندانیم: «سواد استفاده از هوش مصنوعی هم ظرافتهایی دارد؛ یکی از جنبههای این سواد، شیوه پرسش از ابزارهای هوش مصنوعی است؛ اینکه ما بدانیم چه چیزی را نمیدانیم و فقط درباره آن به درستی بپرسیم، اهمیت فراوانی دارد؛ زمانی که ما پرسشی را به صورت اشتباه از هوش مصنوعی مطرح کنیم، پاسخ اشتباهی هم از آن دریافت خواهیم کرد و طبیعی است که در جهل مرکب (جهل شخص غیرآگاه به جهل خویش) خود باقی خواهیم ماند؛ در چنین شرایطی است که هنر درست پرسیدن و مهارت مهندسی پرسش، اهمیت پیدا میکند.» این اقتصاددان میگوید، احتمال دارد اطلاعات را به گونهای دستکاری کرد که هوش مصنوعی در ارائه آن دچار اشتباه شود: «این جنبه، بخشی از سوگیری تایید است؛ داستان از آنجا شروع میشود که ما نوعی پیشداوری درباره جهان داریم و آن پیشداوری باعث میشود جهان را همانگونه که باور داریم، ببینیم و بکوشیم آن پیشداوری را تایید کنیم؛ بر اساس سوگیری تایید، اگر پیشداوری اولیه نادرست باشد، به دنبال ابطال آن نمیرویم و به جای اینکه به دنبال کشف جهان باشیم، به دنبال تایید پیشداوری خودمان حرکت میکنیم و این اتفاق سبب میشود برداشت نادرست اولیه، تقویت شود. در هوش مصنوعی هم ممکن است این اتفاق رخ دهد. اگر من باور اشتباهی درباره ایران داشته باشم، این باور را به هوش مصنوعی القا کنم و به شکلی از آن سوال بپرسم که در تایید باور من صحبت کند، هوش مصنوعی اطلاعات اشتباه به من خواهد داد؛ این در حالی است که باور اولیه ما درست نبوده و در نتیجه، انتقال این باور به هوش مصنوعی به صورت نادرست و سوگیرانه انجام شده است. در علوم کامپیوتر اصطلاحی داریم که براساس آن، گفته میشود در صورتی که دادههای ورودی، دادههای بهدردنخوری مثل زباله باشد، به شکل طبیعی، خروجی بهدردنخوری هم دریافت خواهیم کرد. هوش مصنوعی یک ابزار است که اگر اطلاعات نادرست و سوگیرانه داشته باشد، خروجیهای صحیحی هم ارائه نمیدهد. البته حواسمان باشد، حتی اگر اطلاعات ورودی آن هم درست باشد، ممکن است همچنان نتوانیم اطلاعات صحیحی دریافت کنیم.» به گفته دکتر فیضی، باید به نقشهایی که ما انسانها به هوش مصنوعی محول میکنیم، هم توجه کنیم: «نکته دیگری که در هوش مصنوعی اهمیت دارد، این است که چه نقشی به هوش مصنوعی میدهیم؟ هر نقشی که بدهیم، در پاسخی که به ما میدهد، تاثیر میگذارد. برای مثال، اگر بخواهید هوش مصنوعی از زاویه یک تحلیلگر دانشگاهی وضع اقتصادی ایران را توضیح دهد، یا از زاویه یک فعال بازار به موضوع نگاه کند، در صورتی که ورودیهای شما یکسان باشد، پاسخهایی که ارائه میدهد، تفاوت خواهد کرد. بنابراین، هم شیوه تعامل ما با چتباتهای هوش مصنوعی مهم است و هم نقشی که به آن میدهیم، اهمیت دارد.»