خطر بزرگ 2025
اطلاعات گمراهکننده چه عواقبی به دنبال دارد؟
معاملهگران در خواب بودند اما الگوریتمهای معاملاتی، همچنان نوسانگیری میکردند. ایلان ماسک، سرمایهگذار بزرگ آمریکایی، هارمونی پورتفوهای ارزی را تغییر داده بود. او در فضایی متفاوت، با تحلیلِ سیاست ایالاتمتحده و انتخابات ۲۰۲۴ و اثرات بالقوه آن بر آینده ارزهای دیجیتال، تعاملی احساسی-اقتصادی را شکل داده بود. ایلان از مردم میخواست به او اعتماد کنند که پولدارتر شوند: «لطفاً کد QR را اسکن کنید، به یک سایت امن بروید و بدون هیچ زحمتی ارز دیجیتال خود را دو برابر کنید.» 140 هزار کاربر هم به او اعتماد و حسابهایشان را به امید دو برابر شدن پولشان، خالی کردند، اما هیچکدام پولدار نشدند. ایلان ماسک، واقعی نبود. یک جعل عمیق (DeepFake)، بیش از 50 هزار دلار بیتکوین، اتریوم و دوجکوین را بلعید. کلاهبرداران در حالی که 33 /1 دلار برای این دیپفیک خرج کرده بودند، میلیاردها دلار از جیب مردم برداشتند. البته این تنها ضرر اکوسیستمِ دیپفیکها نبود. آنها در سال 2024 یک تریلیون دلار سود کردند و اگر همینگونه متخاصمانه پیش بروند، تا دو سال آینده، 40 میلیارد دلار دیگر برای اقتصاد جهان هزینه خواهند داشت.
کلاهبرداری یکدلاری
ولی چرا دیپفیکها اینقدر خوب شدهاند؟ چرا ما فریب میخوریم؟ و پرسش بسیار سادهتر، آنهایی که فریب ایلان ماسک جعلی را خوردند، واقعاً ماسک را نمیشناختند یا در پلتفرمهای مختلف او را ندیده بودند؟ دیپفیکهایی که ماسک و دیگر چهرههای معروف را به تصویر میکشند، بهطور گسترده برای تسهیل طرحهای آنلاین استفاده میشوند که کاربران ناآگاه را شکار کنند و آنها را برای انتقال پول به کلاهبرداران فریب دهند. این نوع کلاهبرداری که گاهی از طریق پُستهای رسانههای اجتماعی حمایت و تبلیغ میشوند، با موفقیت کاربران را متقاعد میکنند دهها یا صدها هزار دلار سپردهگذاری کنند. این کلاهبرداریهای فریبنده از هوش مصنوعی پیشرفته برای ظاهر واقعی استفاده میکنند و گاهی اوقات همراه رویداد خبری (حقیقی) میشوند که مخاطبان پخش زنده خود را افزایش دهند. به این ترتیب پتانسیل گستردهای برای فریب و کلاهبرداری (چه از سوی یک فرد، چه یک شرکت مجرمانه) با بهرهگیری از «خدمات هوش مصنوعی»، «قدرت ایجاد تصاویر غیرقابل تشخیص» و «نقل و انتقالات ارزهای دیجیتال ناشناس» مهیا میشود. در واقع، فریب با قابلیت جعل عمیق به دلیل دانش فنی (جمعآوری مجموعه دادهها، تفکیک و آموزش)، سختافزارهای قدرتمند (قادر به انجام آموزشهای فشرده) و نرمافزارهای پیشرفته (بهعنوان پایههای کد تغییر چهره) مورد نیاز برای تولید دیپفیک، دموکراتیک شده و از طریق پلتفرمهای کاربرپسند و برنامههای تجاری بهطور فزایندهای در دسترس قرار میگیرد. با این حال، دیپفیک به خودی خود بزرگترین تهدیدِ فضاهای آنلاین نیست. همانطور که در گفتمانهای عمومی مورد بحث است، کلاهبرداریهایی از این دست نشان میدهد، دیپفیکها را میتوان با «دستکاری اطلاعاتی پلتفرمهای موجود برای بهرهبرداری از تایید پلتفرم»، «تقلید از چهرههای عمومی» و «افزایش معیارهای تعامل و گیمیفی کردن (بازیوارسازی) الگوریتمهای تِرَند» همراه کرد و کمپینی را به وجود آورد که ماحصل آن (گاه و نه همیشه) خطرناک و مجرمانه است. بگذارید با توضیح مبسوطی چگونگی ساخت دیپفیک ایلان ماسک را بهتر توضیح دهیم.
آناتومی یک دیپفیک
در کلاهبرداری مربوط به دیپفیک ماسک، حساب جعلی، دارای یک نمایه کامل با تیک آبی، دارای 162 هزار مشترک و بیش از 34 میلیون بازدید بود و از سال 2022 فعالیت داشت. این حساب بسیار شبیه حساب رسمی تسلا بود و به همین دلیل، در نگاه نخست و در تشخیص تقلبی بودن حساب، ویورها (بازدیدکنندگان) دچار مشکل میشدند. از طرفی، کلاهبرداران با انتخاب ایلان ماسک، رهبر پرطرفدار ارزهای دیجیتال، حس مشروعیت را به کلاهبرداری خود اضافه کرده بودند و این مشروعسازی به آنها کمک کرد بهتر مخاطب را فریب دهند. گفتههای این ویدئو نیز مشابه اظهارهای قبلی ماسک بود. آهنگ کلمات ماسک صرفاً کمی عجیبتر و غیرقابل تمییز برای عموم بود، پس با تکرار یا تعدیل اندک اظهارات قبلی ماسک، این ویدئو پرچمهای قرمز کمتری را برای بینندگان برانگیخته بود. کمااینکه، یک ویدئوی 200ثانیهای از صحنه اصلی تسلا، به گونهای دستکاری شده بود که ایلان ماسک را در حال خواندن اسکریپتی (برنامههای کوچک که با زبانهای برنامهنویسی نوشته شدهاند) به تصویر بکشد که به کاربران دستور میداد ارزهای دیجیتال خود را به آدرس کیف پول «telsa-bitcoin.com» واریز کنند. این اسکریپت، یادآور نوع متنی بود که به وسیله الگوی زبانی بزرگ (LLM) تولید میشود و به نظر میرسید از دستورالعملهایی همانند «لحظههای کلیدی برای به حداکثر رساندن پتانسیل برنده شدن»، «بخش دستورالعملهای دقیق»، «جلسات پرسش و پاسخ» و «اعلانهای پایانی» پیروی کرده است. یعنی دیپفیکی را به وجود آورده که احساس فوریت را ترویج و بینندگان را تشویق میکند از فرصت استفاده کنند و به افرادی که با ارزهای رمزنگاریشده آشنایی ندارند، دستور میدهد، درگیر آن شوند. فراتر آنکه، نظرها در این استریم غیرفعال میشوند؛ کانال یوتیوب که پخش زنده را میزبانی میکند، بهطور کامل به تقلید از کانال رسمی تسلا، موقتاً به «تسلا» تغییر نام میدهد، از لوگوی تسلا استفاده میکند، در زمان استریم، 420هزار سابسکرایبر (حامیان و همراهان) دارد و 81 هزار بیننده همزمان این سخنرانی فیک را میبینند، در طول لایو (زنده) نیز، تمام ویدئوهای کانال از فهرست آن حذف میشوند و پخش زنده بهعنوان تنها محتوای کانال باقی میماند. مهمتر از همه، این ویدئو بینندگان را هدایت میکند یک کد QR را با گوشیهای هوشمند خود اسکن کنند که باعث میشود قربانیان بالقوه خارج از پلتفرم -تاکتیک رایجی که در کمپینهای کلاهبرداری برای فریب دادن کاربران استفاده میشود- از هرگونه اقدامهای کاهش میزان کلاهبرداری دور و محروم بمانند. در کنار آن، تعدادی از کیف پولهای رمزنگاری مرتبط با سایتهای خارج از پلتفرم کلاهبرداری، جایگزین کیف پولهای تازه میشوند که ماهیت یکطرفه بودن تراکنش و عدم مشاهده «دو برابر شدن خودکار موجودی» پنهان بماند. اضافه بر آن، ارزها هم قبل از تقسیم شدن میان کیف پولهای بیشتر در کیف پولهای ثانویه جمع میشوند که درصد ردیابی تراکنشها و به دست آوردن اسناد کلاهبردی، به حداقل برسد. مدت کوتاهی پس از پایان پخش زنده نیز کانال یوتیوب که Champs پخش زنده را با عنوان موقتی تسلا میزبانی میکرد، شروع به بازیابی خود میکند. ناگهان کانالی که صفر ویدئو داشت، حاوی دو هزار و 131 ویدئو میشود که همگی مرتبط به سال 2019 بودند. بخش «درباره» کانال نیز که قبلاً با نام تجاری تسلا خالی بود، برای مدت کوتاهی با «Im Back...» جایگزین میشود و همزمان مالک کانال در پلتفرم Discord، فایلهای تصویری با فرمت تبادل گرافیکی (GIF) را ارسال میکند که در آن فریاد میزند «پادشاه برگشته است» و حتی به نظرهای یوتیوب پاسخ میدهد و با بیان «مشکلی نیست» هرگونه نگرانی را رد میکند. یک سیرک کلاهبرداری رمزنگاریشده و دارای سناریو که قطعاً برای مخاطب عام و غیرآشنا به روشهای کلاهبرداری و دستکاری عمدی /حرفهای اطلاعات، حتی تماشای آن در زمان مشاهده استریم (Stream پدیده مبتنی بر اینترنت است که محتوای جذاب و سرگرمکنندهای در زمینههای مختلف ارائه میدهد) و هیجانهای ناشی از آن، تماماً باخت است. البته فریب خوردن فقط مختص مردم عادی نیست، شرکتهای بزرگ، حتی رهبران سیاسی و نظامی دنیا هم گاه با دیپفیکها به فنا رفتهاند و تاریخ شاهد آن بوده و هست.
اسب تروآ، چین، پوتین و پنتاگون
زمانی که یونانیان اسب چوبی تروجان را از ساحل، بیرون از دیوارهای تروی (شهر باستانی)، به داخل شهر خود بردند، فریب دیپفیک چوبی را خوردند. وقتی استالین، رفقای خود را اعدام و از صفحه روزگار محو کرد و سپس عکسهای به جایمانده را به نحوی تغییر داد که گویا این افراد هرگز وجود نداشتهاند، تحریف و دستکاری اطلاعات، بُعد دیگری گرفت. زمانی که اسلوونی بعد از استقلال، نام بیش از 18 هزار نفر را از فهرست ساکنان خود حذف کرد، جعل اسناد وارد فاز دیگری شد. وقتی انتشار نامه گریگوری یوسویچ زینوویف (کمونیست روسی و از انقلابیون بلشویک) توسط دیلی میل -سند جعلی که ظاهراً از سوی رئیس کمینترن شوروی نوشته شده بود- بر انتخابات عمومی بریتانیا در سال 1924 تاثیر جدی گذاشت، پای دیپفیکها به سیاست، انتخابات و دموکراسی بیشتر باز شد. هنگامی که کمپین شایعهپراکنی «عملیات عفونت» شوروی، از اسناد جعلی برای انتشار این ایده استفاده کرد که ایالاتمتحده ویروس اچآیوی را بهعنوان سلاح بیولوژیک اختراع کرده است، جرئت واقعیتبخشی به شایعه در ابعادی مشابه را به ابرقدرتها و توتالیترها داد. وقتی در سال 2004 بخش خبری شبکه رادیویی و تلویزیونی سیبیاس نیوز (CBS News) شایعات بحثبرانگیزی را که در مورد جرج بوش (چهل و سومین رئیسجمهور ایالاتمتحده آمریکا از حزب جمهوریخواه در فاصله سالهای ۲۰۰۱ تا ۲۰۰۹) منتشر کرده بود، پس گرفت؛ چون نتوانست اسناد جعلی را که خدمات پیشین او در گارد هوایی ملی تگزاس را زیر سوال میبرد، تایید کند؛ جعلکاران اطلاعاتی، کار خود را با فناوری توسعه دادند و کیفیت بخشیدند. اکنون، جهان نگران صنعتی شدن دستکاری اطلاعاتی با هوش مصنوعی است. چون، هوش مصنوعی، هزینه تولید محتوا و اینترنت هزینه توزیع آن را به صفر رسانده است و حجم عظیمی از اطلاعات جعلی میتواند دنیا را پر از «زبالههای اطلاعاتی کُشنده» کند. حالا، جدیدترین آواتارهای تولیدی شرکتهای پیشرو در هوش مصنوعی به قدری خوب هستند که نمیتوان آنها را از واقعیت جدا کرد و در چنین دنیای مملو از «آدمهای جعلی و تقلبی»، جنگها، سیاسیبازیها و نزاعهای اقتصادی، در لابهلای دیپفیکهای باکیفیت، به جنگهای هوشمند و غیرانسانی تبدیل شده است. درخواست تسلیم از سوی ولودیمیر زلنسکی (رئیسجمهور فعلی اوکراین)، که بلافاصله بهعنوان دروغ واقعی فاش شد، نخستین تلاش برای استفاده از فناوریهای هوشمند در درگیریهای مسلحانه است و هیچ پایانی برای این نوع پیشرفتها دیده نمیشود. زمان آن فرا رسیده که به دستکاری (تحریف) اطلاعات بهعنوان یکی از ریسکهای خطرناک جهان نگاه کنیم. شاید بسیاری از دیپفیکهای نسل نخست تاریخ به دلیل نقص تصویر یا صدا به راحتی قابل تشخیص بودند و به همین دلیل تا سال 2020، دولتها خود را مجبور به ایجاد استراتژی واکنشی اختصاصی نمیدانستند، اما امروزه ابزارهای هوش مصنوعی با استفاده آسان که قادر به تولید محصولهای باکیفیت هستند، به صورت رایگان در دسترساند. دیپفیک به کالای معمولی تبدیل شده و سه پیشرفت تکنولوژیک بهطور خاص به سطح رشد کیفی آنها کمک کرده است: «بهبود مستمر هوش مصنوعی»، «افزایش مداوم قدرت محاسباتی موجود» و «دسترسی به مقادیر فزایندهای از دادههایی که میتوان با آن هوش مصنوعی را آموزش داد». در حقیقت، برخلاف جعلهای ارزان -که در آن ضبطهای موجود بهصورت دستی یا دیجیتالی به هم متصل میشوند، سرعت آنها کاهش یا افزایش مییابد- ادغام هوش مصنوعی، اینک، امکان ایجاد یا اصلاح خودکار محصولهای رسانهای را به صورت کاملاً حرفهای و با اهداف مختلف فراهم کرده و برای همین، ساختن تصاویر جعلی از شخصیتهای سیاسی دنیا هم کار سختی نیست. زیادند تصاویر و ویدئوهایی که ترامپ در آنها دستگیر میشود، پوتین را میبوسد یا پرچم چین را در آغوش میگیرد. نمونههای جدیدی که تقریباً هر روز به دادههای پلتفرمی اضافه میشوند و تعدادی برای هشدار و تعدادی برای سرگرمیاند و البته تعدادی هم عمیقاً بحرانساز. طبیعتاً توئیت انفجارِ پنتاگون در 22 می 2023، برای سرگرمی نبوده است. توئیت این تصور را ایجاد کرد که این اتفاق، واقعی و گزارش رسمی از خبرگزاری بلومبرگ است. تصوری همراه با تصویری از دود سیاه بر فراز پنتاگون. دیپفیکی که اگر ساختگی بودن آن بهسرعت مشخص نمیشد، شاخص S&P500 را تا حدود 30 واحد کاهش میداد و این دستکمی از فاجعه نداشت. فاجعهای که نه برآیند خرابکاریهای سیاسی، استراتژی و مالی، بلکه ماحصل برنامههای هوش مصنوعی همانند Midjourney یا Stable Diffusion بود و متاسفانه نمونههای خطرناک بیشتری از آن تا به امروز رخ داده است.
آسمان را ببندید
در مارس 2022، نخستین تلاش قابل توجه برای استفاده از دیپفیک در یک درگیری مسلحانه انجام شد. پس از هک شدن وبسایت کانال تلویزیونی 24 اوکراین، ویدئویی دستکاریشده از رئیسجمهور این کشور دستبهدست شد که در آن ولودیمیر زلنسکی از سربازانش میخواست سلاحهای خود را زمین بگذارند و تسلیم روسیه شوند. اما این خبرگزاری بلافاصله پس از انتشار بیانیهای مبنی بر هک شدن، آن را حذف کرد. کیفیت پایین دیپفیک، سرعت شناسایی و پرچمگذاری آن بهعنوان ویدئویی جعلی، در کنار توانایی توزیع ویدئوی واقعی از طریق یک اتصال اینترنتی پایدار، به شکست دیپفیکِ تسلیم اوکراین منجر شد. زلنسکی نیز با انتشار بیانیهای -ویدئویی- در شبکه اجتماعی فیسبوک این شکست در جعلسازی را تایید کرد: «اگر من بتوانم به کسی پیشنهاد کنم که سلاح خود را زمین بگذارد، این ارتش روسیه است. آنها باید به خانه بروند. زیرا ما در خانه هستیم. ما از سرزمین خود، فرزندان و خانوادههایمان دفاع میکنیم.» با این حال، این مدیریت بحران سریع حتی با وجود تلاش و انتشار کتاب «بازی برای شکست دیپفیکها» از سوی بنیاد کارنگی همیشگی نماند. اما اینبار شکل دیگری از محتوای دستکاریشده را به همراه داشت. یک ویدئوی ساختگی ویروسی با جلوههای ویژه تولید شده بود که نشان میداد با حمله به پاریس چه اتفاقهایی رخ خواهد داد. هدف این بود که به کشورهای اروپایی برای توقف روسیه در اوکراین، قبل از اینکه آنها نیز مورد حمله قرار بگیرند، هشدار داده شود. ویدئوی ساختگی با ژست گرفتن زنی در کنار برج ایفل شروع میشد. سپس چند انفجار در ساختمانهای نمادین فرانسه، رخ میداد. عکسهای بعدی، شامل صدای افراد شوکهشدهای بود که به زبان فرانسوی صحبت میکردند. صدای آژیر حمله هوایی در حین پرواز جتهای جنگنده مردم را بهشدت میترساند؛ سپس متنی ظاهر میشد، «فقط فکر کنید؛ آیا این اتفاق میتواند در یک پایتخت اروپایی دیگر هم رخ دهد» و در نهایت این ویدئو با نقل قولی از زلنسکی به پایان میرسید: «ما تا آخر میجنگیم. آسمان را ببندید یا به ما جنگندههای هوایی بدهید. اگر ما سقوط کنیم، شما هم سقوط میکنید.» تاکید بر جملاتی که زلنسکی معمولاً از آنها استفاده میکند. بهطور ویژه، «آسمان را ببندید»، عبارتی است که اغلب زلنسکی هنگام ترغیب اتحادیه اروپا و متحدان ناتو برای بستن حریم هوایی یا منطقه پرواز ممنوع بر فراز اوکراین در تلاش برای بازدارندگی روسیه از انجام حملات بیشتر از طریق هوا استفاده میکند و بنابراین بُعد واقعیتری به این ویدئو میداد. به گونهای که، این ویدئوی فیک، از سوی چند اکانت رسمی در رسانههای اجتماعی اوکراین همانند حساب کاربری اولکساندر مرژکو، رئیس کمیته روابط خارجی اوکراین با این جمله به اشتراک گذاشته شد: «ما هم فکر میکردیم که هرگز نمیتواند اتفاق بیفتد.» حتی در حساب توئیتر وزارت دفاع اوکراین نیز این ویدئو منتشر شد و یک هفته بعد، پس از سخنرانی زلنسکی در کنگره آمریکا و پارلمان آلمان، این ویدئو همچنان در شبکههای اجتماعی به اشتراک گذاشته میشد. تا اینکه صدای رسانههای روسی درآمد و برخی همانند گروه تلگرامی موسوم به «جنگ علیه تقلب»، مدعی شدند مقامهای اوکراینی عمداً این ویدئوی جعلی را با استفاده از گرافیکهای کامپیوتری ایجاد کردهاند که از اروپا بخواهند منطقهای پرواز ممنوع بر فراز اوکراین ایجاد کند. تقابل کلامی که در حال وخیم کردن شرایط میان روسیه و اوکراین بود. اولیاس بارکو، فیلمساز اوکراینی که خودش این ویدئو را ساخته بود، در مصاحبه با روزنامه فرانسوی لوموند و RTL گفت: «مقامهای اوکراینی به او دستوری برای ساختن این ویدئو ندادهاند و این کار خودسرانهای بوده است.» او در توضیح این مطلب به لوموند گفته بود: «این کاری بود که خودم میخواستم انجام دهم و غرب را شوکه کنم. چون ما در جنگ جهانی سوم هستیم و این درگیری گستردهتر میشود. این یک فیلم پیشگویانه بود نه یک فیلم تبلیغاتی، اما گویا شرایط را بدتر کرد.» با توسعه فناوری دیپفیک، گویی محدودیتهای تولید و استفاده موثر از دیپفیکها دیگر ماهیت فنی نخواهد داشت، بلکه منحصراً به مسئله خلاقیت مرتبط است.
ترس، تحقیر ملی، حذف آدمها
بررسی 15 هزار دیپفیک در طول یک سال، ثابت کرده است دستکاری اطلاعات و شواهد ساختگی میتواند صرفاً برای فلج کردن یا نابودی اتحاد باشند. بهعنوان مثال، کارشناسان امنیتی ایالاتمتحده ادعا کردند روسیه در حال برنامهریزی برای تولید مدارک ویدئویی جعلی از جنایات جنگی اوکراین علیه جوامع روسی برای توجیه حمله به اوکراین است. چنین شواهد ویدئویی برای شروع بحث در کشورهای اروپایی در مورد مشروعیت عبور روسیه از مرز برای محافظت از اقلیتهای روسی مناسب بود و میتوانست از واکنش فوری به نفع اوکراین جلوگیری کند. اما در این مورد خاص، استفاده از دیپفیک نبود که مشکوک بود، بلکه خود جعل سنتی با استفاده از ابزار و بازیگران انسانی بود که در قالب ایجاد یا تغییر شهادت شاهدان عینی از دستورهای صادرشده و برخلاف قوانین بینالمللی، شکل گرفته بود. همانند ویدئوهای جعلی از رهبران سیاسی یا نظامی که قصد تسلیم شدن داشتند، با اظهارات تحقیرآمیز درباره نیروهای خودی که در عملیات کشته شده بودند، مفهوم و هدف عملیات نظامی را زیر سوال میبردند و روحیه نظامی را تضعیف میکردند و بعضاً در رسیدن به اهداف موفق هم میشدند. اما اغلب، هدف از انباشت تصاویر گرافیکی و ضبطهای صوتی و انتشار اسناد، حذف مقام دولتی و سیاسی بوده و هنوز هم هست. در ژانویه 2024، در آستانه انتخابات تایوان، صدها پست ویدئویی در یوتیوب، اینستاگرام، X و دیگر پلتفرمهای اجتماعی با عنوان «تاریخ سِری تسای اینگ ون (نخستین رئیسجمهور زن در تاریخ تایوان)» منتشر شد. این تاریخ سِری، یک سند 300صفحهای حاوی شایعات و محتوای منفی بود که برای نخستینبار در مرکز داده آنلاین Zenodo (پایگاه اطلاعاتی دسترسی آزاد) منتشر و به ویدئوهایی با صداهای تولیدی از طریق هوش مصنوعی تبدیل شد و در سایر پلتفرمها انتشار یافت. این ویدئوها که حدود 100 بار در دقیقه به اشتراک گذاشته میشدند، در صورت حذف توسط پلتفرمها یا مسدود شدن حسابها، بلافاصله جایگزین و با استفاده از نرمافزار توسعهیافته «بایتدانس» (شرکت فناوری چینی که چند سیستمعامل محتوا با قابلیت یادگیری ماشینی را اداره میکند)، ویرایش و در شبکه اجتماعی دوئین (Douyin) منتشر میشدند. در این ویدئوها از میزبانهای مجازی، از جمله شخصیتهایی که شبیه گویندگان اخبار چینیزبان بودند، استفاده میشد. با این حال، محتواهای فیک به دلیل کیفیت پایین تولید، از جمله ظاهر مصنوعی، صدای میزبانهای مجازی و استفاده از اصطلاحهای چینی که معمولاً توسط تایوانیها استفاده نمیشود، نرخ تعامل بالایی ایجاد نمیکردند و بعد از شکست، متوقف میشدند. چین، از «تاریخ سِری تسای اینگ ون» تایوان بهعنوان بستر آزمایشی برای تکنیکهای جنگ اطلاعاتی استفاده کرد، اما نمایش قدرت در مقیاس بسیار فراتر از چیزی است که قبلاً ردیابی میشده است. نمایشی که به باور کارشناسان مدرسه کندی هاروارد (Harvard Kennedy School)، هم خطرناک (با آثار منفی و بد) و هم سازنده است.
خرید اعتماد
طرفداران جدی هوش مصنوعی و دستکاری مفید اطلاعات، با این استدلال که حداقل تاکنون، دیپفیکها آنقدر که تصور میشد آسیب سیاسی وارد نکردهاند، باور دارند دیپفیکها به جای آسیب سیاسی، میتوانند با محتوای تولیدشده به وسیله هوش مصنوعی به مبارزههای انتخاباتی کمک کنند. گواه آنها برای این ادعا، استفاده سیاستمداران هندی از نرمافزار باسینی (Bhashini) بهعنوان پلتفرم ترجمه مبتنی بر هوش مصنوعی، برای دوبله سخنرانیهای خود به 22 زبان رسمی و هزاران گویش منطقهای هند در سال 2024 است که باعث تعمیق ارتباط با رایدهندگان شد و آنان را به این اجماع رساند که «توانایی این فناوری برای تولید دیپفیکهای غیرتوافقی میتواند تشخیص حقیقت از داستان را دشوارتر کند، اما استفادههای توافقی آن، احتمالاً دموکراسی را در دسترس قرار میدهد». اجماعی که البته در خود هند نیز پذیرش همگانی نیافت. این کشور بیش از 400 میلیون کاربر واتساپ و تقریباً 820 میلیون کاربر فعال اینترنت دارد. اما بیش از نیمی از کاربران اینترنت در مناطق روستایی مستقر هستند، جایی که آگاهی و توانایی شناسایی دیپفیکها ضعیفتر است. از این حیث، بسیاری از رصدگران اینترنتی، پژوهشگران و حتی سلبریتیهای هند در قالب بیانیه مطبوعاتی «نفوذ فراگیر هوش مصنوعی بر مبارزههای سیاسی جهانی در سال 2024» استفاده از دیپفیکهای انتخاباتی را عقلانی ندانستند. این دیپفیکها در قالب تصاویر و ویدئوهای خندهدار یا گمراهکننده با هدف قرار دادن مخالفان، تقویت تصاویر سیاستمداران، بازگرداندن چهرههای محبوب برای حمایت از حزبشان و پخش داستانهای نادرست در مورد رقبا، در طول مبارزههای سیاسی مورد استفاده قرار گرفته بود. آنها با استناد به اینکه، در دو ماه منتهی به انتخابات سراسری که در آوریل تا ژوئن 2024 برگزار شد، بیش از 50 میلیون تماس خودکار با استفاده از فناوری هوش مصنوعی با مردم انجام شد و عواملی همانند کمپینهای سیاسی مبتنی بر هوش مصنوعی، شناسایی اطلاعات نادرست، نفوذ دیپفیکها، اقدامهای نظارتی و یکپارچگی کلی دیجیتال در انتخابات، به محل مباحثههای جدی تبدیل شد، خواستار اجرای قوانین یکپارچه در برخورد با دستکاری اطلاعات و تهدیدهای جدی دیپفیکها شدند. این در حالی بود که در کنفرانس امنیتی مونیخ نیز بیش از 20 شرکت بزرگ فناوری، از جمله گوگل، متا و تیکتاک، متعهد شده بودند دیپفیکهایی را که برای گمراه کردن طراحی شدهاند، نابود کنند. آنها «محتوای تروریستی آنلاین»، «سوءاستفاده از هویت دیجیتالی»، «تفرقهافکنی»، «تحریک نفرت و تشدید خشونت»، «جعل و دستکاری اطلاعاتی»، «سوءاستفاده از تصاویر غیرتوافقی، آزار و اذیت، باجگیری و اخاذی» و «خطر عدالت کیفری» را هفت دلیل تهدیدساز اطلاعات گمراهکننده، دستکاریشده و جعلی عنوان کردند.
چگونه فرار کنیم؟
آروپ (Arup)، شرکت معماری و طراحی 78ساله مستقر در لندن، با بیش از 18 هزار نفر در 34 دفتر سراسر جهان (که به خاطر طراحی خانه اُپرای نمادین سیدنی و استادیوم اتحاد در منچستر معروف شد) در اوایل سال 2024، قربانی مشهور کلاهبرداریهای چند میلیوندلاری دیپفیک جهان شد. یکی از کارمندان این شرکت در هنگکنگ در تماس ویدئویی با مدیر مالی آروپ و سایر کارکنانش، 6 /25 میلیون دلار (آمریکا) را طی 15 تراکنش به پنج حساب محلی کلاهبرداران انتقال داد و بعدها از طریق دفتر مرکزی در بریتانیا متوجه شد که مورد کلاهبرداری قرار گرفته است. این اتفاق از زمانی که با کارمند آروپ تماس گرفته شد، تا زمانی که شرکت شروع به بررسی موضوع کرد، فقط هفت روز (یک هفته) به طول انجامید. چیزی که در مورد این کلاهبرداری فوقالعاده بود، انتشار ویدئو جعلی از همه افراد حاضر در تماس ویدئویی -به غیر از قربانی- از طریق رایانه از یک شخص واقعی بود که در آروپ کار میکرد. دیپفیک صوتی هوش مصنوعی (AI) مورد استفاده در یک کلاهبرداری مالی هدفمند از مدیرعامل یک شرکت انرژی مستقر در بریتانیا نیز یکی دیگر از دلایل توافق مونیخ بود. پنج کلاهبردار صدای مدیرعامل شرکت مادر را تقلید کرده بودند. این تقلید، الگوهای گفتاری و لهجه آلمانی او را هم دربر میگرفت. آنها با مدیرعامل شرکت بریتانیایی تماس گرفتند و وانمود کردند رئیس او هستند و به او دستور دادند 220 هزار یورو به حساب بانکی مجارستانی یک تامینکننده واریز کند. مدیرعامل نیز همین کار را کرد و پس از انتقال پول فهمید که چه کلاهی سر او رفته است. نمونه دیگری از استفاده غیرمجاز از دیپفیک صوتی مربوط به بازیگر، کارگردان و نویسنده بریتانیایی استفان فرای (Stephen John Fry) بود. در این سوءاستفاده هویتی، از نرمافزار هوش مصنوعی برای تکرار صدای او در کتاب صوتی هری پاتر استفاده شد. سپس این صدای شبیهسازیشده برای روایت یک مستند تاریخی درباره مقاومت نازیها مورد استفاده قرار گرفت. این دیپفیک به قدری دقیق بود که کاملاً لهجه و لحن فرای را تقلید میکرد، حتی نامها و کلمات آلمانی و هلندی را که او هرگز نگفته بود نیز شامل میشد. پس از این اتفاق، فرای به همراه بسیاری از آسیبدیدگان دیپفیکها، با ابراز نگرانی از سوءاستفاده احتمالی از هوش مصنوعی که میتواند صداها و چهرهها را بدون اجازه برای ایجاد محتوای دیپفیک دستکاری کند، خواستار اجماع نظارتی و پایش جهانی در این زمینه شد. سوءاستفاده جنسی از 50 دانشآموز دختر یک مدرسه خصوصی در استرالیا و انتشار تصاویر برهنه آنها در فضای مجازی نیز که خشم عمومی را در پی داشت، بهخصوص اینکه قبل از آن، دستکاری تصاویر پنی وانگ، وزیر خارجه و کیتی کالاگر، وزیر دارایی استرالیا در تبلیغات فیسبوک برای کلاهبرداریهای مالی، خشونت و توهین به زنان تلقی شده بود، یکی دیگر از دلایل این اجماع بود. در کنار این اتفاقها و 14 هزار مورد دیگر، گزارش جدید موسسه فعال در حوزه تایید هویت با نام «Regula» که تجزیهوتحلیل کاملی از چگونگی تاثیر فناوری دیپفیک بر صنایعی همانند خدمات مالی، رمزنگاری، مراقبتهای بهداشتی و... دارد، بر اجماع مونیخ صحه گذاشت و خواستار رویکردهای پیشگیرانه و محدودیتسازی شد. این گزارش تاکید کرد، ترکیبی از ابزارهای هوشمند در اختیار کلاهبرداران و دستکم گرفتن آسیبپذیری در برابر دیپفیکها در فرمتهای ویدئویی، صوتی و جعل اسناد باعث شده تقریباً همه (92 درصد) مشاغل ضرر مالی را تجربه کنند. بر اساس یافتههای این گزارش، در حالی که تلاش برای کلاهبرداری دیپفیک نزدیک به 450 هزار دلار برای کسبوکارها هزینه دارد، بیش از یکچهارم (28 درصد) از رهبران کسبوکار، بیش از نیممیلیون دلار به خاطر دیپفیکها از دست دادهاند. جالب اینکه کسبوکارهای فینتک -که بسیاری از آنها محصولهای امنیت سایبری مبتنی بر هوش مصنوعی را توسعه میدهند- بهطور قابل توجهی بیشتر از صنایع سنتی و بهطور متوسط بیش از 630هزار دلار ضرر کردهاند. با وجود این، در حالی که 76 درصد از صاحبان کسبوکار با وجود رشد سههزاردرصدی دیپفیکها در سال 2023 معتقدند شرکت آنها میتواند تهدیدها را شناسایی کند، کمتر از نیمی (47 درصد) از مدیران موافق این ادعا هستند و این نشانگر شکاف فزاینده میان اعتماد رهبری به امنیت سایبری و ظرفیت واقعی سازمانها برای دفاع از خود است. شکافی که در سطح کلان هم مشهود است و گاه رویکردهای پیشگیرانه، خود آسیبزا میشوند. مثلاً، برای کاهش تعداد بازیگران جعل اطلاعات و کنترل آنها چه مردم باشند و چه دولتها و استراتژیستهای سیاسی و مالی، کنترل دسترسی به نرمافزار و سختافزارهای تخصصی، بهعنوان راهکار جدی پیشنهاد میشود، اما گاه کلاهبرداری در سایه دور زدن این محدودیتها نیز خود به جعل اطلاعات میانجامد. از اینرو، در مواجهه با استفاده روزافزون از ابزارهای هوش مصنوعی مولد (GenAI) برای افزایش حجم و واقعگرایی حملات دیپفیک، این راهکارها میتواند سادهترین و موثرترین باشد. یادتان نرود: از هوش مصنوعی برای مبارزه با هوش مصنوعی استفاده کنید. آگاه شوید و آموزش ببینید. استراتژی Zero Trust (مدل امنیتی سختگیرانه در فناوری اطلاعات) را بپذیرید؛ بدان معنا که بدانید از داخل یا خارج از شبکه بهطور پیشفرض به کسی نمیشود اعتماد کرد و برای هر کسی که سعی در دستیابی به منابع موجود در شبکه دارد، تایید لازم است. با تایید هویت بیومتریک مبتنی بر هوش مصنوعی نیز کلاهبرداران را در مرحله ورود به سیستم متوقف کنید که از جعلهای بزرگ در امان بمانید. در نهایت هوش مصنوعی را در آغوش بگیرید، اما هر آن، آماده خفه شدن باشید، چون قدرت آن، قابل کنترل نیست و هر کاربر هوش مصنوعی میتواند نخستین یا بزرگترین مجرم سایبری دنیا باشد.