شناسه خبر : 49247 لینک کوتاه
تاریخ انتشار:

خطر بزرگ 2025

اطلاعات گمراه‌کننده چه عواقبی به دنبال دارد؟

 

آسیه اسدپور / نویسنده نشریه 

معامله‌گران در خواب بودند اما الگوریتم‌های معاملاتی، همچنان نوسان‌گیری می‌کردند. ایلان ماسک، سرمایه‌گذار بزرگ آمریکایی، هارمونی پورتفوهای ارزی را تغییر داده بود. او در فضایی متفاوت، با تحلیلِ سیاست ایالات‌متحده و انتخابات ۲۰۲۴ و اثرات بالقوه آن بر آینده ارزهای دیجیتال، تعاملی احساسی-اقتصادی را شکل داده بود. ایلان از مردم می‌خواست به او اعتماد کنند که پولدارتر شوند: «لطفاً کد QR را اسکن کنید، به یک سایت امن بروید و بدون هیچ زحمتی ارز دیجیتال خود را دو برابر کنید.» 140 هزار کاربر هم به او اعتماد و حساب‌هایشان را به امید دو برابر شدن پولشان، خالی کردند، اما هیچ‌کدام پولدار نشدند. ایلان ماسک، واقعی نبود. یک جعل عمیق (DeepFake)، بیش از 50 هزار دلار بیت‌کوین، اتریوم و دوج‌کوین را بلعید. کلاهبرداران در حالی که 33 /1 دلار برای این دیپ‌فیک خرج کرده بودند، میلیاردها دلار از جیب مردم برداشتند. البته این تنها ضرر اکوسیستمِ دیپ‌فیک‌ها نبود. آنها در سال 2024 یک تریلیون دلار سود کردند و اگر همین‌گونه متخاصمانه پیش بروند، تا دو سال آینده، 40 میلیارد دلار دیگر برای اقتصاد جهان هزینه خواهند داشت.

کلاهبرداری یک‌دلاری

ولی چرا دیپ‌فیک‌ها اینقدر خوب شده‌اند؟ چرا ما فریب می‌خوریم؟ و پرسش بسیار ساده‌تر، آنهایی که فریب ایلان ماسک جعلی را خوردند، واقعاً ماسک را نمی‌شناختند یا در پلت‌فرم‌های مختلف او را ندیده بودند؟ دیپ‌فیک‌هایی که ماسک و دیگر چهره‌های معروف را به تصویر می‌کشند، به‌طور گسترده برای تسهیل طرح‌های آنلاین استفاده می‌شوند که کاربران ناآگاه را شکار کنند و آنها را برای انتقال پول به کلاهبرداران فریب دهند. این نوع کلاهبرداری که گاهی از طریق پُست‌های رسانه‌های اجتماعی حمایت و تبلیغ می‌شوند، با موفقیت کاربران را متقاعد می‌کنند ده‌ها یا صدها هزار دلار سپرده‌گذاری کنند. این کلاهبرداری‌های فریبنده از هوش مصنوعی پیشرفته برای ظاهر واقعی استفاده می‌کنند و گاهی اوقات همراه رویداد خبری (حقیقی) می‌شوند که مخاطبان پخش زنده خود را افزایش دهند. به این ترتیب پتانسیل گسترده‌ای برای فریب و کلاهبرداری (چه از سوی یک فرد، چه یک شرکت مجرمانه) با بهره‌گیری از «خدمات هوش مصنوعی»، «قدرت ایجاد تصاویر غیرقابل تشخیص» و «نقل و انتقالات ارزهای دیجیتال ناشناس» مهیا می‌شود. در واقع، فریب با قابلیت جعل عمیق به دلیل دانش فنی ‌(جمع‌آوری مجموعه داده‌ها، تفکیک و آموزش)، سخت‌افزارهای قدرتمند (قادر به انجام آموزش‌های فشرده) و نرم‌افزارهای پیشرفته (به‌عنوان پایه‌های کد تغییر چهره) مورد نیاز برای تولید دیپ‌فیک، دموکراتیک شده و از طریق پلت‌فرم‌های کاربرپسند و برنامه‌های تجاری به‌طور فزاینده‌ای در دسترس قرار می‌گیرد. با این حال، دیپ‌فیک به خودی خود بزرگ‌ترین تهدیدِ فضاهای آنلاین نیست. همان‌طور که در گفتمان‌های عمومی مورد بحث است، کلاهبرداری‌هایی از این دست نشان می‌دهد، دیپ‌فیک‌ها را می‌توان با «دستکاری اطلاعاتی پلت‌فرم‌های موجود برای بهره‌برداری از تایید پلت‌فرم»، «تقلید از چهره‌های عمومی» و «افزایش معیارهای تعامل و گیمیفی کردن (بازی‌وارسازی) الگوریتم‌های تِرَند» همراه کرد و کمپینی را به وجود آورد که ماحصل آن (گاه و نه همیشه) خطرناک و مجرمانه است. بگذارید با توضیح مبسوطی چگونگی ساخت دیپ‌فیک ایلان ماسک را بهتر توضیح دهیم.

آناتومی یک دیپ‌فیک

در کلاهبرداری مربوط به دیپ‌فیک ماسک، حساب جعلی، دارای یک نمایه کامل با تیک آبی، دارای 162 هزار مشترک و بیش از 34 میلیون بازدید بود و از سال 2022 فعالیت داشت. این حساب بسیار شبیه حساب رسمی تسلا بود و به همین دلیل، در نگاه نخست و در تشخیص تقلبی بودن حساب، ویورها (بازدیدکنندگان) دچار مشکل می‌شدند. از طرفی، کلاهبرداران با انتخاب ایلان ماسک، رهبر پرطرفدار ارزهای دیجیتال، حس مشروعیت را به کلاهبرداری خود اضافه کرده بودند و این مشروع‌سازی به آنها کمک کرد بهتر مخاطب را فریب دهند. گفته‌های این ویدئو نیز مشابه اظهارهای قبلی ماسک بود. آهنگ کلمات ماسک صرفاً کمی عجیب‌تر و غیرقابل تمییز برای عموم بود، پس با تکرار یا تعدیل اندک اظهارات قبلی ماسک، این ویدئو پرچم‌های قرمز کمتری را برای بینندگان برانگیخته بود. کمااینکه، یک ویدئوی 200ثانیه‌ای از صحنه اصلی تسلا، به گونه‌ای دستکاری شده بود که ایلان ماسک را در حال خواندن اسکریپتی (برنامه‌های کوچک که با زبان‌های برنامه‌نویسی نوشته شده‌اند) به تصویر بکشد که به کاربران دستور می‌داد ارزهای دیجیتال خود را به آدرس کیف پول «‌telsa-bitcoin.com‌» واریز کنند. این اسکریپت، یادآور نوع متنی بود که به وسیله الگوی زبانی بزرگ (LLM) تولید می‌شود و به نظر می‌رسید از دستورالعمل‌هایی همانند ‌«لحظه‌های کلیدی برای به حداکثر رساندن پتانسیل برنده شدن»، «بخش دستورالعمل‌های دقیق»، «جلسات پرسش و پاسخ» و «اعلان‌های پایانی» پیروی کرده است. یعنی دیپ‌فیکی را به وجود آورده که احساس فوریت را ترویج و بینندگان را تشویق می‌کند از فرصت استفاده کنند و به افرادی که با ارزهای رمزنگاری‌شده آشنایی ندارند، دستور می‌دهد، درگیر آن شوند. فراتر آنکه، نظرها در این استریم غیرفعال می‌شوند؛ کانال یوتیوب که پخش زنده را میزبانی می‌کند، به‌طور کامل به تقلید از کانال رسمی تسلا، موقتاً به «تسلا» تغییر نام می‌دهد، از لوگوی تسلا استفاده می‌کند، در زمان استریم، 420هزار سابسکرایبر (حامیان و همراهان) دارد و 81 هزار بیننده همزمان این سخنرانی فیک را می‌بینند، در طول لایو (زنده) نیز، تمام ویدئوهای کانال از فهرست آن حذف می‌شوند و پخش زنده به‌عنوان تنها محتوای کانال باقی می‌ماند. مهم‌تر از همه، این ویدئو بینندگان را هدایت می‌کند یک کد QR را با گوشی‌های هوشمند خود اسکن کنند که باعث می‌شود قربانیان بالقوه خارج از پلت‌فرم -تاکتیک رایجی که در کمپین‌های کلاهبرداری برای فریب دادن کاربران استفاده می‌شود- از هرگونه اقدام‌های کاهش میزان کلاهبرداری دور و محروم بمانند. در کنار آن، تعدادی از کیف پول‌های رمزنگاری مرتبط با سایت‌های خارج از پلت‌فرم کلاهبرداری، جایگزین کیف پول‌های تازه می‌شوند که ماهیت یک‌طرفه بودن تراکنش و عدم مشاهده «دو برابر شدن خودکار موجودی» پنهان بماند. اضافه بر آن، ارزها هم قبل از تقسیم شدن میان کیف پول‌های بیشتر در کیف پول‌های ثانویه جمع می‌شوند که درصد ردیابی تراکنش‌ها و به دست آوردن اسناد کلاهبردی، به حداقل برسد. مدت کوتاهی پس از پایان پخش زنده نیز کانال یوتیوب که Champs پخش زنده را با عنوان موقتی تسلا میزبانی می‌کرد، شروع به بازیابی خود می‌کند. ناگهان کانالی که صفر ویدئو داشت، حاوی دو هزار و 131 ویدئو می‌شود که همگی مرتبط به سال 2019 بودند. بخش «درباره» کانال نیز که قبلاً با نام تجاری تسلا خالی بود، برای مدت کوتاهی با «Im Back...» جایگزین می‌شود و همزمان مالک کانال در پلت‌فرم ‌Discord، فایل‌های تصویری با فرمت تبادل گرافیکی (GIF) را ارسال می‌کند که در آن فریاد می‌زند «پادشاه برگشته است» و حتی به نظرهای یوتیوب پاسخ می‌دهد و با بیان «مشکلی نیست» هرگونه نگرانی را رد می‌کند. یک سیرک کلاهبرداری رمزنگاری‌شده و دارای سناریو که قطعاً برای مخاطب عام و غیرآشنا به روش‌های کلاهبرداری و دستکاری عمدی /حرفه‌ای اطلاعات، حتی تماشای آن در زمان مشاهده استریم (Stream پدیده مبتنی بر اینترنت است که محتوای جذاب و سرگرم‌کننده‌ای در زمینه‌های مختلف ارائه می‌دهد) و هیجان‌های ناشی از آن، تماماً باخت است. البته فریب ‌خوردن فقط مختص مردم عادی نیست، شرکت‌های بزرگ، حتی رهبران سیاسی و نظامی دنیا هم گاه با دیپ‌فیک‌ها به فنا رفته‌اند و تاریخ شاهد آن بوده و هست.

اسب تروآ، چین، پوتین و پنتاگون

زمانی که یونانیان اسب چوبی تروجان را از ساحل، بیرون از دیوارهای تروی (شهر باستانی)، به داخل شهر خود بردند، فریب دیپ‌فیک چوبی را خوردند. وقتی استالین، رفقای خود را اعدام و از صفحه روزگار محو کرد و سپس عکس‌های به جای‌مانده را به نحوی تغییر داد که گویا این افراد هرگز وجود نداشته‌اند، تحریف و دستکاری اطلاعات، بُعد دیگری گرفت. زمانی که اسلوونی بعد از استقلال، نام بیش از 18 هزار نفر را از فهرست ساکنان خود حذف کرد، جعل اسناد وارد فاز دیگری شد. وقتی انتشار نامه گریگوری یوسویچ زینوویف (کمونیست روسی و از انقلابیون بلشویک) توسط دیلی میل -سند جعلی که ظاهراً از سوی رئیس کمینترن شوروی نوشته شده بود- بر انتخابات عمومی بریتانیا در سال 1924 تاثیر جدی گذاشت، پای دیپ‌فیک‌ها به سیاست، انتخابات و دموکراسی بیشتر باز شد. هنگامی که کمپین شایعه‌پراکنی «عملیات عفونت» شوروی، از اسناد جعلی برای انتشار این ایده استفاده کرد که ایالات‌متحده ویروس اچ‌آی‌وی را به‌عنوان سلاح بیولوژیک اختراع کرده است، جرئت واقعیت‌بخشی به شایعه در ابعادی مشابه را به ابرقدرت‌ها و توتالیترها داد. وقتی در سال 2004 بخش خبری شبکه رادیویی و تلویزیونی سی‌بی‌اس ‌نیوز (CBS News) شایعات بحث‌برانگیزی را که در مورد جرج بوش (چهل و سومین رئیس‌جمهور ایالات‌متحده آمریکا از حزب جمهوری‌خواه در فاصله سال‌های ۲۰۰۱ تا ۲۰۰۹) منتشر کرده بود، پس گرفت؛ چون نتوانست اسناد جعلی را که خدمات پیشین او در گارد هوایی ملی تگزاس را زیر سوال می‌برد، تایید کند؛ جعل‌کاران اطلاعاتی، کار خود را با فناوری توسعه دادند و کیفیت بخشیدند. اکنون، جهان نگران صنعتی شدن دستکاری اطلاعاتی با هوش مصنوعی است. چون، هوش مصنوعی، هزینه تولید محتوا و اینترنت هزینه توزیع آن را به صفر رسانده است و حجم عظیمی از اطلاعات جعلی می‌تواند دنیا را پر از «زباله‌های اطلاعاتی کُشنده» کند. حالا، جدیدترین آواتارهای تولیدی شرکت‌های پیش‌رو در هوش مصنوعی به قدری خوب هستند که نمی‌توان آنها را از واقعیت جدا کرد و در چنین دنیای مملو از «آدم‌های جعلی و تقلبی»، جنگ‌ها، سیاسی‌بازی‌ها و نزاع‌های اقتصادی، در لابه‌لای دیپ‌فیک‌های باکیفیت، به جنگ‌های هوشمند و غیرانسانی تبدیل شده است. درخواست تسلیم از سوی ولودیمیر زلنسکی (رئیس‌جمهور فعلی اوکراین)، که بلافاصله به‌عنوان دروغ واقعی فاش شد، نخستین تلاش برای استفاده از فناوری‌های هوشمند در درگیری‌های مسلحانه است و هیچ پایانی برای این نوع پیشرفت‌ها دیده نمی‌شود. زمان آن فرا رسیده که به دستکاری (تحریف) اطلاعات به‌عنوان یکی از ریسک‌های خطرناک جهان نگاه کنیم. شاید بسیاری از دیپ‌فیک‌های نسل نخست تاریخ به دلیل نقص تصویر یا صدا به راحتی قابل تشخیص بودند و به همین دلیل تا سال 2020، دولت‌ها خود را مجبور به ایجاد استراتژی واکنشی اختصاصی نمی‌دانستند، اما امروزه ابزارهای هوش مصنوعی با استفاده آسان که قادر به تولید محصول‌های باکیفیت هستند، به صورت رایگان در دسترس‌اند. دیپ‌فیک به کالای معمولی تبدیل شده و سه پیشرفت تکنولوژیک به‌طور خاص به سطح رشد کیفی آنها کمک کرده است: «بهبود مستمر هوش ‌مصنوعی»، «افزایش مداوم قدرت محاسباتی موجود» و «دسترسی به مقادیر فزاینده‌ای از داده‌هایی که می‌توان با آن هوش مصنوعی را آموزش داد». در حقیقت، برخلاف جعل‌های ارزان -که در آن ضبط‌های موجود به‌صورت دستی یا دیجیتالی به هم متصل می‌شوند، سرعت آنها کاهش یا افزایش می‌یابد- ادغام هوش مصنوعی، اینک، امکان ایجاد یا اصلاح خودکار محصول‌های رسانه‌ای را به صورت کاملاً حرفه‌ای و با اهداف مختلف فراهم کرده و برای همین، ساختن تصاویر جعلی از شخصیت‌های سیاسی دنیا هم کار سختی نیست. زیادند تصاویر و ویدئوهایی که ترامپ در آنها دستگیر می‌شود، پوتین را می‌بوسد یا پرچم چین را در آغوش می‌گیرد. نمونه‌های جدیدی که تقریباً هر روز به داده‌های پلت‌فرمی اضافه می‌شوند و تعدادی برای هشدار و تعدادی برای سرگرمی‌اند و البته تعدادی هم عمیقاً بحران‌ساز. طبیعتاً توئیت انفجارِ پنتاگون در 22 می 2023، برای سرگرمی نبوده است. توئیت این تصور را ایجاد کرد که این اتفاق، واقعی و گزارش رسمی از خبرگزاری بلومبرگ است. تصوری همراه با تصویری از دود سیاه بر فراز پنتاگون. دیپ‌فیکی که اگر ساختگی بودن آن به‌سرعت مشخص نمی‌شد، شاخص S&P500 را تا حدود 30 واحد کاهش می‌داد و این دست‌کمی از فاجعه نداشت. فاجعه‌ای که نه برآیند خرابکاری‌های سیاسی، استراتژی و مالی، بلکه ماحصل برنامه‌های هوش مصنوعی همانند Midjourney یا Stable Diffusion بود و متاسفانه نمونه‌های خطرناک بیشتری از آن تا به امروز رخ داده است.

77

آسمان را ببندید

در مارس 2022، نخستین تلاش قابل ‌توجه برای استفاده از دیپ‌فیک در یک درگیری مسلحانه انجام شد. پس از هک شدن وب‌سایت کانال تلویزیونی 24 اوکراین، ویدئویی دستکاری‌شده از رئیس‌جمهور این کشور دست‌به‌دست شد که در آن ولودیمیر زلنسکی از سربازانش می‌خواست سلاح‌های خود را زمین بگذارند و تسلیم روسیه شوند. اما این خبرگزاری بلافاصله پس از انتشار بیانیه‌ای مبنی بر هک ‌شدن، آن را حذف کرد. کیفیت پایین دیپ‌فیک، سرعت شناسایی و پرچم‌گذاری آن به‌عنوان ویدئویی جعلی، در کنار توانایی توزیع ویدئوی واقعی از طریق یک اتصال اینترنتی پایدار، به شکست دیپ‌فیکِ تسلیم اوکراین منجر شد. زلنسکی نیز با انتشار بیانیه‌ای -ویدئویی- در شبکه اجتماعی فیس‌بوک این شکست در جعل‌سازی را تایید کرد: «اگر من بتوانم به کسی پیشنهاد کنم که سلاح خود را زمین بگذارد، این ارتش روسیه است. آنها باید به خانه بروند. زیرا ما در خانه هستیم. ما از سرزمین خود، فرزندان و خانواده‌هایمان دفاع می‌کنیم.» با این حال، این مدیریت بحران سریع حتی با وجود تلاش و انتشار کتاب «بازی برای شکست دیپ‌فیک‌ها» از سوی بنیاد کارنگی همیشگی نماند. اما این‌بار شکل دیگری از محتوای دستکاری‌شده را به همراه داشت. یک ویدئوی ساختگی ویروسی با جلوه‌های ویژه تولید شده بود که نشان می‌داد با حمله به پاریس چه اتفاق‌هایی رخ خواهد داد. هدف این بود که به کشورهای اروپایی برای توقف روسیه در اوکراین، قبل از اینکه آنها نیز مورد حمله قرار بگیرند، هشدار داده شود. ویدئوی ساختگی با ژست گرفتن زنی در کنار برج ایفل شروع می‌شد. سپس چند انفجار در ساختمان‌های نمادین فرانسه، رخ می‌داد. عکس‌های بعدی، شامل صدای افراد شوکه‌شده‌ای بود که به زبان فرانسوی صحبت می‌کردند. صدای آژیر حمله هوایی در حین پرواز جت‌های جنگنده مردم را به‌شدت می‌ترساند؛ سپس متنی ظاهر می‌شد، «فقط فکر کنید؛ آیا این اتفاق می‌تواند در یک پایتخت اروپایی دیگر هم رخ دهد» و در نهایت این ویدئو با نقل قولی از زلنسکی به پایان می‌رسید: «ما تا آخر می‌جنگیم. آسمان را ببندید یا به ما جنگنده‌های هوایی بدهید. اگر ما سقوط کنیم، شما هم سقوط می‌کنید.» تاکید بر جملاتی که زلنسکی معمولاً از آنها استفاده می‌کند. به‌طور ویژه، «آسمان را ببندید»، عبارتی است که اغلب زلنسکی هنگام ترغیب اتحادیه اروپا و متحدان ناتو برای بستن حریم هوایی یا منطقه پرواز ممنوع بر فراز اوکراین در تلاش برای بازدارندگی روسیه از انجام حملات بیشتر از طریق هوا استفاده می‌کند و بنابراین بُعد واقعی‌تری به این ویدئو می‌داد. به گونه‌ای که، این ویدئوی فیک، از سوی چند اکانت رسمی در رسانه‌های اجتماعی اوکراین همانند حساب کاربری اولکساندر مرژکو، رئیس کمیته روابط خارجی اوکراین با این جمله به اشتراک گذاشته شد: «ما هم فکر می‌کردیم که هرگز نمی‌تواند اتفاق بیفتد.» حتی در حساب توئیتر وزارت دفاع اوکراین نیز این ویدئو منتشر شد و یک هفته بعد، پس از سخنرانی زلنسکی در کنگره آمریکا و پارلمان آلمان، این ویدئو همچنان در شبکه‌های اجتماعی به اشتراک گذاشته می‌شد. تا اینکه صدای رسانه‌های روسی درآمد و برخی همانند گروه تلگرامی موسوم به «جنگ علیه تقلب»، مدعی شدند مقام‌های اوکراینی عمداً این ویدئوی جعلی را با استفاده از گرافیک‌های کامپیوتری ایجاد کرده‌اند که از اروپا بخواهند منطقه‌ای پرواز ممنوع بر فراز اوکراین ایجاد کند. تقابل کلامی که در حال وخیم کردن شرایط میان روسیه و اوکراین بود. اولیاس بارکو، فیلمساز اوکراینی که خودش این ویدئو را ساخته بود، در مصاحبه با روزنامه فرانسوی لوموند و RTL گفت: «مقام‌های اوکراینی به او دستوری برای ساختن این ویدئو نداده‌اند و این کار خودسرانه‌ای بوده است.» او در توضیح این مطلب به لوموند گفته بود: «این کاری بود که خودم می‌خواستم انجام دهم و غرب را شوکه کنم. چون ما در جنگ جهانی سوم هستیم و این درگیری گسترده‌تر می‌شود. این یک فیلم پیش‌گویانه بود نه یک فیلم تبلیغاتی، اما گویا شرایط را بدتر کرد.» با توسعه فناوری دیپ‌فیک، گویی محدودیت‌های تولید و استفاده موثر از دیپ‌فیک‌ها دیگر ماهیت فنی نخواهد داشت، بلکه منحصراً به مسئله خلاقیت مرتبط است.

ترس، تحقیر ملی، حذف آدم‌ها

بررسی 15 هزار دیپ‌فیک در طول یک سال، ثابت کرده است دستکاری اطلاعات و شواهد ساختگی می‌تواند صرفاً برای فلج کردن یا نابودی اتحاد باشند. به‌عنوان مثال، کارشناسان امنیتی ایالات‌متحده ادعا کردند روسیه در حال برنامه‌ریزی برای تولید مدارک ویدئویی جعلی از جنایات جنگی اوکراین علیه جوامع روسی برای توجیه حمله به اوکراین است. چنین شواهد ویدئویی برای شروع بحث در کشورهای اروپایی در مورد مشروعیت عبور روسیه از مرز برای محافظت از اقلیت‌های روسی مناسب بود و می‌توانست از واکنش فوری به نفع اوکراین جلوگیری کند. اما در این مورد خاص، استفاده از دیپ‌فیک نبود که مشکوک بود، بلکه خود جعل سنتی با استفاده از ابزار و بازیگران انسانی بود که در قالب ایجاد یا تغییر شهادت شاهدان عینی از دستورهای صادرشده و برخلاف قوانین بین‌المللی، شکل ‌گرفته بود. همانند ویدئوهای جعلی از رهبران سیاسی یا نظامی که قصد تسلیم‌ شدن داشتند، با اظهارات تحقیرآمیز درباره نیروهای خودی که در عملیات کشته شده بودند، مفهوم و هدف عملیات نظامی را زیر سوال می‌بردند و روحیه نظامی را تضعیف می‌کردند و بعضاً در رسیدن به اهداف موفق هم می‌شدند. اما اغلب، هدف از انباشت تصاویر گرافیکی و ضبط‌های صوتی و انتشار اسناد، حذف مقام دولتی و سیاسی بوده و هنوز هم هست. در ژانویه 2024، در آستانه انتخابات تایوان، صدها پست ویدئویی در یوتیوب، اینستاگرام، ‌X و دیگر پلت‌فرم‌های اجتماعی با عنوان «تاریخ سِری تسای اینگ ون (نخستین رئیس‌جمهور زن در تاریخ تایوان)» منتشر شد. این تاریخ سِری، یک سند 300صفحه‌ای حاوی شایعات و محتوای منفی بود که برای نخستین‌بار در مرکز داده آنلاین Zenodo (پایگاه اطلاعاتی دسترسی آزاد) منتشر و به ویدئوهایی با صداهای تولیدی از طریق هوش مصنوعی تبدیل شد و در سایر پلت‌فرم‌ها انتشار یافت. این ویدئوها که حدود 100 بار در دقیقه به اشتراک گذاشته می‌شدند، در صورت حذف توسط پلت‌فرم‌ها یا مسدود شدن حساب‌ها، بلافاصله جایگزین و با استفاده از نرم‌افزار توسعه‌یافته «بایت‌دانس» (شرکت فناوری چینی که چند سیستم‌عامل محتوا با قابلیت یادگیری ماشینی را اداره می‌کند)، ویرایش و در شبکه اجتماعی دوئین (Douyin) منتشر می‌شدند. در این ویدئوها از میزبان‌های مجازی، از جمله شخصیت‌هایی که شبیه گویندگان اخبار چینی‌زبان بودند، استفاده می‌شد. با این حال، محتواهای فیک به دلیل کیفیت پایین تولید، از جمله ظاهر مصنوعی، صدای میزبان‌های مجازی و استفاده از اصطلاح‌های چینی که معمولاً توسط تایوانی‌ها استفاده نمی‌شود، نرخ تعامل بالایی ایجاد نمی‌کردند و بعد از شکست، متوقف می‌شدند. چین، از «تاریخ سِری تسای اینگ ون» تایوان به‌عنوان بستر آزمایشی برای تکنیک‌های جنگ اطلاعاتی استفاده کرد، اما نمایش قدرت در مقیاس بسیار فراتر از چیزی است که قبلاً ردیابی می‌شده است. نمایشی که به باور کارشناسان مدرسه کندی هاروارد (Harvard Kennedy School)، هم خطرناک (با آثار منفی و بد) و هم سازنده است.

78

خرید اعتماد

طرفداران جدی هوش مصنوعی و دستکاری مفید اطلاعات، با این استدلال که حداقل تاکنون، دیپ‌فیک‌ها آنقدر که تصور می‌شد آسیب سیاسی وارد نکرده‌اند، باور دارند دیپ‌فیک‌ها به جای آسیب سیاسی، می‌توانند با محتوای تولیدشده به وسیله هوش مصنوعی به مبارزه‌های انتخاباتی کمک کنند. گواه آنها برای این ادعا، استفاده سیاستمداران هندی از نرم‌افزار باسینی (Bhashini) به‌عنوان پلت‌فرم ترجمه مبتنی بر هوش مصنوعی، برای دوبله سخنرانی‌های خود به 22 زبان رسمی و هزاران گویش منطقه‌ای هند در سال 2024 است که باعث تعمیق ارتباط با رای‌دهندگان شد و آنان را به این اجماع رساند که «توانایی این فناوری برای تولید دیپ‌فیک‌های غیرتوافقی می‌تواند تشخیص حقیقت از داستان را دشوارتر کند، اما استفاده‌های توافقی آن، احتمالاً دموکراسی را در دسترس قرار می‌دهد». اجماعی که البته در خود هند نیز پذیرش همگانی نیافت. این کشور بیش از 400‌ میلیون کاربر واتس‌اپ و تقریباً ‌820 میلیون کاربر فعال اینترنت دارد. اما بیش از نیمی از کاربران اینترنت در مناطق روستایی مستقر هستند، جایی که آگاهی و توانایی شناسایی دیپ‌فیک‌ها ضعیف‌تر است. از این حیث، بسیاری از رصدگران اینترنتی، پژوهشگران و حتی سلبریتی‌های هند در قالب بیانیه مطبوعاتی ‌«نفوذ فراگیر هوش مصنوعی بر مبارزه‌های سیاسی جهانی در سال 2024» استفاده از دیپ‌فیک‌های انتخاباتی را عقلانی ندانستند. این دیپ‌فیک‌ها در قالب تصاویر و ویدئوهای خنده‌دار یا گمراه‌کننده با هدف قرار دادن مخالفان، تقویت تصاویر سیاستمداران، بازگرداندن چهره‌های محبوب برای حمایت از حزبشان و پخش داستان‌های نادرست در مورد رقبا، در طول مبارزه‌های سیاسی مورد استفاده قرار گرفته بود. آنها با استناد به اینکه، در دو ماه منتهی به انتخابات سراسری که در آوریل تا ژوئن 2024 برگزار شد، بیش از 50 میلیون تماس خودکار با استفاده از فناوری هوش مصنوعی با مردم انجام شد و عواملی همانند کمپین‌های سیاسی مبتنی بر هوش مصنوعی، شناسایی اطلاعات نادرست، نفوذ دیپ‌فیک‌ها، اقدام‌های نظارتی و یکپارچگی کلی دیجیتال در انتخابات، به محل مباحثه‌های جدی تبدیل شد، خواستار اجرای قوانین یکپارچه در برخورد با دستکاری اطلاعات و تهدیدهای جدی دیپ‌فیک‌ها شدند. این در حالی بود که در کنفرانس امنیتی مونیخ نیز بیش از 20 شرکت بزرگ فناوری، از جمله گوگل، متا و تیک‌تاک، متعهد شده بودند دیپ‌فیک‌هایی را که برای گمراه کردن طراحی شده‌اند، نابود کنند. آنها «محتوای تروریستی آنلاین»، «سوءاستفاده از هویت دیجیتالی»، «تفرقه‌افکنی»، «تحریک نفرت و تشدید خشونت»، «جعل و دستکاری اطلاعاتی»، «سوءاستفاده از تصاویر غیرتوافقی، آزار و اذیت، باج‌گیری و اخاذی» و «خطر عدالت کیفری» را هفت دلیل تهدیدساز اطلاعات گمراه‌کننده، دستکاری‌شده و جعلی عنوان کردند.

چگونه فرار کنیم؟

آروپ (Arup)، شرکت معماری و طراحی 78ساله مستقر در لندن، با بیش از 18 هزار نفر در 34 دفتر سراسر جهان (که به خاطر طراحی خانه اُپرای نمادین سیدنی و استادیوم اتحاد در منچستر معروف شد) در اوایل سال 2024، قربانی مشهور کلاهبرداری‌های چند میلیون‌دلاری دیپ‌فیک جهان شد. یکی از کارمندان این شرکت در هنگ‌کنگ در تماس ویدئویی با مدیر مالی آروپ و سایر کارکنانش، 6 /25 میلیون دلار (آمریکا) را طی 15 تراکنش به پنج حساب محلی کلاهبرداران انتقال داد و بعدها از طریق دفتر مرکزی در بریتانیا متوجه شد که مورد کلاهبرداری قرار گرفته است. این اتفاق از زمانی که با کارمند آروپ تماس گرفته شد، تا زمانی که شرکت شروع به بررسی موضوع کرد، فقط هفت روز (یک هفته) به طول انجامید. چیزی که در مورد این کلاهبرداری فوق‌العاده بود، انتشار ویدئو جعلی از همه افراد حاضر در تماس ویدئویی -به غیر از قربانی- از طریق رایانه از یک شخص واقعی بود که در آروپ کار می‌کرد. دیپ‌فیک صوتی هوش مصنوعی (AI) مورد استفاده در یک کلاهبرداری مالی هدفمند از مدیرعامل یک شرکت انرژی مستقر در بریتانیا نیز یکی دیگر از دلایل توافق مونیخ بود. پنج کلاهبردار صدای مدیرعامل شرکت مادر را تقلید کرده بودند. این تقلید، الگوهای گفتاری و لهجه آلمانی او را هم دربر می‌گرفت. آنها با مدیرعامل شرکت بریتانیایی تماس گرفتند و وانمود کردند رئیس او هستند و به او دستور دادند 220 هزار یورو به حساب بانکی مجارستانی یک تامین‌کننده واریز کند. مدیرعامل نیز همین کار را کرد و پس از انتقال پول فهمید که چه کلاهی سر او رفته است. نمونه دیگری از استفاده غیرمجاز از دیپ‌فیک صوتی مربوط به بازیگر، کارگردان و نویسنده بریتانیایی استفان فرای (Stephen John Fry) بود. در این سوءاستفاده هویتی، از نرم‌افزار هوش مصنوعی برای تکرار صدای او در کتاب صوتی هری پاتر استفاده شد. سپس این صدای شبیه‌سازی‌شده برای روایت یک مستند تاریخی درباره مقاومت نازی‌ها مورد استفاده قرار گرفت. این دیپ‌فیک به قدری دقیق بود که کاملاً لهجه و لحن فرای را تقلید می‌کرد، حتی نام‌ها و کلمات آلمانی و هلندی را که او هرگز نگفته بود نیز شامل می‌شد. پس از این اتفاق، فرای به همراه بسیاری از آسیب‌دیدگان دیپ‌فیک‌ها، با ابراز نگرانی از سوءاستفاده احتمالی از هوش مصنوعی که می‌تواند صداها و چهره‌ها را بدون اجازه برای ایجاد محتوای دیپ‌فیک دستکاری کند، خواستار اجماع نظارتی و پایش جهانی در این زمینه شد. سوءاستفاده جنسی از 50 دانش‌آموز دختر یک مدرسه خصوصی در استرالیا و انتشار تصاویر برهنه آنها در فضای مجازی نیز که خشم عمومی را در پی داشت، به‌خصوص اینکه قبل از آن، دستکاری تصاویر پنی وانگ، وزیر خارجه و کیتی کالاگر، وزیر دارایی استرالیا در تبلیغات فیس‌بوک برای کلاهبرداری‌های مالی، خشونت و توهین به زنان تلقی شده بود، یکی دیگر از دلایل این اجماع بود. در کنار این اتفاق‌ها و 14‌ هزار مورد دیگر، گزارش جدید موسسه فعال در حوزه تایید هویت با نام «Regula»‌ که تجزیه‌وتحلیل کاملی از چگونگی تاثیر فناوری دیپ‌فیک بر صنایعی همانند خدمات مالی، رمزنگاری، مراقبت‌های بهداشتی و... دارد، بر اجماع مونیخ صحه گذاشت و خواستار رویکردهای پیشگیرانه و محدودیت‌سازی شد. این گزارش تاکید کرد، ترکیبی از ابزارهای هوشمند در اختیار کلاهبرداران و دست‌کم گرفتن آسیب‌پذیری در برابر دیپ‌فیک‌ها در فرمت‌های ویدئویی، صوتی و جعل اسناد باعث شده تقریباً همه (92 درصد) مشاغل ضرر مالی را تجربه کنند. بر اساس یافته‌های این گزارش، در حالی که تلاش برای کلاهبرداری دیپ‌فیک نزدیک به 450 هزار دلار برای کسب‌وکارها هزینه دارد، بیش از یک‌چهارم (28 درصد) از رهبران کسب‌وکار، بیش از نیم‌میلیون دلار به خاطر دیپ‌فیک‌ها از دست داده‌اند. جالب اینکه کسب‌وکارهای فین‌تک -که بسیاری از آنها محصول‌های امنیت سایبری مبتنی بر هوش مصنوعی را توسعه می‌دهند- به‌طور قابل‌ توجهی بیشتر از صنایع سنتی و به‌طور متوسط بیش از 630هزار دلار ضرر کرده‌اند. با وجود این، در حالی که 76 درصد از صاحبان کسب‌وکار با وجود رشد سه‌هزار‌درصدی دیپ‌فیک‌ها در سال 2023 معتقدند شرکت آنها می‌تواند تهدیدها را شناسایی کند، کمتر از نیمی (47 درصد) از مدیران موافق این ادعا هستند و این نشانگر شکاف فزاینده میان اعتماد رهبری به امنیت سایبری و ظرفیت واقعی سازمان‌ها برای دفاع از خود است. شکافی که در سطح کلان هم مشهود است و گاه رویکردهای پیشگیرانه، خود آسیب‌زا می‌شوند. مثلاً، برای کاهش تعداد بازیگران جعل اطلاعات و کنترل آنها چه مردم باشند و چه دولت‌ها و استراتژیست‌های سیاسی و مالی، کنترل دسترسی به نرم‌افزار و سخت‌افزارهای تخصصی، به‌عنوان راهکار جدی پیشنهاد می‌شود، اما گاه کلاهبرداری در سایه دور زدن این محدودیت‌ها نیز خود به جعل اطلاعات می‌انجامد. از این‌رو، در مواجهه با استفاده روزافزون از ابزارهای هوش مصنوعی مولد (GenAI) برای افزایش حجم و واقع‌گرایی حملات دیپ‌فیک، این راهکارها می‌تواند ساده‌ترین و موثرترین باشد. یادتان نرود: از هوش مصنوعی برای مبارزه با هوش مصنوعی استفاده کنید. آگاه شوید و آموزش ببینید. استراتژی Zero Trust (مدل امنیتی سخت‌گیرانه در فناوری اطلاعات) را بپذیرید؛ بدان معنا که بدانید از داخل یا خارج از شبکه به‌طور پیش‌فرض به کسی نمی‌شود اعتماد کرد و برای هر کسی که سعی در دستیابی به منابع موجود در شبکه دارد، تایید لازم است. با تایید هویت بیومتریک مبتنی بر هوش ‌مصنوعی نیز کلاهبرداران را در مرحله ورود به سیستم متوقف کنید که از جعل‌های بزرگ در امان بمانید. در نهایت هوش مصنوعی را در آغوش بگیرید، اما هر آن، آماده خفه ‌شدن باشید، چون قدرت آن، قابل کنترل نیست و هر کاربر هوش مصنوعی می‌تواند نخستین یا بزرگ‌ترین مجرم سایبری دنیا باشد. 

دراین پرونده بخوانید ...