تصاویری که اتفاق نیفتاد
محتوای تولید هوش مصنوعی و ارزش اعتماد
این روزها میتوان با تکان دادن یک موشواره محتوایی جعلی اما واقعگرایانه تولید کرد. این کار میتواند جالب باشد. به عنوان مثال، یک ویدئو در تیکتاک تام کروز مصنوعی را نشان میدهد که لباسی بنفش پوشیده است و آهنگ «رقاص کوچک» را برای پاریس هیلتون میخواند، در حالی که او یک سگ اسباببازی در دست دارد. این ویدئو 1 /5 میلیون دنبالکننده را جذب کرد. چنین امکانی به معنای یک تحول عمیق در جوامعی خواهد بود که از قدیم عکسها، فیلمها و فایل صوتی را دلیل محکمی برای واقعی بودن یک چیز میدانستند. شیادان تلفنی اکنون فقط به 10 ثانیه صدا نیاز دارند تا صدای عزیزان به دردسرافتاده را تقلید کنند. تام هنکس و تیلور سویفتهای قلابی ساخت هوش مصنوعی محصولات بیکیفیت را در فضای آنلاین تبلیغ میکنند و فیلمهای تقلبی از سیاستمداران بهطور گستردهای پخش میشوند.
مشکل بنیادین یک معضل قدیمی است. از دوران اختراع چاپ تا پیدایش اینترنت، فناوریهای جدید اغلب به پخش دروغها یا جعل شخصیتهای معتبر کمک کردهاند. انسانها معمولاً راههایی میانبر برای کشف جعلیات پیدا میکنند. به عنوان مثال، وجود غلطهای املایی فراوان نشان میدهد که ایمیل شما متقلبانه است. به تازگی تصاویری را که هوش مصنوعی از افراد میسازد میتوان با شکل عجیب دستان تشخیص داد. فیلمها و اصوات تقلبی اغلب با هم هماهنگی ندارند. محتوای غیرمنطقی بلافاصله تردید کسانی را برمیانگیزد که میدانند چه کارهایی از دست هوش مصنوعی برمیآید.
مشکل آن است که تشخیص جعلیات روزبهروز دشوارتر میشود. با افزایش توان رایانش و رواج آموزش با دادهها هوش مصنوعی مرتب پیشرفت میکند. آیا یک نرمافزار مجهز به هوش مصنوعی تشخیص تقلب که در جستوجوگرهای وب تعبیه شده است میتواند محتوای ساخت کامپیوترها را شناسایی کند؟ متاسفانه خیر. مسابقه بین تولید و تشخیص به نفع متقلبان تمام میشود. در نهایت، الگوهای هوش مصنوعی خواهند توانست مطالب جعلی بیعیب و نقص بسازند که درست شبیه رویدادی خواهد بود که میتوانست واقعاً اتفاق بیفتد. حتی بهترین سامانههای تشخیص هم نمیتوانند ایرادی در آن بیابند. میتوان شرکتهای تحت نظارت را وادار کرد تا در مدلهایشان از واترمارک استفاده کنند اما این الزام بر شیادانی که از الگوهای منبع باز استفاده میکنند تاثیری ندارد. الگوهایی که به راحتی در منزل و بر روی لپتاپهایشان قابل اجرا هستند.
احتمالات شرورانه فراواناند. به عنوان مثال میتوان جهانی را تصور کرد که در آن هر کسی با استفاده از یک الگوی منبع باز در زیرزمین خانهاش بتواند عکسهای مستهجن از دیگران بسازد و از آنها برای اخاذی استفاده کند. افبیآی (FBI) در گذشته نسبت به چنین جرمی هشدار داده بود. حتی ممکن است کسی یک فیلم از رئیسجمهور یا نخستوزیری درست کند که اولین حمله هستهای را اعلام میکند و به این ترتیب برای مدتی کوتاه جهان را در وحشت و اضطراب فرو ببرد. تعداد شیادانی که خود را در قالب آشنایان جا میزنند زیاد خواهد شد.
با این حال جوامع هم خود را با جعلیات وفق میدهند. انسانها یاد میگیرند که عکس، صوت یا فیلم یک چیز دلیلی برای اثبات واقعیت آن نیست و فقط مثل یک نقاشی عمل میکند. محتوای آنلاین دیگر نمیتواند صحت خود را تایید کند، بنابراین شخص بارگذاریکننده به همان اندازه خود محتوا اهمیت پیدا میکند. با فرض اینکه منابع قابل اعتماد بتوانند از طریق URL، آدرس ایمیل و سکوهای رسانههای اجتماعی هویت خود را ثابت کنند شهرت و اثبات واقعیت بیش از هر زمانی اهمیت پیدا خواهد کرد.
شاید به نظر عجیب بیاید اما چنین اهمیتی در گذشته هم وجود داشته است. دوران محتوای مورد اعتماد و انبوه یک عصر استثنایی بود. این واقعیت که انسانها نمیتوانند به زودی دست نامرئی هوش مصنوعی را پیدا کنند بدان معنا نیست که بازار دیدگاهها و نظرات محکوم به شکست است. با گذشت زمان فقط جعلیاتی رونق پیدا میکنند که جنبه شوخی و سرگرمی دارند.