شناسه خبر : 46316 لینک کوتاه
تاریخ انتشار:

تصاویری که اتفاق نیفتاد

محتوای تولید هوش مصنوعی و ارزش اعتماد

این روزها می‌‌توان با تکان دادن یک موشواره محتوایی جعلی اما واقع‌گرایانه تولید کرد. این کار می‌تواند جالب باشد. به عنوان مثال، یک ویدئو در تیک‌تاک تام کروز مصنوعی را نشان می‌دهد که لباسی بنفش پوشیده است و آهنگ «رقاص کوچک» را برای پاریس هیلتون می‌خواند، در حالی که او یک سگ اسباب‌بازی در دست دارد. این ویدئو 1 /5 میلیون دنبال‌کننده را جذب کرد. چنین امکانی به معنای یک تحول عمیق در جوامعی خواهد بود که از قدیم عکس‌ها، فیلم‌ها و فایل صوتی را دلیل محکمی برای واقعی بودن یک چیز می‌دانستند. شیادان تلفنی اکنون فقط به 10 ثانیه صدا نیاز دارند تا صدای عزیزان به دردسرافتاده را تقلید کنند. تام هنکس و تیلور سویفت‌های قلابی ساخت هوش مصنوعی محصولات بی‌کیفیت را در فضای آنلاین تبلیغ می‌کنند و فیلم‌های تقلبی از سیاستمداران به‌طور گسترده‌ای پخش می‌شوند.

مشکل بنیادین یک معضل قدیمی است. از دوران اختراع چاپ تا پیدایش اینترنت، فناوری‌های جدید اغلب به پخش دروغ‌ها یا جعل شخصیت‌های معتبر کمک کرده‌اند. انسان‌ها معمولاً راه‌هایی میان‌بر برای کشف جعلیات پیدا می‌کنند. به عنوان مثال، وجود غلط‌های املایی فراوان نشان می‌دهد که ایمیل شما متقلبانه است. به تازگی تصاویری را که هوش مصنوعی از افراد می‌سازد می‌‌توان با شکل عجیب دستان تشخیص داد. فیلم‌ها و اصوات تقلبی اغلب با هم هماهنگی ندارند. محتوای غیرمنطقی بلافاصله تردید کسانی را برمی‌انگیزد که می‌دانند چه کارهایی از دست هوش مصنوعی برمی‌آید.

مشکل آن است که تشخیص جعلیات روزبه‌روز دشوارتر می‌شود. با افزایش توان رایانش و رواج آموزش با داده‌ها هوش مصنوعی مرتب پیشرفت می‌کند. آیا یک نرم‌افزار مجهز به هوش مصنوعی تشخیص تقلب که در جست‌وجوگرهای وب تعبیه شده است می‌تواند محتوای ساخت کامپیوترها را شناسایی کند؟ متاسفانه خیر. مسابقه بین تولید و تشخیص به نفع متقلبان تمام می‌شود. در نهایت، الگوهای هوش مصنوعی خواهند توانست مطالب جعلی بی‌عیب و نقص بسازند که درست شبیه رویدادی خواهد بود که می‌توانست واقعاً اتفاق بیفتد. حتی بهترین سامانه‌های تشخیص هم نمی‌توانند ایرادی در آن بیابند. می‌‌توان شرکت‌های تحت نظارت را وادار کرد تا در مدل‌هایشان از واترمارک استفاده کنند اما این الزام بر شیادانی که از الگوهای منبع باز استفاده می‌کنند تاثیری ندارد. الگوهایی که به راحتی در منزل و بر روی لپ‌تاپ‌هایشان قابل اجرا هستند. 

احتمالات شرورانه فراوان‌اند. به عنوان مثال می‌‌توان جهانی را تصور کرد که در آن هر کسی با استفاده از یک الگوی منبع باز در زیرزمین خانه‌اش بتواند عکس‌های مستهجن از دیگران بسازد و از آنها برای اخاذی استفاده کند. اف‌بی‌آی (FBI) در گذشته نسبت به چنین جرمی هشدار داده بود. حتی ممکن است کسی یک فیلم از رئیس‌جمهور یا نخست‌وزیری درست کند که اولین حمله هسته‌ای را اعلام می‌کند و به این ترتیب برای مدتی کوتاه جهان را در وحشت و اضطراب فرو ببرد. تعداد شیادانی که خود را در قالب آشنایان جا می‌زنند زیاد خواهد شد. 

با این حال جوامع هم خود را با جعلیات وفق می‌دهند. انسان‌ها یاد می‌گیرند که عکس، صوت یا فیلم یک چیز دلیلی برای اثبات واقعیت آن نیست و فقط مثل یک نقاشی عمل می‌کند. محتوای آنلاین دیگر نمی‌تواند صحت خود را تایید کند، بنابراین شخص بارگذاری‌کننده به همان اندازه خود محتوا اهمیت پیدا می‌کند. با فرض اینکه منابع قابل اعتماد بتوانند از طریق URL، آدرس ایمیل و سکوهای رسانه‌های اجتماعی هویت خود را ثابت کنند شهرت و اثبات واقعیت بیش از هر زمانی اهمیت پیدا خواهد کرد.

شاید به نظر عجیب بیاید اما چنین اهمیتی در گذشته هم وجود داشته است. دوران محتوای مورد اعتماد و انبوه یک عصر استثنایی بود. این واقعیت که انسان‌ها نمی‌توانند به زودی دست نامرئی هوش مصنوعی را پیدا کنند بدان معنا نیست که بازار دیدگاه‌ها و نظرات محکوم به شکست است. با گذشت زمان فقط جعلیاتی رونق پیدا می‌کنند که جنبه شوخی و سرگرمی دارند. 

دراین پرونده بخوانید ...

پربیننده ترین اخبار این شماره

پربیننده ترین اخبار تمام شماره ها