بازی رسانههای اجتماعی
رفتار افراد در شبکههای اجتماعی از چه الگویی تبعیت میکند؟
دارون عجماوغلو و همکاران (2023)، در این مقاله، الگویی از اشتراکگذاری محتوای آنلاین را ارائه میکنند که در آن افراد بهطور متوالی محتوایی را مشاهده میکنند و تصمیم میگیرند آن را با دیگران به اشتراک بگذارند یا خیر. این محتوا ممکن است حاوی اطلاعات نادرست باشد یا نباشد. هر فردی با یک سوگیری ایدئولوژیک شروع میکند و از تعاملات مثبت رسانههای اجتماعی مطلوبیت کسب میکند، اما نمیخواهد به دلیل انتشار اطلاعات نادرست مورد انتقاد قرار گیرد. نویسندگان این مقاله، تعادل (بیزین-نش) این بازی رسانه اجتماعی را مشخص میکنند و اثبات میکنند که این تعادل، مکملهای استراتژیک را نشان میدهد. در این چهارچوب، بررسی میشود که چگونه یک پلتفرم علاقهمند به بهحداکثر رساندن تعامل، الگوریتم خود را طراحی میکند. نتیجه اصلی این مقاله نشان میدهد که وقتی محتواهای مربوطه قابلیت اطمینان پایینی دارند و بنابراین احتمالاً حاوی اطلاعات نادرست هستند، الگوریتم به حداکثر رساندن تعامل، شکل یک «حباب فیلتر» را به خود میگیرد که یک اتاق پژواک از کاربران همفکر ایجاد میکند. علاوه بر این، حبابهای فیلتر زمانی که قطبیت بیشتر در جامعه وجود دارد و محتوا تفرقهافکنتر است، محتملتر میشود. در نهایت، راهحلهای نظارتی مختلفی برای چنین اطلاعات نادرستی که از سوی پلتفرمها تولید میشود، مورد بحث قرار میگیرد.
معرفی و بحث
رسانههای اجتماعی به منبع مهمی از اطلاعات برای شهروندان در سراسر جهان تبدیل شدهاند. قبل از انتخابات ریاستجمهوری 2016 ایالاتمتحده، 14 درصد از آمریکاییها رسانههای اجتماعی را بهعنوان منبع اصلی اخبار خود معرفی کردند و تا سال 2019، بیش از 70 درصد از آمریکاییها گزارش دادند که حداقل بخشی از اخبار خود را از شبکههای اجتماعی دریافت کردهاند. در عین حال، نگرانی فزایندهای در مورد اطلاعات نادرست در پلتفرمهای رسانههای اجتماعی، از جمله اخبار ساختگی در مورد نامزدهای سیاسی ایالاتمتحده، گزارشهای گمراهکننده برگزیت و تصاویر فتوشاپشده در طول انتخابات ملی هند وجود دارد. شواهد اخیر نشان میدهد که اطلاعات نادرست در رسانههای اجتماعی بر تصمیمات حیاتی مانند واکسیناسیون علیه کووید 19، تاثیر گذاشته است. اگرچه هیچ اتفاقنظری در مورد اینکه چه چیزی باعث گسترش مطالب نادرست و گمراهکننده در رسانههای اجتماعی میشود وجود ندارد، بر دو مجموعه از عوامل تاکید شده است. اولین مورد وجود اتاقهای پژواک است که زمانی ایجاد میشود که کاربران با افراد همفکر ارتباط برقرار میکنند و محتوا را به اشتراک میگذارند. مطالعات تورنبرگ (2018) و ویکارو و همکاران (2016)، نشان میدهد که اتاقهای پژواک دیدگاههای سیاسی موجود را تقویت میکنند و تمایل به انتشار اطلاعات نادرست دارند. رسانههای اجتماعی به کاربران این امکان را میدهند که انتخاب کنند به چه کسی و چه چیزی بیشتر از رسانههای سنتی گوش دهند، بنابراین اتاقهای پژواک ممکن است یکی از اثرات جانبی اجتنابناپذیر تعاملات آنلاین باشد. همچنین شواهدی وجود دارد که اتاقهای پژواک نتیجه «حبابهای فیلتر» هستند که الگوریتمهای پلتفرم با تبلیغ محتوای کاربران همفکر ایجاد میکنند. عامل دوم، دوقطبی شدن فضای سیاسی عمومی در بسیاری از کشورها و به ویژه ایالاتمتحده است. شواهد اولیهای وجود دارد که نشان میدهد قطبی شدن به قرار گرفتن گزینشی در معرض محتوای مشکوک در رسانههای اجتماعی نیز کمک کرده است. بهرغم اهمیت این مسائل، در حال حاضر چهارچوبی برای درک اینکه چگونه تعاملات آنلاین بر گسترش اطلاعات نادرست تاثیر میگذارد و چه عواملی انگیزههای بهاشتراکگذاری محتوای با قابلیت اطمینان پایین را شکل میدهند، وجود ندارد. در این مقاله، یک الگوی میانهرو از رفتار اشتراکگذاری آنلاین در حضور اطلاعات نادرست ایجاد میشود و بهعنوان اولین قدم، بر رفتار عوامل کاملاً بیزی تمرکز میشود. این الگو براساس N کاربر رسانههای اجتماعی استوار است. هر عامل (کاربر) در مورد وضعیت جهان «سوگیری ایدئولوژیک» اولیه دارد و از طریق شبکهای به بقیه کاربران متصل است که از سوی الگوریتمهای پلتفرم رسانههای اجتماعی شکل میگیرد. یک محتوای خبری که با یک نوع اساسی تعریف شده است (درست یا حاوی اطلاعات نادرست)، یعنی یک پیام (جناح راست یا چپ) با سطحی از قابلیت اطمینان (که احتمال اطلاعات نادرست را تعیین میکند)، برای یکی از کاربران ارسال میشود. پیام و سطح قابلیت اعتماد عمومیت دارد، در حالی که، درستی یا نادرستی اطلاعات مشاهده نمیشود و کاربران در مورد این موضوع، باورهایی را شکل میدهند. با توجه به این باورها، کاربر مورد نظر تصمیم میگیرد که محتوای خبری را نادیده بگیرد، دوست نداشته باشد یا به اشتراک بگذارد. اگر به اشتراک گذاشته شود، خبر از کاربر بهطور متوالی به ارتباطات او در رسانههای اجتماعی منتقل میشود که سپس با همان انتخابها روبهرو میشوند. اگر خبر نادیده گرفته شود یا مورد پسند نباشد، از کاربر عبور نمیکند. فرض میشود که کاربران زمانی که محتوای مشترکشان دوباره به اشتراک گذاشته میشود، مطلوبیت دریافت میکنند و در صورت نپسندیدن، متحمل هزینه میشوند. جنبه اول نقش تعامل مثبت در رسانههای اجتماعی را نشان میدهد، درحالیکه دومی نشاندهنده از دست دادن شهرت ناشی از انتقاد برای بهاشتراکگذاری محتوای حاوی اطلاعات نادرست است. کاربران علاوه بر این، از انتقاد یا «نپسندیدن» مواردی که به عقیده آنها حاوی اطلاعات نادرست است، مطلوبیت کسب میکنند. در این مقاله تعادل بیزی-نش این بازی متوالی مشخص میشود. تعادلها وجود دارند و در استراتژیهای منقطع هستند- کاربر هر موردی را که فکر میکند درست است با احتمال زیاد به اشتراک میگذارد و محتوایی را که حاوی اطلاعات نادرست هستند، دوست ندارد. مواردی که دارای باورهای متوسط هستند نادیده گرفته میشوند. باورها در مورد صحت محتواها براساس قابلیت اعتماد و پیام محتوا و ایدئولوژی کاربر (قبلی) شکل میگیرد. در این مقاله ابتدا ثابت میشود که بازی مدنظر این مطالعه مکملهای استراتژیک را نشان میدهد: وقتی دیگران احتمال بیشتری برای اشتراکگذاری محتوایی دارند، هر کاربر نیز احتمال بیشتری دارد که این کار را انجام دهد. در نتیجه، نشان داده میشود که مجموعه تعادلها یک شبکه را تشکیل میدهند، با تعادلهای بیشترین اشتراکگذاری و کمترین اشتراکگذاری کاملاً تعریفشده. همه محتواهای مشابه و با قابلیت اطمینان پایین کمتر به اشتراک گذاشته میشوند، در حالی که محتواهایی که «احساساتی» هستند (به دلیل محتوای تحریکآمیز یا جذابیت گسترده به دلایل دیگر) بیشتر به اشتراک گذاشته میشوند. سپس توجه به سمت انتخابهای طراحی الگوریتم پلتفرم معطوف میشود. فرض میشود که پلتفرمها شبکه اشتراکگذاری کاربران را برای حداکثر کردن تعامل (که در خدمت افزایش درآمد از تبلیغات است) تعیین میکنند. هنگامی که شبکه، حاوی کاربران همفکر هستند، میزان «هموفیلی» یا میزان اشتراکگذاری محتوا میان کاربران با ایدئولوژیهای مشابه فراهم میشود. نتیجه اصلی این مقاله نشان میدهد که در حضور محتواهای با قابلیت اطمینان پایین (که احتمالاً حاوی اطلاعات نادرست هستند)، انتخاب الگوریتم به حداکثر رساندن تعامل، القای حداکثر هموفیلی است. در مقابل، با محتوای با قابلیت اطمینان بالا، این پلتفرم هیچگونه ارتباط هموفیلی و حداکثری را ترجیح نمیدهد. این الگوی دوشاخهای از انتخابهای الگوریتمی نشاندهنده عدم یکنواختی اساسی در الگوی این مقاله است. در شرایط برابر، هموفیلی بالا باعث کاهش انتشار محتوا و در نتیجه تعامل کاربر میشود. با این حال، در مقابله با این، هموفیلی بالا باعث میشود که محتوای کماعتماد از بررسیها فرار کند، زیرا در میان افراد همفکری به اشتراک گذاشته میشود که مستعد موافقت با پیام آن هستند، بنابراین احتمالاً خودشان آن را به اشتراک میگذارند و بعید است که آن را دوست نداشته باشند. در مقابل، محتوای با قابلیت اطمینان پایین احتمالاً پسندیده نمیشود و احتمال کمتری دارد که در شبکههای متنوع ایدئولوژیک به اشتراک گذاشته شود. این غیریکنواختی نشان میدهد که در مواجهه با محتوای با قابلیت اطمینان پایین، پلتفرم ترجیح میدهد حبابهای فیلتر تشکیل دهد: در این شرایط، اتاقهای پژواک برای پلتفرمها جذاب هستند، دقیقاً به این دلیل که محیطی ایجاد میکنند که در آن انتشار محتوای با قابلیت اطمینان پایین امن است. در نتیجه، حبابهای فیلتر و انتشار خبر بدون منتقد زمانی که محتوای مربوط به احتمال زیاد حاوی اطلاعات نادرست باشد، شایعتر میشوند. استاتیک مقایسهای حبابهای فیلتر نیز به همان اندازه نگرانکننده است. در این مقاله نشان داده میشود که وقتی جامعه از نظر سیاسی قطبی شده است و محتواها تفرقهبرانگیزتر هستند، پلتفرمها به احتمال زیاد حبابهای فیلتر را ترجیح میدهند (که باعث اختلاف بیشتر بین عوامل با ایدئولوژیهای مختلف میشود). شهود این استاتیک مقایسهای به منطق حبابهای فیلتر مربوط میشود. با دوقطبی شدن سیاسی و تفرقهافکنی بیشتر، محتویات با قابلیت اطمینان پایین بیشتر مورد پسند قرار نمیگیرند و در شبکههای مختلف از نظر ایدئولوژیک پخش نمیشوند و پلتفرمها را وادار میکنند، اتاقهای پژواک را انتخاب کنند. اگر الگوریتمهای پلتفرم اطلاعات نادرست را منتشر کنند، سیاستهای عمومی میتوانند از این نوع رفتار جلوگیری کنند. در قسمت پایانی مقاله، یک معیار رفاه اجتماعی مربوط به کسب اطلاعات تعریف میشود -فاصله متوسط بین باورهای کاربر و وضعیت واقعی- و مشخص میشود که به انتشار محتوای کماعتماد مرتبط است. سپس چهار نوع مختلف از سیاستهای نظارتی مورد بحث قرار میگیرد و در هر مورد، نشان داده میشود که چگونه ممکن است اطلاعات نادرست را کاهش دهند، اما همچنین به این احتمال اشاره میشود که اگر این مقررات به خوبی طراحی نشوند، میتوانند نتیجه معکوس داشته باشند و مشکل را تشدید کنند. اول، به سانسور احتمالی تنظیمکننده به محتویات احتمالاً حاوی اطلاعات نادرست، نگاه میشود. در حالی که سانسور میتواند به کاهش انتشار اطلاعات نادرست کمک کند، یک اثر «حقیقت ضمنی» ایجاد میکند که به انتشار محتوای مشکوک که از سانسور فرار میکند کمک میکند. دوم، مقرراتی مورد بحث قرار میگیرد که پلتفرمها را مجبور میکنند منشأ محتوا را فاش کنند و شناسایی محتوای حاوی اطلاعات نادرست را برای کاربران آسانتر میکند (بهعنوان مثال، ادعاهایی که از منابع کمتر معتبری مانند InfoWars نشات میگیرند). اگرچه این مورد، بهطور کلی مفید و گاهی قویتر از سانسور است، اما مقررات منشأ میتواند به دلیل تاثیر حقیقت ضمنی مرتبط نتیجه معکوس داشته باشد، اما اینبار به این دلیل که افراد به تایید محتوای سایر کاربران قبل از خود متکی هستند. سوم، «اهداف عملکرد» مورد بحث قرار میگیرد، جایی که تنظیمکننده محدودیتهایی برای میزان اطلاعات نادرست منتشرشده در پلتفرم قائل میشود. چنین اهدافی تمایل دارند که ترجیحات پلتفرم و تنظیمکننده را بهتر همسو کنند، اما اگر پلتفرمها بهطور مناسب نظارت و برای تخلفات مجازات نشوند، اهداف سخت میتواند انتشار اطلاعات نادرست را تشدید کند. در نهایت، نشان داده میشود که چگونه تنظیم الگوریتمهای پلتفرم میتوانند اطلاعات نادرست را کاهش دهند، اما اثرات غیریکنواخت هموفیلی نشان میدهد که چنین مقرراتی باید به خوبی سنجیده شوند.
آنچه در این مقاله آمد
این مقاله یک الگوی ساده از انتشار اطلاعات نادرست در بسترهای رسانههای اجتماعی معرفی میکند. گروهی از عوامل یا کاربران بیزی با پیشینههای ناهمگون، طبق یک شبکه اشتراکگذاری تصادفی که پلتفرم رسانههای اجتماعی تعیین میکنند، محتویات (اخبار) را دریافت کرده و به اشتراک میگذارند. محتویات ممکن است درباره یک وضعیت زیربنایی صادقانه و آموزنده باشند یا ممکن است حاوی اطلاعات نادرست باشند. پس از دریافت خبر، یک کاربر میتواند تصمیم بگیرد که آن را با دیگران به اشتراک بگذارد، آن را نادیده بگیرد، یا از کاربر دیگری به دلیل انتشار اطلاعات نادرست (نپسندیدن) انتقاد کند. اطلاعات نادرست زمانی پخش میشود که کاربران اخباری را به اشتراک میگذارند که انتظار بازخورد مثبت در رسانههای اجتماعی و واکنشهای منفی کمی دارند. اگرچه این الگو ساده است، اما چندین تعامل استراتژیک غنی را در برمیگیرد. کاربران از به اشتراکگذاری اخبار واقعی و نه اطلاعات نادرست مطلوبیت کسب میکنند، اما از تعامل همتایان با محتوای به اشتراک گذاشتهشده نیز لذت میبرند. تطابق ایدئولوژیک بین یک فرد و کسانی که در شبکه اشتراکگذاری او هستند، که در اینجا با مفهوم هموفیلی معرفی شد، برای اشتراکگذاری تصمیمات حیاتی است. احتمال مخالفت افراد با اخباری که با عقاید قبلی آنها مخالف است بیشتر است، بنابراین یک کاربر در به اشتراک گذاشتن اخباری که با نظرات کسانی که در شبکه اشتراکگذاری او هستند مخالف است، محتاطتر خواهد بود. چهارچوب این مقاله، مطالعه قابل قبولی از انگیزههای پلتفرم را در طراحی الگوریتمهایی که تعیین میکنند فرد محتوا را با چه کسی به اشتراک میگذارد، ممکن میکنند. برای انجام این کار، فرض میشود که هدف پلتفرم به حداکثر رساندن تعامل کاربر است (که تقریب خوبی برای اهداف پلتفرمهای رسانههای اجتماعی بزرگ مانند فیسبوک یا توئیتر است). نتیجه اصلی این مطالعه یک نتیجه قابل توجه است. هنگامی که یک خبر بسیار قابل اعتماد است، پلتفرم یک شبکه اشتراکگذاری با حداقل هموفیلی را انتخاب میکند تا گسترش و جذابیت محتوا را در سراسر جامعه کاربر به حداکثر برساند. برخلاف این مورد، زمانی که اخبار مربوطه از قابلیت اطمینان کمتری برخوردار باشند، پلتفرم شبکهای را با حداکثر هموفیلی انتخاب میکند و محتویات را به کاربران با باورهای همسو توصیه میکند. سپس این محتویات بهسرعت در «حباب فیلتر» که الگوریتمهای پلتفرم ایجاد کردهاند پخش میشوند- زیرا اکنون افرادی که از نظر ایدئولوژیک همفکر هستند، میدانند که بعید است در حال اشتراکگذاری اطلاعات نادرست در اتاقهای پژواک خود مورد انتقاد قرار گیرند. در این مقاله همچنین مقرراتی با هدف بهبود رفاه کاربران پلتفرم مطالعه میشود. تعدیل محتوا، برای مثال سانسور اخبار با قابلیت اطمینان پایین، میتواند برخی از اطلاعات نادرست را حذف کند. با این حال، «احساس امنیت کاذب» را نیز ایجاد میکند و باعث میشود کاربران از کیفیت اخبار باقیمانده اطمینان بیشتری داشته باشند. بهطور مشابه، فاش کردن منشأ یک خبر (بهعنوان مثال، ارائه زمینه کامل برای نقلقول یا منابع واضحتر) میتواند مفید باشد، زیرا این اطلاعات اضافی به کاربران اجازه میدهد بهراحتی محتوا را از لحاظ صحت بررسی کنند. با این حال، این مداخله نیز میتواند نتیجه معکوس داشته باشد، زیرا نوعی سلسلهمراتب اطلاعاتی ایجاد میکند: هر کاربر انتظار دارد که دیگران واقعیت را بررسی کنند و در تفحص خود سهلتر میشوند. اهداف عملکردی که به پلتفرمها نیاز دارند تا بخش خاصی از پستهای حاوی اطلاعات نادرست را حذف کنند، معمولاً موثر هستند، اما زمانی که اهداف درخواستی پلتفرم را وادار به انحراف از اهداف میکنند، میتوانند نتیجه معکوس داشته باشند، با این امید که شناسایی نشوند. در نهایت، نشان داده میشود که تنظیم الگوریتمهای پلتفرم، بهعنوان مثال، در قالب استانداردهای تفکیک ایدئولوژیک، میتواند ابزار قدرتمندی در برابر حبابهای فیلتر و اطلاعات نادرست باشد، اما باید به خوبی بررسی شوند. چهارچوب این مقاله بهطور هدفمند انتخاب شد که ساده باشد و مهمتر از همه، فرض این مطالعه مبنی بر اینکه کاربران منطقی بیزی هستند باید بهعنوان یک معیار مفید در نظر گرفته شود.