آیا تا به حال در یک پست شکست خورده اید و فکر کرده اید که چرا سیستم رسانه های اجتماعی شما را جریمه می کند؟
آیا این الگوریتم ها تصمیم گیری می کنند؟ پاسخ به این سوال اساسا یک جعبه سیاه است و منتقدان مدت هاست که از شرکت های صاحب رسانه های اجتماعی خواسته اند تا در مورد موضوع شفاف تر باشند. شخصیتهای بزرگ سیاسی شرکتها را به استفاده از الگوریتمها برای سانسور متهم میکنند، در حالی که کاربران عادی نگران هستند که پستهایشان بر اساس معیارهای مغرضانه رفتار شود.
ما از خوانندگان واشنگتن پست خواستیم تا داستان های خود را در مورد ممنوعیت های سایه به اشتراک بگذارند. همان مکانیسمی که نشان دهنده سرکوب واقعی یا درک شده پست های یک فرد است. بسیاری از این افراد مشکوک بودند که پست های آنها به دوستانشان نشان داده شده است، اما در فیدهای آنها پنهان شده است. تعداد کمی از آنها شواهدی برای اثبات این موضوع داشتند.
لی کری، 50 ساله، گفت: “من دائما در تلاش هستم تا بفهمم چرا پست های من می توانند از بخش جستجو و فید اصلی اینستاگرام حذف شوند.
* «منع سایه» یا «سرکوب الگوریتمی» چیست؟
اصطلاح “سایه زدن” در حدود سال 2017 برای توصیف فعالیت های محرمانه کاربران توسط شرکت های رسانه های اجتماعی برای پنهان کردن محتوا یا نظرات آنها رایج شد. این روزها، شرکت ها تمایل دارند اصطلاح “راهنماهای توصیه” را ترجیح دهند، در حالی که برخی از کارشناسان فناوری از اصطلاح “قیف الگوریتمی” استفاده می کنند.
الگوریتم ها ماشین های تصمیم گیری هستند و نشان دادن یک پست به این معنی است که پست دیگری نمایش داده نمی شود. اما شرکت ها می گویند این الگوریتم ها محتوا را برای ایمنی و حساسیت های کاربر محدود می کنند.
به عنوان مثال، پلتفرمهایی مانند TikTok، Instagram، YouTube، Snapchat و Twitch دسترسی به محتوایی را که برای کودکان نامناسب میدانند محدود میکنند. برخی از این قوانین بدیهی است. به عنوان مثال، نمایش سلاح گرم یا مواد غیرقانونی ممنوع است، اما سایر موارد مبهم هستند. برای مثال، در TikTok، افراد در هر سنی میتوانند ویژگی «محدود شده» را فعال کنند، که ویدیوهای حاوی تصاویر تهدیدکننده را محدود میکند.
Tik Tok همچنین به کاربران در هر سنی اجازه می دهد تا از گزینه “Current Affairs” در الگوریتم های صفحه خود انصراف دهند.
برنامههای اجتماعی معمولاً سعی میکنند هر محتوایی را که ممکن است کاربران یا تبلیغکنندگان را جذب کند، محدود کنند.
برای مثال، پس از انتشار گزارشهایی مبنی بر اینکه توصیههای یوتیوب بینندگان را به سمت نفرت ویدیوها سوق میدهد، برنامه شروع به مسدود کردن آن ویدیوها کرد.
شرکتهای رسانههای اجتماعی معمولاً در برابر ادعاهایی مبنی بر سانسور گفتار سیاسی مقاومت میکنند. اما امسال متا به صراحت اعلام کرده است که محتوای سیاسی را در برنامه های خود محدود خواهد کرد. چیزی که شرکت روشن نمی کند این است که دقیقاً چه کلمات و ایده هایی محتوای سیاسی را تشکیل می دهند.
کوری چمبلیس، سخنگوی متا گفت: «ما سالها به مردم گفتهایم که به طور کلی میخواهند محتوای سیاسی کمتری ببینند، اما همچنان میتوانند در صورت تمایل با محتوای سیاسی در پلتفرمهای ما تعامل داشته باشند، و ما دقیقاً این کار را انجام دادهایم.
چه نوع محتوای محدود شده ای؟
انواع محتوایی که در این دسته “مجاز، اما تبلیغ نشده” قرار می گیرند به نوع پلت فرم بستگی دارد.
یکی از سخنگویان یوتیوب گفت که اگر ویدیویی قوانین کلی پلتفرم را نقض نکند، اما نزدیک به نقض آنها باشد، ممکن است برای توصیه های الگوریتمی واجد شرایط نباشد. بنابراین، اگر یک ویدیوی رویدادهای جاری نزدیک شود، اما از آستانه گمراهکننده فراتر نرود، ممکن است تحت تأثیر قرار گیرد.
متا اعلام کرد که محتوای سیاسی در فیس بوک، اینستاگرام و توییتر را محدود می کند.
TikTok تنها پلتفرمی بود که تأیید کرد مردم میتوانند بدون تحت فشار قرار گرفتن از کلمه «رای» استفاده کنند. یوتیوب گفت که محتوای کمپین فقط در صورتی مسدود می شود که نزدیک به نقض یک خط مشی باشد. اسنپ چت اعلام کرد که فقط تولیدکنندگان از قبل تایید شده می توانند در مورد محتوای سیاسی، از جمله انتخابات، در بخش فیلم های کوتاه Spotlight صحبت کنند، اما هر کسی می تواند در مورد انتخابات صحبت کند و در برگه Discover ظاهر شود. پلتفرم های X و Twitch در این مورد نظری ندادند.
* چگونه بفهمم که محتوای من محدود شده است؟
TikTok و Snapchat از سازندگان محتوا خواسته اند که به درستی به ویدیوهایی که ممکن است برای کاربران جوان نامناسب هستند برچسب بزنند.
با این حال، در اینستاگرام، فیسبوک، یوتیوب یا X، دسترسی یک پست ممکن است بدون اینکه نویسنده بداند چرا محدود شود.
آیا این سانسور، تعدیل محتوا یا چیز دیگری است؟
اینکه آیا شرکتهای رسانههای اجتماعی باید دسترسی به محتوای خاصی را محدود کنند یا نه، بحث برانگیز است. ایلان ماسک، مالک شبکه اجتماعی X اعلام کرد که برای حفظ آزادی بیان، این شبکه اجتماعی نظرات سیاسی را سانسور نخواهد کرد. با این حال، X به درخواستهای حذف محتوای سیاسی بیشتر از قبل از داشتن ماسک پاسخ داد. منتقدان میگویند که ماسک و تیمش بر اساس وابستگیهای شخصی، تصمیمهای اعتدال محتوا را میگیرند.
در همین حال، بنیاد غیرانتفاعی Electronic Frontier با تمرکز بر حفظ حریم خصوصی آنچه را که «مقررات سایه» میخواند، محکوم کرده و میگوید شرکتها خارج از سیستم دادگاه تصمیم میگیرند که چه سخنرانی مجاز به پست آنلاین باشد.
برخی از سازمان های مدافع حقوق کودک خواستار محدودیت های سخت گیرانه تر برای جلوگیری از قرار گرفتن کودکان در معرض محتوای بزرگسالان در سنین پایین تر هستند. جیمز استایر، بنیانگذار و مدیر عامل Common Sense Media، یک سازمان غیرانتفاعی متمرکز بر ایمنی آنلاین کودکان، اعلام کرد که او خواستار قانونی است که شرکتها را ملزم میکند مسئولیت محتوای خطرناک یا نامناسب برای کودکان را بپذیرند.
* آیا شبکه های اجتماعی حساب ها را در صورت محدود بودن محتوا جریمه می کنند؟
TikTok و Twitch اعلام کردند که اگر محتوای آنها مکرراً قوانین را نقض کند ، حساب های آنها مستقیماً مجازات می شود. اسنپ و یوتیوب هر دو گفتند که پستهای محدود شده روی کل حساب کاربر تأثیری نخواهد داشت. اما متا و ایکس پاسخی ندادند.