اخبار اخبار فرهنگی

درباره «سایه‌بان رسانه‌های اجتماعی» چه می‌دانیم؟

تبلیغات بنری


آیا تا به حال در یک پست شکست خورده اید و فکر کرده اید که چرا سیستم رسانه های اجتماعی شما را جریمه می کند؟

از چه می دانیم

برای گزارش دادن تیلاواشنگتن پست نوشت: ما برای اخبار، بحث‌های سیاسی و اطلاعات به‌روز به رسانه‌های اجتماعی روی می‌آوریم، اما بسیاری از چیزهایی که می‌بینیم توسط یک سری الگوریتم‌ها تعیین می‌شوند که سعی می‌کنند محتوایی را که دوست داریم اولویت‌بندی کنند، در عین حال. زمان نشان دادن تبلیغات معمولی به ما

آیا این الگوریتم ها تصمیم گیری می کنند؟ پاسخ به این سوال اساسا یک جعبه سیاه است و منتقدان مدت هاست که از شرکت های صاحب رسانه های اجتماعی خواسته اند تا در مورد موضوع شفاف تر باشند. شخصیت‌های بزرگ سیاسی شرکت‌ها را به استفاده از الگوریتم‌ها برای سانسور متهم می‌کنند، در حالی که کاربران عادی نگران هستند که پست‌هایشان بر اساس معیارهای مغرضانه رفتار شود.

ما از خوانندگان واشنگتن پست خواستیم تا داستان های خود را در مورد ممنوعیت های سایه به اشتراک بگذارند. همان مکانیسمی که نشان دهنده سرکوب واقعی یا درک شده پست های یک فرد است. بسیاری از این افراد مشکوک بودند که پست های آنها به دوستانشان نشان داده شده است، اما در فیدهای آنها پنهان شده است. تعداد کمی از آنها شواهدی برای اثبات این موضوع داشتند.

لی کری، 50 ساله، گفت: “من دائما در تلاش هستم تا بفهمم چرا پست های من می توانند از بخش جستجو و فید اصلی اینستاگرام حذف شوند.

* «منع سایه» یا «سرکوب الگوریتمی» چیست؟

اصطلاح “سایه زدن” در حدود سال 2017 برای توصیف فعالیت های محرمانه کاربران توسط شرکت های رسانه های اجتماعی برای پنهان کردن محتوا یا نظرات آنها رایج شد. این روزها، شرکت ها تمایل دارند اصطلاح “راهنماهای توصیه” را ترجیح دهند، در حالی که برخی از کارشناسان فناوری از اصطلاح “قیف الگوریتمی” استفاده می کنند.

الگوریتم ها ماشین های تصمیم گیری هستند و نشان دادن یک پست به این معنی است که پست دیگری نمایش داده نمی شود. اما شرکت ها می گویند این الگوریتم ها محتوا را برای ایمنی و حساسیت های کاربر محدود می کنند.

به عنوان مثال، پلتفرم‌هایی مانند TikTok، Instagram، YouTube، Snapchat و Twitch دسترسی به محتوایی را که برای کودکان نامناسب می‌دانند محدود می‌کنند. برخی از این قوانین بدیهی است. به عنوان مثال، نمایش سلاح گرم یا مواد غیرقانونی ممنوع است، اما سایر موارد مبهم هستند. برای مثال، در TikTok، افراد در هر سنی می‌توانند ویژگی «محدود شده» را فعال کنند، که ویدیوهای حاوی تصاویر تهدیدکننده را محدود می‌کند.

Tik Tok همچنین به کاربران در هر سنی اجازه می دهد تا از گزینه “Current Affairs” در الگوریتم های صفحه خود انصراف دهند.

*چرا شرکت ها برخی از محتواها را محدود می کنند؟

برنامه‌های اجتماعی معمولاً سعی می‌کنند هر محتوایی را که ممکن است کاربران یا تبلیغ‌کنندگان را جذب کند، محدود کنند.

برای مثال، پس از انتشار گزارش‌هایی مبنی بر اینکه توصیه‌های یوتیوب بینندگان را به سمت نفرت ویدیوها سوق می‌دهد، برنامه شروع به مسدود کردن آن ویدیوها کرد.

شرکت‌های رسانه‌های اجتماعی معمولاً در برابر ادعاهایی مبنی بر سانسور گفتار سیاسی مقاومت می‌کنند. اما امسال متا به صراحت اعلام کرده است که محتوای سیاسی را در برنامه های خود محدود خواهد کرد. چیزی که شرکت روشن نمی کند این است که دقیقاً چه کلمات و ایده هایی محتوای سیاسی را تشکیل می دهند.

کوری چمبلیس، سخنگوی متا گفت: «ما سال‌ها به مردم گفته‌ایم که به طور کلی می‌خواهند محتوای سیاسی کمتری ببینند، اما همچنان می‌توانند در صورت تمایل با محتوای سیاسی در پلتفرم‌های ما تعامل داشته باشند، و ما دقیقاً این کار را انجام داده‌ایم.

چه نوع محتوای محدود شده ای؟

انواع محتوایی که در این دسته “مجاز، اما تبلیغ نشده” قرار می گیرند به نوع پلت فرم بستگی دارد.

یکی از سخنگویان یوتیوب گفت که اگر ویدیویی قوانین کلی پلتفرم را نقض نکند، اما نزدیک به نقض آنها باشد، ممکن است برای توصیه های الگوریتمی واجد شرایط نباشد. بنابراین، اگر یک ویدیوی رویدادهای جاری نزدیک شود، اما از آستانه گمراه‌کننده فراتر نرود، ممکن است تحت تأثیر قرار گیرد.

متا اعلام کرد که محتوای سیاسی در فیس بوک، اینستاگرام و توییتر را محدود می کند.

TikTok تنها پلتفرمی بود که تأیید کرد مردم می‌توانند بدون تحت فشار قرار گرفتن از کلمه «رای» استفاده کنند. یوتیوب گفت که محتوای کمپین فقط در صورتی مسدود می شود که نزدیک به نقض یک خط مشی باشد. اسنپ ​​چت اعلام کرد که فقط تولیدکنندگان از قبل تایید شده می توانند در مورد محتوای سیاسی، از جمله انتخابات، در بخش فیلم های کوتاه Spotlight صحبت کنند، اما هر کسی می تواند در مورد انتخابات صحبت کند و در برگه Discover ظاهر شود. پلتفرم های X و Twitch در این مورد نظری ندادند.

* چگونه بفهمم که محتوای من محدود شده است؟

TikTok و Snapchat از سازندگان محتوا خواسته اند که به درستی به ویدیوهایی که ممکن است برای کاربران جوان نامناسب هستند برچسب بزنند.

با این حال، در اینستاگرام، فیسبوک، یوتیوب یا X، دسترسی یک پست ممکن است بدون اینکه نویسنده بداند چرا محدود شود.

آیا این سانسور، تعدیل محتوا یا چیز دیگری است؟

اینکه آیا شرکت‌های رسانه‌های اجتماعی باید دسترسی به محتوای خاصی را محدود کنند یا نه، بحث برانگیز است. ایلان ماسک، مالک شبکه اجتماعی X اعلام کرد که برای حفظ آزادی بیان، این شبکه اجتماعی نظرات سیاسی را سانسور نخواهد کرد. با این حال، X به درخواست‌های حذف محتوای سیاسی بیشتر از قبل از داشتن ماسک پاسخ داد. منتقدان می‌گویند که ماسک و تیمش بر اساس وابستگی‌های شخصی، تصمیم‌های اعتدال محتوا را می‌گیرند.

در همین حال، بنیاد غیرانتفاعی Electronic Frontier با تمرکز بر حفظ حریم خصوصی آنچه را که «مقررات سایه» می‌خواند، محکوم کرده و می‌گوید شرکت‌ها خارج از سیستم دادگاه تصمیم می‌گیرند که چه سخنرانی مجاز به پست آنلاین باشد.

برخی از سازمان های مدافع حقوق کودک خواستار محدودیت های سخت گیرانه تر برای جلوگیری از قرار گرفتن کودکان در معرض محتوای بزرگسالان در سنین پایین تر هستند. جیمز استایر، بنیانگذار و مدیر عامل Common Sense Media، یک سازمان غیرانتفاعی متمرکز بر ایمنی آنلاین کودکان، اعلام کرد که او خواستار قانونی است که شرکت‌ها را ملزم می‌کند مسئولیت محتوای خطرناک یا نامناسب برای کودکان را بپذیرند.

* آیا شبکه های اجتماعی حساب ها را در صورت محدود بودن محتوا جریمه می کنند؟

TikTok و Twitch اعلام کردند که اگر محتوای آنها مکرراً قوانین را نقض کند ، حساب های آنها مستقیماً مجازات می شود. اسنپ ​​و یوتیوب هر دو گفتند که پست‌های محدود شده روی کل حساب کاربر تأثیری نخواهد داشت. اما متا و ایکس پاسخی ندادند.

تبلیغات بنری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *