بر اساس یافتههای جدیدی که حتی هیات نظارت داخلی شرکت متا نیز بر آن مهر تایید زده است، اگر شما یک کاربر معمولی هر یک از پلتفرمهای فیس بوک یا اینستاگرام هستید، پُستهای شما مشمول خطمشیهای تعدیل محتوای اغلب بحث انگیز این غول فناوری است و ممکن است محتوای شما به سادگی و بهطور خودکار توسط الگوریتمهای این شرکت حذف شود.
با این حال، اگر نام شما، دونالد ترامپ یا کیم کارداشیان است یا اینکه تعداد فالوورهای زیادی دارید، آزادی عمل بیشتری برای به اشتراک گذاشتن و گفتن محتواهایی دارید که قوانین را نقض میکنند.
نرمافزاری در شبکههای اجتماعی فیس بوک و اینستاگرام به نام «بررسی متقاطع» (cross-check) به کار گرفته شده است که از سلبریتیها و سایر کاربران برجسته در برابر حذف خودکار محتوای آنها توسط الگوریتمهای شرکت محافظت میکند.
هیات نظارت داخلی متا با انتشار گزارش مفصلی به بررسی نحوه کارکرد این برنامه پرداخته و شرکت متا را به دلیل تبعیض قائل شدن میان کاربران عادی و خاص و اثرات مخربی که این تبعیض و به کار گرفتن برنامه «بررسی متقاطع» در زندگی واقعی افراد بر جای میگذارد، مورد انتقاد قرار داده است.
انتقاد هیات نظارت داخلی متا از سیاستهای این شرکت یادآور افشاگریهای فرانسیس هاوگن کارمند پیشین فیس بوک است که در ماه جولای سال جاری میلادی مقابل کنگره آمریکا به تفصیل درباره برنامه «بررسی متقاطع» شهادت داده و گفته بود که فیس بوک و اینستاگرام کسب سود بیشتر را بر ایمنی کاربران ترجیح میدهد.
در گزارش هیات نظارت آمده است که چگونه متا منافع تجاری را در تعدیل محتوا در اولویت قرار داده است. به گفته این هیات، برنامه «بررسی متقاطع» محافظت بیشتری برای پُستهای برخی از کاربران فراهم میکند، چرا که اجازه نمیدهد پستهای آنها توسط الگوریتمهای شرکت به صورت خودکار حذف شود.
هنگامی که هیئت نظارت تحقیقات خود را در مورد برنامه «بررسی متقاطع» آغاز کرد، متا نظارت بر محتوای روزانه ۱۰۰ میلیون پست را از طریق برنامه «بررسی متقاطع» انجام داده و در مورد حذف کردن یا نکردن آنها تصمیم میگرفت. بنابراین حتی اگر این شرکت بتواند چنین تصمیماتی را با دقت ۹۹ درصد اتخاذ کند (که امری محال است) باز هم روزانه در اتخاذ تصمیم برای حذف کردن یا نکردن محتوای یک میلیون پست اشتباه میکند.
از سوی دیگر بررسی محتوای پستهای افراد خاص توسط برنامه «بررسی متقاطع» اغلب ممکن است تا پنج روز به طول بینجامد و بنابراین پستهایی که محتوای آنها ناقض قوانین متا محسوب شده و در صورت پست شدن از سوی افراد عادی بلافاصله توسط الگوریتمهای شرکت و به صورت خودکار حذف میشد، در حالی که پست مشابهی فقط به دلیل اینکه از سوی فردی «خاص»، پست شده است، ممکن است قبل از حذف تا پنج روز در معرض دید دیگر کاربران قرار بگیرد.
در بسیاری از موارد، این تاخیر در تصمیمگیری برای حذف یا عدم حذف محتوای افراد خاص، پیامدهای منفی بر زندگی واقعی افراد دیگر دارد.
به عنوان مثال در سال ۲۰۱۹، نیمار ستاره فوتبال برزیل ویدیویی را منتشر کرد که در آن عکسهای زنی را نشان میداد که نیمار را به تجاوز جنسی متهم کرده بود. به دلیل قرار داشتن نام نیمار در لیست افرادی که پستهایشان باید توسط برنامه «بررسی متقاطع» بررسی شود، این پست برای بیش از یک روز باقی ماند و قبل از حذف نهایی، بیش از ۱۰۰ میلیون بازدید داشت.
این در حالی است که شرکت متا که در حال حاضر مارک زاکربرگ مدیرعامل آن است، اساسا شفافیت زیادی در مورد نحوه عملکرد برنامه «بررسی متقاطع» به مردم ارائه نمیدهد و حتی به هیچ یک از کاربران اطلاع نمیدهد که آیا نام آنها در فهرستهای متقاطع قرار دارد یا نه و روشهای خود را برای ایجاد و ممیزی این فهرستها بهطور عمومی به اشتراک نمیگذارد.
هیئت مدیره در گزارش خود میپرسد که چرا ورزشکار تعلیق نشده است و همچنین خاطرنشان میکند که این حادثه تنها در نتیجه افشای هاوگن آشکار شد.
رویکرد این غول فناوری در تبعیض میان کاربران عادی و کاربران خاص و اهمیت قائل نشدن به این موضوع حیاتی که اتخاذ این رویکرد از سوی این شرکت میتواند چه تأثیر مخربی بر زندگی واقعی کاربران بگذارد، مشخص میکند که برخلاف ادعاهای دروغینی که دستاندرکاران و گردانندگان شبکههای اجتماعی نظیر فیس بوک و اینستاگرام در حمایت از آزادی بیان و حقوق بشر مطرح میکنند، آنها در حقیقت تنها به دنبال سود و منافع بیشتر خودشان در آب گلآلودی هستند که خود در گلآلود کردن آن نقش مهمی به عهده دارند.