به گزارش مهر به نقل از دیلی میل، طبق گزارش وال استریت ژورنال، فیس بوک در سال ۲۰۱۸ میلادی الگوریتمهای خود را طوری تغییر داد تا محتوای باز نشر شده اولویت یابد. اما این امر به گسترش بی حد و حصر اخبار جعلی، محتوای نفرت پراکنانه و خشونت آمیز در پلتفرم منجر شد.
مارک زاکربرگ مدیر ارشد اجرایی فیس بوک اعلام کرده بود این تغییر برای قدرتمندتر کردن رابطه بین افراد (به خصوص بین خانواده و دوستان) و ارتقای سلامت آنها انجام شده است.
اما اسناد نشان میدهد آنچه در واقع اتفاق افتاد، خلاف این امر بود و فیس بوک به فضایی خشنتر تبدیل شد. زیرا الگوریتمهای هوش مصنوعی به محتوای خشن اولویت میدادند.
محققان این شرکت فناوری متوجه شدند ناشران اخبار و احزاب سیاسی به طور عمدی محتوای منفی یا تفرقه انگیز را منتشر میکنند؛ زیرا با لایک و اشتراک گذاری زیادی روبرو میشد و در نتیجه بین کاربران به عنوان اخبار واقعی به اشتراک گذاشته میشد.
طبق اسناد موجود در آوریل ۲۰۲۰ درباره این چالش به زاکربرگ هشدار داده شد اما الگوریتمهای مذکور بدون هیچ تغییری در پلتفرم حفظ شدند.
تشویق به برخوردهای معنادار اجتماعی دلیل تغییر الگوریتمهای فیس بوک در سال ۲۰۱۸ میلادی بود. زیرا کارشناسان حاضر در شرکت نگران کاهش کامنت و اشتراک گذاری پستها توسط کاربران بودند.
این موارد برای فیس بوک اهمیت زیادی دارد، زیرا بسیاری از مدیران شرکت آن را کلیدی برای بررسی سلامت پلتفرم میدانند. اگر میزان کامنت و اشتراک گذاری پستها کاهش یابد، ممکن است کاربران به تدریج استفاده از آن را متوقف کنند.
در سال ۲۰۱۷ میلادی میزان لایک و بازنشر پستها در سراسر سال کاهش یافت، اما در آگوست ۲۰۱۸ میلادی و پس از تغییراتی در الگوریتم روند نزولی مذکور متوقف شد و دوباره فعالیت روزانه کاربران تا حد قابل توجهی ارتقا یافت.
اما مشکل آنجا بود که تحقیقی میان کاربران نشان داد بسیاری از آنها معتقدند کیفیت محتوای پلتفرم کاهش یافته است. علاوه بر آن در لهستان این تغییرات سبب شد گفتگوی سیاسی در پلتفرم مغرضانه تر شود.
این امر روی ناشران اخبار آنلاین نیز تأثیر گذاشت. جونا پرتی مدیر ارشد اجرایی بازفید در ایمیلی به مقامات فیس بوک هشدار داد بیشتر محتوای تفرقه انگیزانه ای که ناشران در این پلتفرم منتشر میکنند در باز فید وایرال میشود.
طبق یک یادداشت داخلی مربوط به آوریل ۲۰۲۰ میلادی، پس از افزایش نگرانیها درباره الگوریتم، چند اقدام جایگزین پیشنهادی به زاکربرگ ارائه شد تا با گسترش اخبار جعلی و تفرقه انگیز در پلتفرم مقابله کند. یکی از این پیشنهادات حذف الگوریتم ترویج محتوای بازنشرشده توسط زنجیرهای طولانی از کاربران بود. اما زاکربرگ به این ایده توجهی نشان نداد.
در نهایت ماه جولای ۲۰۲۱ و ۱۸ ماه پس از آن فیس بوک اعلام کرد آزمایشها برای محدود سازی این قابلیت را وسیعتر میکند.