تكنولوجيا

“ميتا” تكشف عن أحدث تقرير شفافية لها.. هكذا واجهت التنمر على المنصة

 

شارك فيس بوك إحصائيات جديدة حول مقدار التنمر وخطاب الكراهية والتحرش على منصته، حيث تأتي الأرقام الجديدة، التي تم إصدارها مع أحدث تقارير الشفافية الفصلية للشركة، في الوقت الذي تواجه فيه Meta تدقيقًا متزايدًا بشأن قدرتها على حماية المستخدمين وفرض سياساتها بشكل مناسب في جميع أنحاء العالم، وذلك بحسب بيان فيس بوك.

ويمثل أحدث تقرير لها المرة الأولى التي تشارك فيها الشركة مقاييس “انتشار” حول التنمر والتحرش على منصتها، حيث أن “الانتشار” أو “prevalence” هي إحصائية يستخدمها فيس بوك لتتبع المحتوى المخالف الذي يتسلل عبر أنظمة الكشف الخاصة به.
وقال نائب رئيس الشركة لشؤون النزاهة جاي روزن للصحفيين خلال إفادة صحفية: “إنه يمثل مقدار المحتوى المخالف الذي يشاهده الأشخاص بالفعل والذي يظهر فعليًا على شاشة شخص ما”.

ووفقًا للشركة، تراوح معدل انتشار محتوى التنمر بين 0.14٪ -0.15٪ على فيس بوك وبين 0.05٪ -0.06٪ على انستجرام، وأوضحت الشركة في بيان: “هذا يعني أن محتوى التنمر والمضايقة شوهد ما بين 14 و15 مرة لكل 10000 مشاهدة للمحتوى على فيس بوك وما بين 5 و6 مرات لكل 10000 مشاهدة للمحتوى على انستجرام”.

وواجه انستجرام على وجه الخصوص أسئلة حول قدرته على التعامل مع التنمر والتحرش، فيما قدمت الشركة العديد من الإجراءات الجديدة لمكافحة البلطجة في وقت سابق من هذا العام بعد أن قام العديد من لاعبي كرة القدم في المملكة المتحدة بتفصيل تجربتهم مع الإساءة العنصرية على التطبيق.

ولعل الأهم من ذلك، تلاحظ الشركة أن مقياس “الانتشار” هذا فقط يحسب المحتوى الذي يزيله فيس بوك و انستجرام بدون تقرير المستخدم. هذا يعني أن الإحصاء يلتقط فقط مجموعة فرعية من كل محتوى التنمر، نظرًا لأن التنمر والمضايقة ليس من السهل دائمًا على نظام آلي التعرف عليه.

وتم التأكيد على هذا التمييز من خلال ما تم الكشف عنه في أوراق فيس بوك، وهي مجموعة من الوثائق التي تم نشرها من قبل الموظف السابق الذي تحول إلى المبلغين عن المخالفات فرانسيس هوغن.

ووفقًا للوثائق التي شاركتها، يقدر باحثو فيس بوك أن الشركة قادرة فقط على معالجة حوالي ثلاثة إلى خمسة بالمائة من خطاب الكراهية على نظامها الأساسي، مما يعني أن الغالبية العظمى لا يتم اكتشافها ويسمح لها بتلويث خلاصات الأخبار الخاصة بالمستخدمين.

وعارض موقع فيس بوك مرارًا وتكرارًا هذه الادعاءات، وأشار إلى إحصائيات “الانتشار” التي يشاركها في تقارير الشفافية الخاصة به، ولكن كما أشار الباحثون، فإن محاسبة الشركة الخاصة “للانتشار” يمكن أن تخفي المقدار الحقيقي للمحتوى المخالف على النظام الأساسي.

ذلك لأن أنظمة فيس بوك الآلية ليست موثوقة دائمًا، لا سيما في اكتشاف المحتوى بلغات أخرى غير الإنجليزية، وأثارت هذه الاكتشافات مزاعم بأن فيسبوك تضع الأرباح قبل سلامة المستخدم.

وقال روزين يوم الثلاثاء: “ليس لدينا أي حافز على الإطلاق، سواء كان تجاريًا أو غير ذلك، لفعل أي شيء آخر غير التأكد من تمتع الناس بتجربة إيجابية”، “أعتقد أنه ليس صحيحًا أيضًا أن خوارزمياتنا مُحسَّنة فقط للضغط على المشاركة، نحن نعمل باستمرار على تحسين طريقة الترتيب من أجل معالجة هذه المشكلات “.

وفي أحدث تقرير لها، أفاد موقع فيس بوك أن خطاب الكراهية قد انخفض للربع الرابع على التوالي، مع انخفاض معدل الانتشار من 0.05٪ في الربع الأخير إلى 0.03٪ هذا الربع، أبلغت الشركة أيضًا عن انتشار خطاب الكراهية على انستجرام لأول مرة، قائلة إن خطاب الكراهية بلغ 0.02 ٪ أو حوالي 2 من كل 10000 قطعة من المحتوى يتم عرضها على نظامها الأساسي.

ومع ذلك، تجدر الإشارة إلى أنه حتى أكثر الآراء تفاؤلاً بشأن هذه الأرقام – 0.03٪ و0.02٪ على فيس بوك وانستجرام، على التوالي – يمكن أن تعني أن ملايين الأشخاص يواجهون خطابًا يحض على الكراهية كل يوم، نظرًا للعدد الهائل من المستخدمين وأجزاء المحتوى، نشرها على المنصات كل يوم.

وبشكل منفصل، قال فيسبوك أيضًا إن باحثيها يعملون على “مجال جديد نسبيًا من أبحاث الذكاء الاصطناعي يسمى التعلم” قليل الطلقات “أو التعلم” بدون طلقة “، والذي سيمكنهم من تدريب نماذج الذكاء الاصطناعي بسرعة أكبر.

فبدلاً من الاعتماد على مجموعات البيانات الضخمة لتدريب النماذج يدويًا، على سبيل المثال تحديد الكلام الذي يحض على الكراهية، فإنه سيمكن النماذج التي يمكنها “تعلم التعرف على شيء ما من خلال عدد صغير من الأمثلة التدريبية، أو حتى مجرد مثال واحد “.

ولم يذكر فيس بوك المدة التي قد يستغرقها وضع هذا البحث موضع التنفيذ، لكنه يشير إلى أن الشركة لا تزال تتابع تطورات الذكاء الاصطناعي لمعالجة مشكلات المحتوى الرئيسية.

مقالات ذات صلة

زر الذهاب إلى الأعلى