` `

فيسبوك يوافق على نشر إعلانات تحرض على العنف ضد الفلسطينيين وقتلهم

إسلام عزيز إسلام عزيز
تكنولوجيا
22 نوفمبر 2023
فيسبوك يوافق على نشر إعلانات تحرض على العنف ضد الفلسطينيين وقتلهم
عرض فيسبوك إعلانًا يدعو إلى اغتيال ناشط أميركي (Getty)

كشفت صحيفة إنترسبت الأميركية في تقرير لها، أن موقع التواصل الاجتماعي فيسبوك، وافق على نشر سلسلة من الإعلانات التي تدعو إلى العنف ضد الفلسطينيين وقتلهم على المنصة. 

وأوضح التقرير أن الإعلانات المقدمة كانت باللغتين العبرية والعربية، وتضمنت انتهاكات صارخة لسياسات فيسبوك وشركتها الأم ميتا. وكان بعضها عبارة عن محتوى عنيف يدعو بشكل مباشر إلى قتل المدنيين الفلسطينيين، مثل الإعلانات التي تطالب بـ "محرقة للفلسطينيين" والقضاء على "نساء وأطفال وشيوخ غزة". ووصفت منشورات أخرى، أطفال غزة بأنهم "إرهابيو المستقبل".

إعلانات تجريبية لاختبار رقابة فيسبوك على المحتوى

وكانت مجموعة "حملة" التابعة للمركز العربي لتطوير الإعلام الاجتماعي، عملت على إعلانات تجريبية على فيسبوك، وقدمتها لصحيفة إنترسبت، لتكشف عن الأمر. وتجاوزت الإعلانات التي قدمتها "حملة"، الرقابة التي يفرضها الموقع ووافق على نشرها.

وقال نديم الناشف، مؤسس مجموعة حملة "إن الموافقة على هذه الإعلانات هي الأحدث في سلسلة من إخفاقات ميتا تجاه الشعب الفلسطيني، وطوال هذه الأزمة، شهدنا نمطًا مستمرًا من التحيز الواضح والتمييز ضد الفلسطينيين".

وظهرت فكرة حملة لاختبار جهاز الرقابة على التعلم الآلي على فيسبوك الشهر الفائت، عندما اكتشف الناشف إعلانًا على فيسبوك يدعو صراحةً إلى اغتيال الناشط الأميركي بول لارودي، أحد مؤسسي حركة غزة الحرة. وجاء في الترجمة التلقائية لفيسبوك الإعلان النصي "حان الوقت لاغتيال بول لارودي، هذا الإرهابي المعادي للسامية والمدافع عن حقوق الإنسان من الولايات المتحدة". وأبلغ فيسبوك عن الإعلان، الذي تمت إزالته لاحقًا.

مجموعة إسرائيلية يمينية نشرت الإعلانات التحريضية

نُشر الإعلان من قبل Ad Kan، وهي مجموعة إسرائيلية يمينية أسسها ضباط سابقون في الجيش الإسرائيلي وضباط مخابرات لمحاربة "المنظمات المناهضة لإسرائيل"، التي يأتي تمويلها من مصادر يُزعم أنها معادية للسامية.

وتعتبر الدعوة لاغتيال ناشط سياسي انتهاكًا لقواعد الإعلان في فيسبوك. ويشير ظهور المنشور الذي رعاه Ad Kan على المنصة إلى موافقة فيسبوك عليه على الرغم من تلك القواعد. ومن المحتمل أن يكون الإعلان قد مر عبر تصفية تلقائية من فيسبوك، استنادًا إلى التعلم الآلي، مما يسمح لأعماله الإعلانية العالمية بالتشغيل بسرعة كبيرة.

تستخدم ميتا الرقابة الخوارزمية لحذف المنشورات العربية

ويقول موقع فيسبوك إنه "تم تصميم نظام لمراجعة جميع الإعلانات لديه قبل نشرها"، حيث أصبحت الشركة تعتمد بشكل أكبر على برامج مسح النصوص الآلية لفرض قواعد الكلام وسياسات الرقابة، بعد انتقادات واجهتها بسبب نظامها البشري، الذي اعتمد تقريبًا بشكل كامل على عمالة المتعاقدين الخارجيين.

وفق موقع إنترسبت، فإنّ هذه التقنيات تسمح للشركة بتجنب قضايا العمل المرتبطة بالمشرفين البشريين، كما تحجب أيضًا كيفية اتخاذ قرارات الإشراف خلف الخوارزميات السرية.

إذ في العام الفائت، وجدت مراجعة خارجية بتكليف من ميتا أنه بينما كانت الشركة تستخدم بشكل روتيني الرقابة الخوارزمية لحذف المنشورات العربية، لم يكن لدى الشركة خوارزمية مكافئة للكشف عن "الخطاب العدائي العبري" مثل الخطاب العنصري والتحريض العنيف. وبعد التدقيق، زعمت شركة ميتا أنها "أطلقت أداة تصنيف للخطاب العدائي العبري لمساعدتها بشكل استباقي في الكشف عن المحتوى العبري الأكثر انتهاكًا".

التحريض على العنف عبر فيسبوك 

وفي خضم الحرب الإسرائيلية على الفلسطينيين في غزة، كشف الناشف أنه منزعج من الدعوة الصريحة في الإعلان لقتل لارودي، لدرجة أنه شعر بالقلق من أن الوظائف المماثلة مدفوعة الأجر قد تساهم في العنف ضد الفلسطينيين.

ويُشير إنترسبت، إلى أنّ التحريض على العنف على نطاق واسع، والذي ينتقل من مواقع التواصل الاجتماعي إلى العالم الحقيقي ليس مجرد افتراض، إذ في عام 2018، وجد محققو الأمم المتحدة أن المنشورات التحريضية العنيفة على فيسبوك، لعبت دورًا حاسمًا في الإبادة الجماعية للروهينغا في ميانمار.

لم توضح الإزالة السريعة لمنشور بول لارودي كيفية الموافقة على الإعلان في المقام الأول. في ضوء تأكيدات فيسبوك بوجود ضمانات، شعر الناشف وحملة، اللذان يتعاونان رسميًا مع ميتا في قضايا الرقابة وحرية التعبير، بالحيرة.

وقال الناشف "علمنا من مثال ما حدث للروهينغا في ميانمار أن شركة ميتا لديها سجل حافل بعدم القيام بما يكفي لحماية المجتمعات المهمشة، وأن نظام إدارة الإعلانات الخاص بها كان ضعيفًا بشكل خاص".

ميتا تفشل في اختبار حملة

إن دليل قواعد معايير المجتمع الخاص بالشركة، والذي من المفترض أن تمتثل الإعلانات له حتى تتم الموافقة عليها، لا يحظر فقط النصوص التي تدعو إلى العنف، ولكن أيضًا أي تصريحات تجرد الأشخاص من إنسانيتهم على أساس العرق أو الدين أو الجنسية. وعلى الرغم من ذلك، تظهر رسائل التأكيد الإلكترونية التي تمت مشاركتها مع الصحيفة على أن فيسبوك وافق على كل إعلان.

وعلى الرغم من أن حملة قالت لصحيفة إنترسبت، إن المنظمة لم يكن لديها أي نية لعرض هذه الإعلانات فعليًا وكانت ستسحبها قبل الموعد المقرر لظهورها، إلا أنها تعتقد أن الموافقة عليها توضح أن المنصة تعاني من قصر النظر بشكل أساسي فيما يتعلق بالكلام غير الإنجليزي - وهي اللغات التي يستخدمها عدد كبير من الأشخاص.
كما قام مركز حملة باختبار نفس الإعلانات باللغة العربية، وكما هو الحال مع اللغة العبرية، تمت الموافقة على جميع الإعلانات العربية أيضًا. على غرار ملف شخصي على فيسبوك يسمى "هاجروا الآن" ينشر إعلانات تدعو "العرب في يهودا والسامرة" إلى الهجرة إلى الأردن "قبل فوات الأوان". وهو ما اعتبرت "حملة" أنّه يُعد لغة مشفرة واستخدامًا واضحًا للترهيب، لا يجب أن يكون له مكان على منصات ميتا". وأشارت حملة أنّه “لا ينبغي بالتأكيد أن تستفيد ميتا ماليًا من المجموعات التي تدير هذه الأنواع من إعلانات الكراهية”.

وأكدت المتحدثة باسم فيسبوك، إيرين ماكبايك، أنه تمت الموافقة على الإعلانات عن طريق الخطأ، وقالت في تصريحات نقلتها إنترسبت "على الرغم من استثماراتنا المستمرة، فإننا نعلم أنه ستكون هناك أمثلة لأشياء نفتقدها أو نزيلها عن طريق الخطأ، حيث يرتكب كل من الآلات والبشر الأخطاء"، مضيفة "لهذا السبب يمكن مراجعة الإعلانات عدة مرات، بما في ذلك بمجرد نشرها".

الموافقة على هذه الإعلانات تشير إلى مشكلة عامة

ووفقًا لوثائق فيسبوك، فإن الفحص الآلي القائم على البرامج هو "الطريقة الأساسية" المستخدمة للموافقة على الإعلانات أو رفضها. ولكن من غير الواضح ما إذا كانت خوارزميات "الخطاب العدائي" المستخدمة للكشف عن المشاركات العنيفة أو العنصرية تُستخدم أيضًا في عملية الموافقة على الإعلان. 

وفي رده الرسمي على تدقيق العام الفائت، قال فيسبوك إن "أداة التصنيف الجديدة للغة العبرية ستحسن بشكل كبير قدرتها على التعامل مع الزيادات الكبيرة في محتوى الانتهاك، مثل ما يتعلق باندلاع الصراع بين إسرائيل وفلسطين". 

لكن بناءً على تجربة حملة، إما أن هذا المصنف لا يعمل بشكل جيد أو أنه لسبب ما لا يتم استخدامه لفحص الإعلانات.

وفي كلتا الحالتين، فإن حقيقة الموافقة على هذه الإعلانات تشير إلى مشكلة عامة: تدعي شركة ميتا أنها تستطيع استخدام التعلم الآلي بشكل فعال لردع التحريض الصريح على العنف، في حين أنه من الواضح أنها لا تستطيع ذلك، حسبما قال الناشف.

وأضاف في تصريحاته "نحن نعلم أن مصنفات ميتا العبرية لا تعمل بشكل فعال، ولم نر الشركة تستجيب لأي من مخاوفنا تقريبًا"، موضحًا "وبسبب هذا التقاعس عن العمل، نشعر أن ميتا قد يتحمل مسؤولية جزئية على الأقل عن بعض الأذى والعنف الذي يعاني منه الفلسطينيون على الأرض". 

ويُذكر أن النشطاء العرب على منصتي فيسبوك وإنستغرام، يعانون من تعرض منشوراتهم المؤيدة للفلسطينيين للحجب أو الحذف منذ فترة، وزادت هذه الحملة خلال الحرب الأخيرة على قطاع غزة.

اقرأ/ي أيضًا

إسرائيل تروّج لموقع إلكتروني زائف على أنه تابع لحركة حماس

كيف رسمت منظمة ضغط إسرائيلية السياسة التحريرية لعشرات وسائل الإعلام الغربية؟

اقرأ أيضاً

الأكثر قراءة