` `

تقييم مستخدمي الإنترنت للمحتوى على مواقع التواصل قد يكون حلًا لانتشار المعلومات المضللة

بيان حمدان بيان حمدان
تكنولوجيا
17 نوفمبر 2022
تقييم مستخدمي الإنترنت للمحتوى على مواقع التواصل قد يكون حلًا لانتشار المعلومات المضللة
(Getty) MIT أنجز الدراسة فريق من جامعة

هذه المدوّنة ترجمة لمقال من موقع MIT News.

عند مكافحة انتشار المعلومات المضللة، عادةً ما تضع مواقع التواصل الاجتماعي معظم المستخدمين موضع المتفرج، إذ تعتمد بنسبة كبيرة على خوارزميات التعلم الآلي أو متقصي الحقائق للإبلاغ عن المحتوى الخاطئ أو المضلل للمستخدمين.

تقول فرناز جهانبخش وهي طالبة دراسات عليا في مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL) في معهد ماساتشوستس للتكنولوجيا "لمجرد أن هذا هو الوضع الراهن لا يعني أنّها الطريقة الصحيحة أو الطريقة الوحيدة لحل هذه المشكلة".

أجرت جهانبخش وزملاؤها دراسة أتاحوا فيها لمستخدمي التواصل الاجتماعي أن يواجهوا انتشار المعلومات المضللة بأنفسهم. 

بداية، استطلعوا آراء المشاركين في الدراسة لمعرفة كيفية تجنب أو ترشيح المعلومات الخاطئة على مواقع التواصل الاجتماعي، ثم وباستخدام النتائج التي توصلوا إليها، طور الباحثون نموذجًا لمنصة تمكّن المستخدمين من تقييم دقة المحتوى، والإشارة إلى المستخدمين الآخرين الذين يثقون بهم لتقييم دقة المحتوى، وتصفية المنشورات التي تظهر في صفحتهم الرئيسية بناءً على تلك التقييمات.

وجد الباحثون أن المستخدمين كانوا قادرين على تقييم المنشورات المضللة بشكل فعال دون تلقي أي تدريب مسبق. علاوة على ذلك، تمكنوا من عرض التقييمات بطريقة منظمة. كما رأى الباحثون أن المشاركين استخدموا فلاتر المحتوى بشكل مختلف، فعلى سبيل المثال، حظر بعضهم كل المحتوى المضلل، بينما استخدم البعض الآخر الفلاتر للبحث عن المعلومات المضللة.

قالت جهانبخش عن النتائج "يوضح هذا العمل أن الطرق اللامركزية لتقييم المحتوى يمكن أن تؤدي إلى الحد من انتشار المحتوى المضلل وبالتالي زيادة موثوقية المحتوى على مواقع التواصل الاجتماعي". وأضافت "هذا النهج أكثر كفاءة وقابلية للتوسع من أنظمة الإشراف المركزية على المحتوى، وقد يجذب المستخدمين الذين لا يثقون في عمل المنصات". 

وتابعت جهانبخش "تفترض الكثير من الأبحاث حول المعلومات المضللة أن المستخدمين لا يمكنهم تحديد ما هو صحيح وما هو خاطئ، ولذا يتعين علينا مساعدتهم ولكننا لم نر ذلك على الإطلاق، بل رأينا أن المستخدمين يتعاملون بفعالية مع تدقيق المحتوى ويحاولون أيضًا مساعدة بعضهم البعض إلا أن هذه الجهود لا تدعمها المنصات حاليًا".

كتبت جهانبخش الورقة البحثية مع إيمي زانج وهي أستاذة مساعدة في كلية علوم وهندسة الحاسوب في جامعة واشنطن وإلى جانبهم ديفيد كارجر أستاذ علوم الكمبيوتر في CSAIL. وسيتم تقديم البحث في مؤتمر ACM حول العمل التعاوني المدعوم بالحاسوب والحوسبة الاجتماعية.

مواجهة المعلومات المضللة 

يعد انتشار المعلومات المضللة عبر الإنترنت مشكلة واسعة الانتشار. ومع ذلك، فإن الأساليب الحالية التي تستخدمها منصات التواصل الاجتماعية لتمييز المحتوى المضلل أو إزالته لها جوانب سلبية. على سبيل المثال، عندما تستخدم المنصات الخوارزميات أو متقصي الحقائق لتقييم المنشورات، يمكن أن يؤدي ذلك إلى توتر بين المستخدمين الذين يفسرون هذه الجهود على أنها انتهاك لحرية التعبير، إضافة إلى مسائل إشكالية أخرى.

تضيف جهانبخش "في بعض الأحيان يرغب المستخدمون في ظهور معلومات مضللة في صفحتهم الرئيسية لأنهم يريدون معرفة ما يتعرض له أصدقاؤهم أو عائلاتهم من محتوى مضلل، حتى يعرفوا متى وكيف يتحدثون معهم حول هذا الموضوع".

يحاول المستخدمون غالبًا تقييم المعلومات المضللة والإبلاغ عنها بأنفسهم، ويحاولون مساعدة بعضهم البعض من خلال سؤال الأصدقاء والخبراء لمساعدتهم على فهم ما يقرؤونه. لكن هذه الجهود يمكن أن تأتي بنتائج عكسية لأن المنصات لا تدعمها، فبينما يمكن للمستخدم ترك تعليق على منشور مضلل أو الرد برمز تعبيري غاضب، تعتبر معظم المنصات هذه الإجراءات دليل على المشاركة فقط. 

في منصة فيسبوك على سبيل المثال، فإن هذه التعليقات والتعبيرات الرافضة للمحتوى قد تساهم في وصول المحتوى المضلل لعدد أكبر من المستخدمين، بما في ذلك أصدقاء المستخدم ومتابعيه، وهذا عكس ما يريده هذا المستخدم تمامًا.

للتغلب على هذه المشاكل، سعى الباحثون إلى إنشاء منصة تمنح المستخدمين القدرة على تقييم دقة المحتوى وعرض هذه التقييمات على المنشورات، بالإضافة إلى الإشارة إلى الآخرين الذين يثقون بهم لتقييم المنشورات، واستخدام مرشّحات المحتوى للتحكم في المحتوى المعروض في صفحتهم الرئيسية. في النهاية، فإن هدف الباحثين هو تسهيل مساعدة المستخدمين لبعضهم البعض في تقييم المعلومات الخاطئة على مواقع التواصل الاجتماعي، مما يقلل من عبء العمل على الجميع.

بدأ الباحثون باستبيان عن 192 شخصًا من منصة فيسبوك لمعرفة ما إذا كان المشاركون سيتمكنون من تقييم دقة المحتوى، وأظهر الاستبيان أن المستخدمين كانوا على دراية مفرطة بالمعلومات الخاطئة ويحاولون تتبعها والإبلاغ عنها، لكنهم يخشون أن يُساء تفسير تقييماتهم، كما بيّنت نتائج الاستطلاع أن المشاركين يشككون بجهود المنصات لتقييم المحتوى لهم، وعلى الرغم من رغبتهم باستخدام الفلاتر التي تمنع المحتوى غير الموثوق به، إلا أنهم لا يثقون في الفلاتر التي تديرها المنصة.

بالاعتماد على هذه النتائج، أنشأ الباحثون نموذجًا أوليًا لمنصة تشبه فيسبوك تسمى ترست نت Trustnet، وفيها ينشر المستخدمون منشورات إخبارية حقيقية ويشاركونها مع بعضهم البعض، كما يمكن للمستخدمين متابعة الآخرين للاطلاع على محتواهم، ولكن قبل أن يتمكن المستخدم من نشر أي محتوى في ترست نت، يجب عليه تقييم هذا المحتوى على أنه دقيق أو غير دقيق أو الاستفسار عن مدى صحته وهذا التقييم سيكون مرئيًا للآخرين.

تقول جهانبخش إن "السبب الذي يجعل الناس يشاركون المعلومات المضللة عادة لا يكون لأنهم لا يعرفون ما هو الصحيح وما هو الخطأ بل لأنهم عند المشاركة يتجه اهتمامهم نحو عناصر أخرى غير التضليل، فإذا طلبت منهم تقييم المحتوى قبل مشاركته، فإن هذا يساعدهم على أن يكونوا أكثر تمييزًا لدقة المحتوى". 

اختبار منصة ترست نت

بمجرد اكتمال النموذج الأولي للمنصة، أجرى الباحثون دراسة استخدموا فيها 14 فردًا من المنصة لمدة أسبوع واحد، ووجدوا أنه يمكن للمستخدمين تقييم المحتوى بشكل فعال، غالبًا استنادًا إلى الخبرة أو مصدر المحتوى أو من خلال تقييم منطق المحتوى، على الرغم من عدم تلقي أي تدريب. كانوا أيضًا قادرين على استخدام الفلاتر لإدارة المعلومات الظاهرة في صفحاتهم الرئيسية، بالرغم من أنهم استخدموها بشكل مختلف.

وقالت جهانبخش في هذا الصدد، "حتى في مثل هذه العينة الصغيرة، كان من المثير للاهتمام أن نرى أن الجميع لم يرغب في قراءة أخبارهم بنفس الطريقة فبعضهم أراد أن توجد منشورات مضللة في صفحاتهم المضللة لأنهم رأوا فوائد لها بشكل أو بآخر، وهذا يشير إلى حقيقة أن هذه الميزة مفقودة الآن في مواقع التواصل الاجتماعي، ويجب إعادتها إلى المستخدمين". 

وأضافت "يجد المستخدمون صعوبة أحيانًا في تقييم المحتوى عندما يحتوي على ادعاءات متعددة، بعضها صحيح وبعضها خاطئ، أو إذا تم فصل العنوان الرئيسي والمقال وهذا يوضح الحاجة إلى منح المستخدمين مزيدًا من خيارات التقييم، ربما بالقول إن مقالًا صحيحًا ولكنه مضلل أو أنه يحتوي على استقطاب سياسي".

ونظرًا لأن مستخدمي منصة ترست نت يجدون صعوبة أحيانًا بتقييم دقة المقالات التي لا يتطابق المحتوى فيها مع العنوان الرئيسي، أطلقت جهانبخش مشروعًا بحثيًا آخر لإنشاء امتداد متصفح يتيح للمستخدمين تعديل عناوين الأخبار لتكون أكثر انسجامًا مع محتوى المقال.

بينما تُظهر هذه النتائج أنه يمكن للمستخدمين لعب دور أكثر نشاطًا في مكافحة المعلومات المضللة، تحذر جهانبخش من أن منح المستخدمين هذه القوة ليس حلاً سحريًا، إذ قالت "يمكن لهذا النهج أن يخلق مواقف حيث يرى المستخدمون فقط المعلومات من مصادر متشابهة، ومع ذلك، يمكن إعادة تكوين الفلاتر والتقييمات المستمرة للمساعدة في التخفيف من هذه المشكلة".

ترغب جهانبخش أيضًا بدراسة الأساليب التي يمكن أن تشجع الناس على قراءة تقييمات المحتوى من الأشخاص الذين لديهم وجهات نظر مختلفة، وتقترح أن تصميم ألعاب خاصة قد يساهم بإنجاز هذه المهمة. ونظرًا لأن منصات الوسائط الاجتماعية قد تكون مترددة في إجراء تغييرات، فإنها تعمل حاليًا على تطوّير تقنيات تمكن المستخدمين من نشر تقييمات للمحتوى وعرضها من خلال متصفحات الويب بدلًا من منصات التواصل. وقد تم دعم هذا العمل جزئيًا من قبل مؤسسة العلوم الوطنية.

يقول مارك أكرمان وهو أستاذ التفاعل بين الإنسان والحاسوب في كلية المعلومات بجامعة ميتشيغان "إن فهم كيفية مكافحة التضليل هو أحد أهم القضايا لديمقراطيتنا في الوقت الحاضر. لقد فشلنا إلى حد كبير في إيجاد الحلول التقنية على نطاق واسع. وأرى أن هذا المشروع يقدّم نهجًا جديدًا ومبتكرًا لهذه المشكلة الحرجة".

ويضيف "نقطة البداية لدراستهم هي أن الناس يفهمون المعلومات بشكل طبيعي من خلال الأشخاص الذين يثقون بهم في شبكتهم الاجتماعية، وبالتالي فإن المشروع يعزز الثقة في الآخرين لتقييم دقة المعلومات. وهذا ما يفعله الأشخاص بشكل طبيعي في البيئات الاجتماعية، ولكن من الناحية الفنية، فإن المنصات لا تدعم هذه الفرضية حاليًا بشكل جيد". وأردف "يدعم نظامهم أيضًا الأخبار الموثوقة ومصادر المعلومات الأخرى (غير الموثوقة) وهذا يعكس ما تقوم به منصات التواصل ذات الخوارزميات غير الشفافة".

اقرأ/ي أيضًا

خبراء: سياسات ماسك ستزيد من انتشار التضليل على تويتر

جورج بوش ومحمود عباس وتوني بلير حسابات موثقة على تويتر تحمل أسماءهم لكنها زائفة

الأكثر قراءة