` `

كيف نحمي أنفسنا من تأثير الأخبار المضللة؟

إسماعيل الغول إسماعيل الغول
تكنولوجيا
30 مارس 2022
كيف نحمي أنفسنا من تأثير الأخبار المضللة؟
يعدّ التعلم التجريبي أداة من أدوات مكافحة الأخبار الزائفة (Getty)

التقرير مترجم عن مقال أصلي في موقع ذا كونفرسايشون
 

في ظل الانتشار الكبير لشبكة الإنترنت وتوافرها في جميع أنحاء العالم، أصبح بإمكان أي شخص إنشاء محتوى مضلل ونشره على مواقع التواصل الاجتماعي، بدءًا من المعلومات المزيفة وحتى التشويه المضلل للحقائق.

بالنظر إلى الأهمية القصوى لحرية الرأي والتعبير، فإن تشريع وسنّ قوانين تردع مروجي الأخبار المضللة، يمثِّل تحديًا كبيرًا لمنع انتشارها.
 لقد كانت هذه مشكلة كبيرة وسط جائحة كورونا المستمرة حاليًّا، إذ انتشرت بسرعة الادعاءات الكاذبة وغير المثبتة حول طبيعة الفايروس، على نطاق واسع في مواقع التواصل الاجتماعي.

وعززت حملات التضليل العالمية التي تستهدف سلامة وفعالية اللقاحات الخطاب المتزايد المناهض لها، ممّا أدى إلى توقف معدلات التطعيم والتسبب في وفاة أعداد كبيرة من البشر.
وكان تأثير هذا التهديد الذي تشكله المعلومات المضللة واضحًا على عمل المؤسسات والمجتمع ككل.

امتداد لا مثيل له
رغم أن المعلومات المضللة في حدِّ ذاتها ليست جديدة، فإن الإنترنت يوفِّر امتدادًا لا مثيل له لنشرها. بين عامي 2014 و2017 ، أنتج صنّاع المحتوى الروس عشرات الآلاف من المحتويات المضللة، ووصلت تلك المحتويات إلى أكثر من 126 مليون مستخدم أميركي على موقع فيسبوك فقط.

وبالمثل، تعامل موقع تويتر مع كمية هائلة من الأخبار المضللة في السنوات الأخيرة، ممّا أدى إلى آلاف الطلبات القانونية من قبل الحكومات في جميع أنحاء العالم لإزالة تلك الأخبار.

قد تساعد الجهود المبذولة على إزالة المعلومات المضللة من منصات التواصل الاجتماعي، ولكن السؤال الأكثر الأهمية هو ما إذا كانت هذه الجهود يمكن أن تتماشى مع الوتيرة السريعة لانتشار المعلومات المضللة؟

واستجابة للضغط المتزايد للسيطرة على المعلومات المضللة على منصاتها، اعتمدت وسائل التواصل الاجتماعي العملاقة بشكل عام على إزالة المحتوى الزائف أو تصنيفه بشكل تفاعلي بعد أن يتم ملاحظته والإبلاغ عنه.
أظهرت الأبحاث أن الأخبار المضللة تنتشر بشكل أسرع من الأخبار الحقيقية. غالبًا ما يُنظر إلى المعلومات المضللة على أنها جديدة ومثيرة، وبالتالي تجذب الانتباه بسرعة ويتم عرضها ومشاركتها بسهولة أكبر.
يحدث هذا حاليًا مع الصراع في أوكرانيا، حيث وصلت العديد من الصور المضللة عن الأحداث الجارية إلى مئات الآلاف من المشاهدات على تويتر قبل إزالتها. إذ يؤدي تصنيف المحتوى على أنه مضلل وإزالته من هذه المنصات إلى إجبار شركات وسائل التواصل الاجتماعي على تجاوز الخطوط الضبابية لحرية التعبير وحمايتها بسبب زيف المحتوى.

ظهر هذا التحدي مؤخرًا، ودعا المئات من الأطباء والعلماء والموسيقيين أمثال، نيل يونغ، وجوني ميتشل، عبر منصة سبوتيفي إلى اتخاذ إجراءات ضدّ المعلومات الطبية الخاطئة التي يتم الترويج لها في أكثر البودكاست شهرة.، “Joe Rogan Experience”.


نظرية التلقيح (التمكين)
حتى لو نجح عمالقة وسائل التواصل الاجتماعي في القضاء على المعلومات المضللة على منصاتهم بشكل هادف، فماذا عن بقية الإنترنت؟
إذا كانت مواجهة معلومات مضللة عبر الإنترنت أمرًا لا مفر منه، فقد يكون أفضل نهج لدينا للتخفيف من آثارها هو تحسين قدرات المستخدمين على التعرف عليها ورفض مشاركتها. واحدة من أكثر الطرق الواعدة للقيام بذلك هي نظرية التلقيح.

تستند نظرية التلقيح التي يطلق عليها أيضًا التطعيم أو التمكين على التناظر بين مقاومة الإقناع ومقاومة الأمراض المعدية. مثلما يساعد تعريض الأفراد لمُمْرِض ضعيف على حمايتهم من المرض الشديد (التطعيم)، فإن تعريض الأفراد لأشكال ضعيفة من المعلومات المضللة يمكن أن يحسن قدرتهم على التعرف عليها ومقاومتها.

التعلم التجريبي

أظهرت الدراسات في مجال المعلومات المضللة المضادة للقاحات وتغير المناخ أن تعريض الأفراد لأمثلة من المعلومات المضللة في الحياة الواقعية، مع توضيح أسباب زيفها، يمكن أن يساعد على مقاومة المستخدمين للمعلومات المضللة بشكل أفضل من الرسائل المؤيدة للعلم.

أنتج باحثون في جامعة كامبريدج مؤخرًا لعبة تحاكي إنشاء معلومات مضللة عبر الإنترنت، يتعلم اللاعبون من خلالها فهم دوافع وقدرات أولئك الذين ينشرون الأخبار المضللة.
في حين أن تطوير مهارات القراءة والكتابة الرقمية لدى المتعلمين أمر مهم، فدون خبرة مباشرة بالمعلومات المضللة، قد يظل الناس فريسة لتأثيراتها المقنعة.

اعتبارًا من 2 مارس/آذار الجاري، تظهر كلمة "معلومات مضللة" مرة واحدة فقط في مناهج التعليم الأساسي والثانوي في أونتاريو (لا علاقة لها بالمساحات الرقمية) ولا تظهر على الإطلاق في سلسلة تطوير الكفاءة الرقمية في كيبيك المكونة من 38 صفحة.

يجب على المعلمين وصانعي السياسات العمل لضمان أن الأجيال القادمة مُستعدة بشكل كافٍ للتعامل مع المعلومات المضللة من خلال التعلم التجريبي. يجب أن يكونوا مستعدين للمعلومات المضللة الموجودة اليوم، وكذلك للمشهد الرقمي الذي سيواجهونه في المستقبل.


الاستهداف المُوجَّه

بعد التقدم في برامج الفوتوشوب والذكاء الاصطناعي سوف يصبح الحكم على أصالة المحتوى عبر الإنترنت أكثر صعوبة في المستقبل. 
فقد ظهرت مؤخرًا على منصات التواصل الاجتماعي مقاطع الفيديو المزيفة Deepfake التي تحاكي شخصيات عامة تقول وتفعل أشياء لم تحدث أبدًا، وثبت أنه من الصعب تمييزها عن الواقع بالنسبة للمستخدم العادي.

أصبحت حسابات الروبوتات الاجتماعية، التي تستخدم خوارزميات الكمبيوتر لانتحال شخصية مستخدمين حقيقيين، أكثر تعقيدًا ويصعب اكتشافها، إذ يتم التحكم في الآلاف من هذه الروبوتات من قبل أفراد عازبين، مما يؤدي إلى تغيير الخطاب العام بقوة من خلال الترويج لوجهات نظر معينة.

لمكافحة هذا، أنشأ الباحثون في جامعة كليمسون اختبارًا يمكِّن المشاركين التمييز بين مستخدمي وسائل التواصل الاجتماعي الحقيقيين والحسابات المزيفة التي تنشر المعلومات المضللة، بالإضافة إلى تعلم إشارات مهمة للتمييز بينهما بشكل دائم.

سيكون تمكين الأجيال الحالية والمستقبلية من اكتشاف ورفض المعلومات المضللة أمرًا محوريًا في تطوير ديمقراطية قادرة على مواجهة تهديد المعلومات المضللة عبر الإنترنت.
المصادر

ذا كونفرسايشون
 

اقرأ/ي أيضًا

الحرب في اليمن وتداعياتها ساحةٌ خصبةٌ للأخبار المضلّلة
دراسة: خوارزميّة تيك توك توجّه المستخدمين إلى أخبار زائفة عن أوكرانيا

الأكثر قراءة