` `

أبرز الأساليب الحديثة لحملات التضليل الممنهجة وطرائق كشفها

فراس دالاتي فراس دالاتي
تكنولوجيا
5 مايو 2024
أبرز الأساليب الحديثة لحملات التضليل الممنهجة وطرائق كشفها
يمكن كشف حملات التضليل المنسقة لكن ليس من خلال أداة وحيدة (Getty)

هذا المقال مترجم بتصرف عن صحيفة ذا إيكونوميست البريطانية

في يناير/كانون الثاني 2024، في الفترة التي سبقت الانتخابات في تايوان، ظهرت مئات مقاطع الفيديو على يوتيوب وانستغرام وإكس ومنصات اجتماعية أخرى بعنوان "التاريخ السري لتساي إنغ ون" (رئيسة تايوان المنتهية ولايتها). وفيها قدّم مذيعو الأخبار، الذين يتحدثون الإنجليزية والصينية، سلسلة من الادعاءات الكاذبة حول إنغ ون وحزبها الحاكم. وفي يوم الانتخابات نفسه، 13 يناير، انتشر مقطع صوتي بدا فيه تيري جو، المرشح الذي انسحب من السباق في نوفمبر/تشرين الثاني 2023، وكأنه يؤيد مرشح حزب الكومينت الصيني، المتحالف مع حكومة بكين.

مقاطع الفيديو والمقاطع الصوتية تلك تم إنشاؤها باستخدام الذكاء الاصطناعي  ونشرتها مجموعة دعاية صينية مدعومة من الدولة تُعرف بأسماء مختلفة مثل "Spamouflage" و"Dragonbridge" و"Storm-1376". وفي تقرير صدر يوم الخامس من إبريل/نيسان الفائت، قال فريق استخبارات التهديدات في شركة مايكروسوفت، إن هذه هي المرة الأولى التي يُرى فيها دولة قومية تستخدم مواد تم إنشاؤها بواسطة الذكاء الاصطناعي، للتأثير على الانتخابات الأجنبية في دولة أخرى.

تم إنشاء المقاطع باستخدام CapCut، وهو تطبيق صممته شركة "بايت دانس"، الشركة الصينية الأم لتطبيق تيك توك. وفي ذروة انتشارها، تمت مشاركة مقاطع الفيديو 100 مرة في الدقيقة، ولكن تم التعرف عليها وإزالتها بسرعة. وبشكل عام، لم تصل سوى لعدد قليل من الناس. لكن من المرجح أن تستخدم الصين تايوان بمثابة اختبار للأفكار التي تخطط لنشرها في أماكن أخرى، حسبما صرح مسؤول تايواني لصحيفة تايبيه تايمز المحلية. إذ إن انتخابات تايوان هي علامة على ظواهر قادمة، حيث سيعمل الذكاء الاصطناعي على زيادة إنتاج المعلومات المضللة، في ظل امتلاء وسائل التواصل الاجتماعي بواحد من أعلى مستويات التضليل المُقاد من حكومات أجنبية في العالم.

في عام يعقد فيه نصف العالم انتخابات وتسهل فيه التكنولوجيا الجديدة، صناعة ونشر المعلومات المضللة أكثر من أي وقت مضى، أصبحت حاجة الحكومات والشركات والأفراد في جميع أنحاء العالم لمواجهة هذه المشكلة أكثر إلحاحًا. ويدق خبراء الأمن ناقوس الخطر أيضًا حيال الظاهرة، إذ أخبر أكثر من 1400 خبيرًا المنتدى الاقتصادي العالمي مؤخرًا أن المعلومات المضللة والمعلومات الخاطئة (المعلومات غير الصحيحة التي يتم مشاركتها عن غير قصد) ستكون أكبر المخاطر العالمية في العامين المقبلين، بل إنها أكثر خطورة من الحرب، وتقلبات الطقس المتطرفة والتضخم.

ضباب حرب المعلومات

لا يزال هناك الكثير من الغموض عندما يتعلق الأمر بمقدار المعلومات المضللة الموجودة وكيف تشكل الآراء والسلوكيات. ومع ذلك، بدأ الباحثون في فهم كيفية عمل شبكات المعلومات المضللة، ويعملون على تطوير طرق للتعرف عليها ومراقبتها على أرض الواقع. وقد نفذت بعض البلدان ــمن تايوان والسويد إلى البرازيلــ سياسات لمكافحة المشكلة، وهو ما يمكن أن يوفر دروسًا مفيدة للدول الأخرى.

سيشرح هذا القسم الخاص أولًا كيفية عمل حملات التضليل. وسوف ينظر في دور الذكاء الاصطناعي، السلبي (خلق المعلومات المضللة) والإيجابي (الكشف عنها والتخفيف من أثرها). وسوف يقوم بتقييم الأدوات والسياسات الناشئة التي تهدف إلى مكافحة هذه المشكلة.

يمكن أن تتخذ المعلومات المضللة والزائفة أشكالًا عديدة وتؤثر على العديد من المجالات. ولسنوات عديدة، كانت الطريقة المعتادة للقيام بالأشياء، كما يقول أميل خان، الصحفي السابق الذي يدرس الآن المعلومات المضللة، هي استخدام مئات أو آلاف حسابات وسائل التواصل الاجتماعي، التي يسيطر عليها برنامج واحد، لنشر نفس الرسالة أو الرابط أو الإعجاب بمنشورات أو إعادة مشاركة منشورات معينة على نطاق واسع. يمكن لهذا "السلوك غير الزائف المنسق" (cib) أن يخدع خوارزميات التنظيم والاقتراح على شبكة اجتماعية مثل فيسبوك أو إكس، ويجعلها تعتقد أن هناك موجة من الاهتمام أو الدعم لوجهة نظر معينة. لتقوم الخوارزمية بعد ذلك بترويج هذه المنشورات لمستخدمين حقيقيين، والذين يمكنهم بعد ذلك مشاركتها مع متابعيهم.

أحد الأمثلة على هذا السلوك، التي قامت شركة خان، فالينت بروجيكتس، بتحليله، واستهدف شركة دايو الكورية الجنوبية الشهيرة لصناعة السيارات. فبعد أن فازت شركة دايو بعقد بناء بقيمة 2.6 مليار دولار من الحكومة العراقية، تعرضت لهجوم من قبل شبكات التضليل الصينية، التي نشرت قصصًا كاذبة عن الشركة في محاولة لإلغاء عقدها ومنحه لشركة صينية بدلًا من ذلك. وقيل في تلك الحملات إن شركة دايو كانت واجهة لمخطط غربي لاستغلال موارد العراق، وتم الاستشهاد بالتعليقات المختلقة المنسوبة إلى المسؤولين الأميركيين كدليل على أن أميركا كانت تحاول تقويض العلاقات الصينية العراقية. وقد تم فضح مثل هذه الادعاءات من قبل هيئات التحقق من الحقائق المتمركزة في العراق وقطر، لكن ذلك لم يفعل الكثير لعرقلة انتشارها.

من السهل إلى حد ما اكتشاف عمليات السلوك الزائف المنسق. إذ إنَّ شركة ميتا تجد الآن مثل هذه الشبكات وتغلقها بسرعة كبيرة، كما يقول خان (على الرغم من أن إكس أبطأ في هذا الصدد، كما يضيف). وفي أحدث تقرير لها حول عمليات ضبط وإغلاق تلك الحملات، والذي صدر في فبراير/شباط، تصف شركة ميتا ثلاث عمليات من هذا القبيل، في الصين وميانمار وأوكرانيا. ويشير التقرير إلى أن شبكات السلوك الزائف المنسق المبكرة التي استهدفت أوكرانيا كانت بسيطة ويمكن إرجاعها إلى أجهزة المخابرات الروسية.

حملات التضليل المرتبطة بالحكومات بشكل غير مباشر

لكن منذ عام 2022، اتخذت حملات التضليل شكلًا جديدًا. تديرها “كيانات يمكن إنكار ارتباطها بالحكومة”، مثل شركات التسويق أو مزارع المتصيدين دون روابط مباشرة مع الدولة، وتقوم بالنشر على مجموعة من الشبكات الاجتماعية ومنصات التدوين وإنشاء مواقع ويب مزيفة بالكامل. ومنذ مايو/أيار 2023، ارتفع عدد المنافذ الإخبارية التي أنشأها الذكاء الاصطناعي والتي تنشر معلومات مضللة من 49 إلى 802، وفقًا لمنظمة نيوزغارد، وهي منظمة أميركية تراقب المعلومات المضللة. تتميز هذه المواقع في الغالب بمقالات غير ضارة كمقالات القوائم، أُنشئت بواسطة الذكاء الاصطناعي، ولكن مع خلط المعلومات المضللة بين السطور.

ومن الأمثلة على ذلك موقع "دي سي ويكلي"، وهو موقع أميركي على ما يبدو كان له دور أساسي في تعزيز حملة التضليل التي تقودها روسيا، والتي تزعم أن أولينا زيلينسكا، السيدة الأولى في أوكرانيا، أنفقت 1.1 مليون دولار على جولة تسوق في الجادة الخامسة الفخمة في نيويورك. إذ بدأت تلك القصة، التي تتبعها باحثون في جامعة كليمسون، بمقطع فيديو على موقع يوتيوب، ومُرِّر عبر العديد من المواقع الإخبارية الأفريقية وموقع أُنشئ بواسطة الذكاء الاصطناعي قبل زرعها على وسائل التواصل الاجتماعي وتعزيزها من قبل وسائل الدعاية الروسية، لتتم مشاركتها 20 ألف مرة على إكس في نهاية المطاف.

يُطلق السيد خان على الحسابات والمواقع التي تزرع القصة اسم "البذرة". وبدلًا من استخدام المئات من الحسابات المزيفة للترويج لمواد هذه المواقع، يعتمد التوزيع بدلًا من ذلك على عدد قليل ممن يطلق عليهم "الناشرون"، وهي حسابات وسائل التواصل الاجتماعي التي تضم أعدادًا كبيرة من المتابعين. عادةً ما تقوم حسابات الموزعين ببناء متابعين من خلال النشر عن كرة القدم، أو إظهار نساء يرتدين ملابس ضيقة. يقول خان "وبعد ذلك سينقلبون"، فيبدؤون بخلط المعلومات المضللة من المصدرين، عن طريق الارتباط بمحتوى أو إعادة نشره. وأشار تقرير التهديد الخاص بشركة ميتا، الصادر في نوفمبر/تشرين الثاني 2023 إلى أنها شاهدت المجموعة الصينية "Spamouflage" تعمل على أكثر من 50 منصة، "وقامت بشكل أساسي بزرع المحتوى على منصات التدوين والمنتديات مثل ميديوم وريديت وكورا قبل مشاركة روابط هذا المحتوى على منصات ميتا”.

أما في البلدان الفقيرة، التي تقل فيها فرص العمل للشباب البارعين في التكنولوجيا، هناك صناعة منزلية تتمثل في بناء حسابات ناشرة كتلك ومن ثم بيعها إلى الجهات الفاعلة الخبيثة بمجرد وصولها إلى 100 ألف متابع، كما يقول خان. ويكمن التحدي في تحديد الناشرين في أن سلوكهم حقيقي، على الأقل في البداية، وأنهم ليسوا مولّدين للمعلومات المضللة، بل مجرد موزعين لها. قد تستمر حسابات الناشرين في النشر حول أشياء أخرى، مع خلط المعلومات المضللة بين الحين والآخر، لتجنب اكتشافها.

وقد شهدت شركة فالينت بروجكتس استخدام هذا النهج الأكثر تعقيدًا لنشر معلومات مضللة من روسيا في الدول الأوروبية، ولترويج المواد اليمينية المتشددة في بريطانيا. وفي الحالة الأخيرة، استخدمت الحسابات الناشرة منشورات "نميمية" عن العائلة المالكة البريطانية لجذب المتابعين، قبل أن تنتقل إلى الدعاية السياسية حول كيف أن "الأحياء ذات حركة المرور المنخفضة" (المناطق التي لا يتم فيها تشجيع حركة المرور عبرها) هي مؤامرة عالمية. وبالمثل، قامت مايكروسوفت بكشف تسخير مجموعة "Storm-1376" الصينية لهذا النموذج من النشر لترويج معلومات مضللة حول كون حرائق الغابات في هاواي بدأت بواسطة "سلاح طقس" أميركي، ولتضخيم الانتقادات الموجهة للحكومة اليابانية في كوريا الجنوبية، ولإثارة نظريات المؤامرة حول خروج قطار عن مساره في كنتاكي في تشرين الثاني/نوفمبر 2023.

كيف يمكن كشف سلوك حملات التضليل

عندما تستخدم العديد من الحسابات نفس الصياغة تمامًا، يكون اكتشاف هذه الحملات أمرًا بسيطًا نسبيًا. إذ ليس من المستغرب أن تصبح روايات معينة "تريند" فجأة على وسائل التواصل الاجتماعي، ولكن الارتفاع الكبير في الإشارات إلى موضوع معين في مجموعة من اللغات المختلفة، أو نشرها من خلال حسابات تبدو منتشرة في جميع أنحاء العالم، قد يكون إشارة إلى وجود خدعة ما. وبالمثل، يمكن لصائدي المعلومات المضللة فحص مجموعات من الحسابات التي تبث رسالة مماثلة. قد يكون لجميع الحسابات المراوغة نفس تاريخ الإنشاء، أو نفس عدد المتابعين، أو نفس نسبة المتابعين إلى المتابعة (لأنهم اشتروا متابعين مزيفين بكميات كبيرة في محاولة لتبدو أصلية).

لكن اكتشاف حسابات “البذر” وحسابات التوزيع في ظل نموذج النشر الأحدث يعد أكثر صعوبة. إذ تنشر تلك الحسابات رواية معينة، لكن المقالات والمشاركات المنشورة والمشاركات الموزعة التي تروج لها، قد تستخدم جميعها صياغات مختلفة. تحاول شركة فالينت حل هذه المشكلة باستخدام الذكاء الاصطناعي: حيث يستقبل نظامها، المسمى آريادني، خلاصات من المنصات الاجتماعية ويبحث عن الروايات والمشاعر الأساسية المشتركة لاكتشاف السلوكيات المنسّقة غير العادية. وعلى عكس الأساليب السابقة القائمة على الكلمات الرئيسية، يقول خان: "أحدث النماذج تتيح لنا التعامل مع رصد وتحليل المشاعر بشكلٍ لم يكن ممكنًا من قبل".

هناك طريقة أخرى لتحديد حسابات الناشرين تم وصفها في ورقة عمل حديثة من مركز بروكينجز الأميركي للأبحاث. إذ قامت الباحثة مريم سعيدي، الخبيرة الاقتصادية في جامعة كارنيجي ميلون، وزملاؤها بتحليل 62 مليون تغريدة من موقع إكس مكتوبة باللغة الفارسية، تتعلق بموجة الاحتجاجات المناهضة للحكومة في إيران، والتي بدأت في أيلول/سبتمبر 2022. وركز التحليل على حسابات الموزعين (التي يسميها الباحثون بـ "الدجالين") التي بدأت بالتظاهر بأنها تقف إلى جانب المتظاهرين، لكنها انقلبت بعد ذلك إلى نشر معلومات مضللة تشوه سمعة الاحتجاجات.

بدأ الباحثون بالتعرف على مئات من الحسابات "الدجالة" يدويًا. ثم قاموا بتدريب خوارزمية تصنيف لتحديد المزيد من المحتالين ذوي الخصائص المماثلة، بما في ذلك نشاط النشر الخاص بهم، ونمط متابعيهم، واستخدامهم لعلامات تصنيف معينة، ومدى حداثة إنشاء الحساب، وما إلى ذلك. وتمكن الباحثون بعد ذلك من تكرار تحديد هذه الحسابات الدجالة، بدقة بلغت 94 في المئة، من خلال تحليل الشبكة وحده، أي من خلال فحص علاقتها بالحسابات الأخرى فقط، بدلًا من محتوى منشوراتها.

ويشير هذا، كما يقول الباحثون، إلى أنه من الممكن تحديد "الحسابات ذات الميل الكبير للانخراط في حملات التضليل، حتى قبل أن تفعل ذلك". ويقترحون أن منصات وسائل التواصل الاجتماعي يمكن أن تستخدم هذا النوع من أساليب تحليل الشبكة لحساب "درجة الدعاية" لكل حساب، وجعلها مرئية للمستخدمين، للإشارة إلى ما إذا كان من المحتمل أن يكون مصدرًا للتضليل. يقترح الباحثون أنه يمكن تحسين خوارزمية الكشف عن المحتالين، باستخدام أشكال أكثر تقدمًا من الذكاء الاصطناعي، مثل معالجة اللغة الطبيعية والتعلم العميق.

لا شك أن شركات التكنولوجيا ووكالات الاستخبارات تقوم بالفعل بهذا النوع من التحليل، على الرغم من أنها مترددة في مشاركة التفاصيل حول أساليبها. وتقول ميتا فقط إنها استخدمت الذكاء الاصطناعي في "أنظمة النزاهة" الخاصة بها لسنوات عديدة لحماية المستخدمين وإنفاذ قواعدها. لكن الأكاديميين ومنظمات الحقوق الرقمية المدنية يقولون إنه لا يمكن استخدام طريقة واحدة للكشف تلقائيًا عن كل المعلومات المضللة، فالتكتيكات المستخدمة غالبًا ما تكون مخصصة لحملات محددة وتعتمد على محللين بشريين للتحقق من النتائج وتقديم التفاسير والفروق الدقيقة.

التحقق من المعلومات جهد تعاوني وليس فردي

ومع ذلك، يمكن للذكاء الاصطناعي المساعدة بطريقة مختلفة، من خلال اكتشاف المحتوى المخادع مباشرة، من خلال تحليل المنشورات الفردية أو المقالات أو المقاطع الصوتية أو مقاطع الفيديو. وكانت داربا، الذراع البحثية للمشاريع الخاصة التابعة لوزارة الدفاع الأميركية، تقوم بتمويل الأبحاث في مجال "اكتشاف وإسناد وتوصيف الوسائط  المركّبة والتي تم التلاعب بها" كجزء من برنامج "الطب الشرعي الدلالي"، لإنشاء مجموعة أدوات لتطوير الدفاعات.

وفي شهر مارس/آذار الفائت، نشرت قاعدةً مفتوحة المصدر بالعديد من المشاريع التي مولتها، مع روابط لكود مصدر قابل للتنزيل، وأعلنت عن سلسلة من تحديات "اكتشاف التزييف العميق"، إذ يهدف البرنامج إلى تشجيع المستخدمين الأكاديميين والتجاريين على دمج هذه الأدوات وتحسينها ونشرها في نهاية المطاف، والتي تعتمد جميعها على الذكاء الاصطناعي بشكل ما، كما يقول ويل كورفي من داربا، الذي يدير البرنامج.

ويقول إنه على الرغم من أن أداة تحليلية واحدة قد لا تكون موثوقة دائمًا، إلا أن الجمع بين العديد منها يمكن أن يحسن الدقة بشكل كبير. لنتأمل، على سبيل المثال، مشكلة تحديد ما إذا كان مقطع الفيديو الخاص بأحد السياسيين حقيقيًا أم لا. باستخدام البيانات الحقيقية للشخص المعني، من الممكن تدريب نموذج الذكاء الاصطناعي الذي يتعلم خصائصه، مثل أنماط إمالة الرأس أو حركات الوجه أثناء التحدث. ويمكن بعد ذلك استخدام هذا لتحليل التزييف العميق المشتبه به للتأكد من صحته. والأفضل من ذلك، كما يوضح الدكتور كورفي، أنه يمكن دمجها مع تقنيات أخرى، مثل اكتشاف نبضات القلب من الفيديو (يمكن رصد نبضات القلب من خلال البحث عن الاختلافات الصغيرة في لون البشرة، خاصة على الجبهة)، وهو أمر يصعب تزييفه. 

كما أن الأدوات الأخرى المُدرجة في كتالوج داربا قادرة على اكتشاف النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والصور المركبة أو المحررة، والصوت والفيديو المزيفين. يقول الدكتور كورفي إن نتائج الكشف عن الصوت المزيف "قوية بشكل خاص". ويمكن بالطبع أن يشير المقطع الصوتي المزيف إلى أن الفيديو المصاحب مزيف أيضًا.

إن جهود داربا ليست الجهد الوحيد من هذا النوع. إذ قام أورين إيتزيوني، عالم الكمبيوتر والرئيس السابق لمعهد ألين للذكاء الاصطناعي بتأسيس مجموعة TrueMedia.org غير الربحية، في يناير/كانون الثاني الفائت لتوسيع الوصول إلى أدوات الكشف. وفي الثاني من إبريل/نيسان، كشفت المجموعة عن موقع على شبكة الإنترنت يجمع بين الأدوات مفتوحة المصدر والأدوات المتاحة تجاريًا، من خلال واجهة ويب مجانية، لتوفير متجر شامل للكشف عن الصور والفيديو والصوت الاصطناعية أو التي تم التلاعب بها باستخدام أدوات متعددة في وقت واحد.

عندما يتعلق الأمر بالمحتوى السيئ، فإن الذكاء الاصطناعي هو سيف ودرع في نفس الوقت، كما يشير نيك كليج، رئيس الشؤون العالمية في ميتا. من جانبه، يقول الدكتور كورفي إنه متفائل بأن أدوات الكشف الدفاعية التي تعمل بالذكاء الاصطناعي يمكن أن تظل متقدمة على أدوات التوليد باستخدام الذكاء الاصطناعي. ويوافقه الرأي الدكتور هوارد، من جامعة أكسفورد، على الأقل في الوقت الحالي. ويقول إن هذه “لحظة حظ”، إذ تستطيع شركات التكنولوجيا اكتشاف مقاطع الفيديو المزيفة بشكل موثوق للغاية "على الرغم من أنني لا أعرف أن هذا سيستمر إلى الأبد".

أما رينيه ديريستا، التي تدرس تدفق المعلومات في مرصد الإنترنت بجامعة ستانفورد، فهي أقل اقتناعًا بذلك. وتقول إن أدوات الكشف الحالية قد تعمل بشكل جيد في بيئة خاضعة للرقابة عندما يكون هناك متسع من الوقت لإجراء التقييم. ولكن عندما يتعلق الأمر بإصدار أحكام سريعة في خضم هذه اللحظة "لا أعتقد أن الأفضلية للأدوات الدفاعية بالضرورة". علاوةً على ذلك، لاحظت أن هناك مشكلة أعمق بكثير. حتى لو كان من الممكن اكتشاف الوسائط المخادعة بدقة تامة، فلن يصدق الجميع أن مقطع الفيديو المزيف مزيف. تستشهد بمثال المقاطع الصوتية المزيفة التي انتشرت قبل الانتخابات في سلوفاكيا في سبتمبر 2023، والتي يبدو أنها سُمع فيها سياسي وهو يناقش تزوير الانتخابات مع أحد الصحفيين، وخسر الانتخابات فيما بعد. وتقول "يقاوم الناس بشدة عمليات التحقق من المعلومات إذا لم يعجبهم مدقق المعلومات الذي يقوم بعملية التحقق". وهذا يعني أن التخفيف من حدة المعلومات المضللة سيتطلب ما هو أكثر من مجرد التكنولوجيا بكثير.

اقرأ/ي أيضًا

ما هو التضليل المغرض؟ وهل ساهمت جهود مكافحته في زيادة انتشاره؟

حملة تأثير روسية تستهدف مسبار وعددًا من منصات تدقيق المعلومات الأخرى

الأكثر قراءة