` `

تأثير التزييف العميق على نزاهة الانتخابات مقارنةً بالأخبار والنصوص الزائفة

فاطمة حماد فاطمة حماد
تكنولوجيا
20 أغسطس 2024
تأثير التزييف العميق على نزاهة الانتخابات مقارنةً بالأخبار والنصوص الزائفة
تُعد تقنية التزييف العميق من أكبر التحديات الحديثة

في ظل اقتراب الانتخابات الرئاسية، في الولايات المتحدة وتونس والجزائر، إضافة إلى الانتخابات النيابية المقررة في الأردن الشهر المقبل وغيرها من الاستحقاقات الانتخابية، تزداد المخاوف من استخدام تقنيات التزييف العميق (Deepfakes) وتأثيرها المحتمل على سيرها.

تُعد تقنية التزييف العميق من أكبر التحديات الحديثة، إذ تُمكن من تعديل مقاطع الفيديو والتسجيلات الصوتية بشكل يجعل الشخص يبدو وكأنه يقول أو يفعل شيئًا لم يحدث فعليًا. ومع الانتشار الواسع لتقنيات الذكاء الاصطناعي ووصولها إلى أيدي الكثيرين، أصبح من السهل تقريبًا على أي شخص إنشاء محتوى زائف أو مضلل يمكنه التأثير في الرأي العام ونتائج الانتخابات.

فيديو زائف لحاكم يوتا خلال الانتخابات التمهيدية

في يونيو/حزيران الفائت، وخلال الانتخابات التمهيدية للحزب الجمهوري في الولايات المتحدة، نُشر مقطع فيديو على مواقع التواصل الاجتماعي يظهر فيه حاكم ولاية يوتا، سبنسر كوكس، وهو يعترف زعمًا بجمع توقيعات بطاقات الاقتراع بطريقة احتيالية.

إلا أن الفيديو كان زائفًا، وجزءًا من موجة متزايدة من المحتوى الانتخابي المُنتج باستخدام الذكاء الاصطناعي. ويشير الخبراء إلى أن بعض هذا المحتوى زائف أو مضلل، أو يهدف ببساطة إلى إثارة مشاعر المشاهدين.

وعبرت مفوضة مقاطعة يوتا، أميليا باورز جاردنر، عن قلقها من الفيديو الذي يُظهر الحاكم سبنسر كوكس، ليس لأنها تعتقد أن الحاكم قد ارتكب خطأً، بل لأن الفيديو كان تزييفًا عميقًا مصممًا على الأرجح للتأثير على ناخبي يوتا، كما حذرت مسؤولة الانتخابات المحلية متابعيها على منصة إكس من أن هذا الفيديو يجب أن يُعتبر "تحذيرًا كبيرًا" للمضي قدمًا.

ولعل هذا الفيديو يشكل مثالًا على استخدام التزييف العميق في نشر المعلومات المضللة خلال الانتخابات، وما قد يحدثه من تأثير على آراء الناخبين.

ويحذر الخبراء من أن تقنية التزييف العميق، التي تتيح إنشاء مقاطع صوتية أو فيديو أو صور باستخدام أدوات الذكاء الاصطناعي بهدف التضليل، تشكل تهديدًا كبيرًا للناخبين الأميركيين مع اقتراب الانتخابات العامة في نوفمبر/تشرين الثاني المقبل. هذا التهديد لا يقتصر فقط على إدخال محتوى زائف في الحملات الانتخابية، بل يمتد أيضًا إلى تقويض الثقة العامة في العملية الانتخابية.

مكالمات زائفة تستهدف الديمقراطيين والجمهوريين في ولايات رئيسية

خلال الانتخابات التمهيدية، أيضًا، تلقّى بعض الناخبين في ولاية نيو هامبشير مكالمات مسجلة بصوت يزعم أنه الرئيس الأميركي، جو بايدن، يحثّهم على عدم المشاركة في الانتخابات التمهيدية القريبة، والانتظار حتى الانتخابات العامة في نوفمبر 2024، وأثارت هذه المكالمات المُزيفة حالة من الارتباك بين الناخبين الديمقراطيين، ووصلت إلى كاثي ساليفان، رئيسة لجنة العمل السياسي تابعة للحزب الديمقراطي في الولاية، والتي كانت تدير حملة لتشجيع الناخبين على دعم الرئيس بايدن. وقد تلقت ساليفان استفسارات من بعض الناخبين حول سبب تلقيهم هذه الرسائل من رقم هاتفها الشخصي.

وفي سبتمبر/أيلول، تم إرسال مكالمة آلية أخرى إلى 300 ناخب كان من المتوقع مشاركتهم في الانتخابات التمهيدية للحزب الجمهوري في ولاية كارولينا الجنوبية، وفي هذه المرة، سمع المستلمون صوتًا مولدًا بالذكاء الاصطناعي يقلد السيناتور ليندسي غراهام، يسألهم عن مرشحهم المفضل.

تعدّ هذه الممارسات جزءًا من تاريخ طويل من التلاعب بالمحتوى لتحقيق مكاسب سياسية في الولايات المتحدة، و يعود هذا النوع من التضليل إلى بدايات الدولة، إذ واجه جورج واشنطن، وفقًا لوسائل إعلام، وهو أول رئيس للولايات المتحدة، محاولات لتشويه سمعته عبر "رسائل زائفة" ادعت أنه يشكك في قضية الاستقلال الأميركي، إلا أن الأمر مع تطور تقنيات التزييف العميق بات أكثر دقة وتحديًا من قبل، ويتطلب هذا التهديد الحديث تطوير استراتيجيات أكثر تقدمًا لمكافحة انتشار المعلومات المضللة، وضمان نزاهة العملية الديمقراطية.

برنامج تجريبي لمكافحة التزييف العميق

وفي سياق التصدي لتأثير الذكاء الاصطناعي على التضليل الانتخابي، تم إطلاق عدة مبادرات وبرامج تجريبية تهدف إلى مكافحة هذه الظاهرة.

على سبيل المثال، أطلقت جامعة وادي يوتا بالتعاون مع منصة (SureMark Digital) برنامجًا تجريبيًا للتحقق من الهويات الرقمية للمرشحين السياسيين. يهدف هذا البرنامج إلى منع انتشار الفيديوهات الزائفة وضمان أن المحتوى المنشور مرتبط بشكل حقيقي بالأشخاص الفعليين.

في الشهر الأول من تشغيل البرنامج، أظهرت النتائج أن الفيديوهات الزائفة يمكن أن تكون فعالة للغاية، خاصة على منصات مثل TikTok وInstagram Reels، إذ يصعب تمييز الحقيقة من الخيال نظرًا لطبيعة المحتوى القصيرة والسريعة.

تقرير حول التزييف العميق والتضليل الانتخابي وبرامج لمكافحته
تقرير حول التزييف العميق والتضليل الانتخابي وبرامج لمكافحته

دور الشركات التكنولوجية في مكافحة التزييف العميق

أعلنت شركة (OpenAI) في مايو/أيار الفائت، عن خطتها لتعزيز الشفافية حول أدوات الذكاء الاصطناعي التي تطورها، خاصة خلال فترات الانتخابات. كما دعمت الشركة مشروع قانون "حماية الانتخابات من الذكاء الاصطناعي الخادع"، الذي لا يزال قيد الدراسة في الكونغرس الأميركي.

وتلتزم الشركة وفق بيانها، بثلاث مبادرات رئيسية لمواجهة التحديات المتعلقة بالانتخابات العالمية لعام 2024. أولى هذه المبادرات تهدف إلى منع إساءة استخدام أدواتها، مثل استخدام "التزييف العميق" في التضليل الانتخابي. 

لتحقيق هذا الهدف، تعمل الشركة على تطوير سياسات أمان متقدمة، وتحسين دقة المعلومات، وتقليل التحيز في أدواتها. كما أنها تطبق حواجز صارمة لمنع إنشاء محتوى مضلل، خاصة في سياق الانتخابات.

المبادرة الثانية تركز على تعزيز الشفافية في ما يتعلق بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. وتتضمن هذه الجهود تطوير أدوات متخصصة للكشف عن الصور الزائفة والتعاون مع "تحالف التحقق من مصدر المحتوى وأصالته" (C2PA) لضمان توثيق المحتوى الرقمي بطرق آمنة وموثوقة.

أما المبادرة الثالثة، فتشمل التعاون مع منظمات مثل الرابطة الوطنية لوزراء الدولة (NASS) في الولايات المتحدة لتوجيه المستخدمين إلى مصادر موثوقة للمعلومات الانتخابية.

كما تجدر الإشارة إلى أن OpenAI تمتلك عدة نماذج وبرامج شائعة، يمكن أن تُستخدم في التزييف العميق، بما في ذلك تقنيات معالجة الصوت والصورة والفيديو وحتى النصوص.

تقرير OpenAI ومبادرتها لمكافحة التزييف العميق خلال الانتخابات
تقرير OpenAI ومبادرتها لمكافحة التزييف العميق خلال الانتخابات 

دراسة تكشف تأثير التزييف العميق مقارنة بالأخبار الزائفة التقليدية

على الرغم من أن العديد من الأبحاث السابقة أشارت إلى أن التزييف العميق يشكل تهديدًا كبيرًا لنزاهة الانتخابات، إلا أن دراسة حديثة أشرف عليها كريستوفر لوكاس توصلت إلى نتائج مختلفة. إذ أوضحت الدراسة أن تأثير التزييف العميق لا يتجاوز بالضرورة تأثير الأخبار الزائفة التقليدية في قدرته على خداع الجمهور.

وأظهرت الدراسة أن مقاطع الفيديو الزائفة باستخدام تقنيات التزييف العميق، ليست أكثر فعالية في الخداع من الأخبار الزائفة النصية أو الصوتية.

وفي تجربتين استقصائيتين شملتا أكثر من 5700 مشارك، تم اختبار قدرة المشاركين على اكتشاف التزييف العميق ومدى استجابتهم له. أظهرت النتائج أن 42 في المئة من المشاركين تم خداعهم بواسطة مقاطع التزييف العميق، وهي نسبة مشابهة لتلك التي خُدعت عبر الأخبار الزائفة المقدمة بصيغ نصية أو صوتية. كما تبين أن المعلومات المضللة التي يتم تمريرها عبر التزييف العميق لا تتمتع بقدرة أكبر على التأثير مقارنةً بالمعلومات المضللة، التي تُنقل من خلال العناوين النصية أو التسجيلات الصوتية.

دراسة تكشف تأثير التزييف العميق مقارنة بالأخبار المزيفة التقليدية
دراسة تكشف تأثير التزييف العميق مقارنة بالأخبار الزائفة التقليدية

التفكير الحزبي يضاعف تأثير الأخبار الزائفة بين الناخبين

أظهرت الدراسة أن التمييز بين الفيديوهات الأصلية والتزييف العميق يتأثر بشكل كبير بالانتماء الحزبي. فعند مواجهة أخبار سلبية حقيقية تتعلق بشخصيات بارزة في حزبهم، كان الموالون للحزب أكثر ميلًا لتصنيف هذه الأخبار بشكل غير صحيح على أنها زائفة. على سبيل المثال، 50 في المئة من الجمهوريين اعتقدوا أن لقطات مسربة حقيقية لأوباما تشير إلى صفقة بعد الانتخابات مع الرئيس الروسي كانت زائفة، مقارنةً بـ 20 في المئة فقط من الديمقراطيين.

من ناحية أخرى، كان الموالون للحزب أيضًا أكثر ميلًا لتصنيف التصورات الإيجابية الحقيقية للحزب الآخر على أنها زائفة. فقد اكتشف 58 في المئة فقط من الديمقراطيين بشكل صحيح مقطعًا حقيقيًا للرئيس ترامب وهو يحث الأميركيين على توخي الحذر من جائحة كوفيد-19، بينما اعتقد 81 في المئة من الجمهوريين أن الفيديو كان صحيحًا.

وقال لوكاس في تعليق على النتائج "إن التفكير الحزبي يؤثر بشكل كبير على تقييمنا للأخبار والمعلومات السياسية، وتشير أبحاثنا إلى أن هذا التأثير يمتد ليشمل التزييف العميق أيضًا".

وأضاف "بشكل عام، تشير أبحاثنا إلى أن التزييف العميق ليس خادعًا بشكل فريد، لكن وجوده قد يساهم في تقويض مصداقية وسائل الإعلام الحقيقية. كما تُظهر أبحاثنا أن الناس غالبًا ما يخطئون في الحكم على الأخبار الأصلية ويعتبرونها زائفة، خاصةً عندما تصور شخصية سياسية من حزبهم في ضوء سلبي".

ومن الجدير بالذكر أن هذه النتائج لا تقتصر على السياق الأميركي فحسب، بل يمكن أن تنطبق أيضًا على دول عربية، إذ قد يُشكل الانتماء الحزبي أو الأيديولوجي دورًا في تصورات الجمهور حول الأخبار والمعلومات السياسية، ما قد يؤدي إلى تعزيز الثقة في الأخبار الزائفة أو التشكيك في الأخبار الحقيقية، مما يزيد من تعقيد عملية تصديق المعلومات.

وبناءً على هذه النتائج، يرى الباحثون أن الحل لمواجهة التزييف العميق لا يكمن فقط في تطوير تقنيات جديدة للكشف عنه، بل أيضًا في تعزيز الوعي والتعليم الإعلامي بين الجمهور. وعلى الرغم من أن التزييف العميق يمثل تهديدًا حقيقيًا، إلا أنه ليس بالضرورة، أكثر قدرة على الخداع مقارنةً بأشكال أخرى من المعلومات المضللة.

كيف نكشف التزييف العميق؟ 

غالبًا ما تفتقر فيديوهات التزييف العميق إلى الدقة في تمثيل التفاصيل المضبوطة للوجه، مثل الانعكاسات في العينين أو التغيرات الطفيفة في ملامح الوجه التي تحدث بشكل طبيعي مع تعابير الوجه وحركة الشفاه. قد تشير هذه التفاصيل، مثل الانعكاسات غير المتسقة في العينين أو الملامح الجامدة وغير الطبيعية، إلى أن الفيديو قد تم تعديله باستخدام تقنيات التزييف العميق. لذلك، يُعد التدقيق في هذه التفاصيل خطوة مهمة لكشفه.

إلى جانب ذلك، يُعد التحقق من مصدر الفيديو أمرًا هامًا في عملية الكشف عن التزييف العميق. إذ تُرفع الفيديوهات الزائفة في أغلب الأحيان من مصادر غير موثوقة أو مجهولة، مما يزيد من احتمال تزويرها، ومن الضروري التأكد من أن الفيديو نُشر أولًا على منصات موثوقة أو من قبل جهات رسمية، مما يعزز من مصداقيته ويقلل من احتمالية تعرضه للتزييف. وينطبق هذا الإجراء أيضًا على التسجيلات الصوتية والصور.

وفي التسجيلات الصوتية، يُعتبر التركيز على نبرة الصوت ومخارج الحروف ومقارنتها بصوت الشخص الأصلي خطوة أولى للتحقق، إذ قد يظهر الصوت غير متناسق أو يحمل ترددات غير طبيعية عند مقارنته بالصوت الأصلي للشخص، ما قد يكون مؤشرًا على التزييف.

أما الصور، فيمكن أن يؤدي التزييف العميق إلى أخطاء طفيفة في التكوينات البصرية، مثل عدم التناسق في الظلال، أو وجود تشوهات في التفاصيل الدقيقة مثل الشعر أو الجلد أو الأصابع، بالإضافة إلى تشوهات في الخلفية. هذه الأخطاء يمكن أن تكون دلائل على التلاعب الرقمي بالصور، ما يستدعي مزيدًا من التدقيق للتحقق من صحتها.

اقرأ/ي أيضًا

أبرز مقاطع الفيديو التي استُخدمت فيها تقنية التزييف العميق في 2021

تقرير: التزييف العميق يمثل تهديدًا متزايدًا ويمكن أن يؤثر في آراء الناس

الأكثر قراءة