` `

تستخدم صورًا وأسماء مشاهير: ما مخاطر الإعلانات المفبركة باستخدام الذكاء الاصطناعي؟

حيدر الموسوي حيدر الموسوي
أعمال
12 يونيو 2024
تستخدم صورًا وأسماء مشاهير: ما مخاطر الإعلانات المفبركة باستخدام الذكاء الاصطناعي؟
يمكن التقليل من تأثير المعلومات المضللة المعتمدة على الذكاء الاصطناعي (Getty)

في الأشهر الفائتة، تداول مستخدمون مشاهد يظهر فيها الفنان المصري أحمد حلمي، وهو يتحدث عن تطبيق له يُدعى "أفيتر" مخصص لربح الأموال، وذُكر أنّه سيسمح للمصريين بالحصول على مبالغ هامة. 
واعتمد في إخراج المشاهد على لقطات متفرقة له من أعماله الفنية وأخرى خلال حضوره في برنامج أنس بوخش. وبالتدقيق في طريقة كلامه، يتبين أنّ الفيديو مفبرك ومعد بواسطة الذكاء الاصطناعي باستخدام فيديوهات وصور لحلمي.

وعثر مسبار على تقارير إخبارية تتهم التطبيق والشركة المروجة له، بتنفيذ عمليات احتيال استهدفت المستخدمين الذين اشتركوا فيه وسرقت أموالهم. 

كما ظهر أحمد حلمي في حسابه على إنستغرام، ونفى أي صلة له بالتطبيق، مشيرًا إلى أنّه مولد بتقنيات الذكاء الاصطناعي.

أحمد حلمي ينفي صلته بمقطع فيديو استخدم مشاهد له للترويج لتطبيق
أحمد حلمي ينفي صلته بمقطع فيديو استخدم مشاهد له للترويج لتطبيق

لكن هذا الإعلان ليس استثناءً، إذ عثر مسبار على أمثلة أخرى لإعلانات دعائية لمنتجات تجارية وطبية.

نماذج لإعلانات مفبركة عبر الذكاء الاصطناعي

تداولت صفحات وحسابات على موقع التواصل الاجتماعي فيسبوك، تابعة لمركز طبي عراقي اسمه "مركز ڤيتال الطبي"، فيديو ترويجي على أنه يوثق استضافة شخص يمثّل المركز على قناة العراقية الرسمية، للترويج لأحد منتجات المركز، وهو عبارة عن مرهم طبي اسمه "مرهم فيتال" لعلاج المفاصل. 

فيديو مفبرك على أنّه لمقابلة حول منتج طبي للمفاصل
فيديو منشور على أنّه لمقابلة حول منتج طبي للمفاصل

حصد الفيديو أكثر من سبعة ملايين مشاهدة على فيسبوك فقط، وتفاعل معه الآلاف من المستخدمين الذين صدقوا بأنها مقابلة تلفزيونية حقيقية، وشرعوا بطلب تفاصيل المنتج وسعره.

صورة متعلقة توضيحية
تعليقات المستخدمين على فيديو المرهم الدعائي

لكن تبين أن الفيديو مفبرك بشكل كامل. استخدمت فيه صورة مقتطعة من فيديو منشور في 10 فبراير/شباط الفائت، على موقع يوتيوب، يعود لمقدمة برامج في قناة العربية تُدعى “منتهى الرمحي”، وبواسطة تقنيات الذكاء الاصطناعي، ظهرت وكأنها تتحدث عن المنتج الطبي.

تتم فبركة مثل هذه المقاطع، عبر وضع صورة في إحدى أدوات الذكاء الاصطناعي، وإرفاق نص معها، وتوجيهها لصنع صوت من النص وتركيبه على الصورة التي ستحركها وتجعلها تتزامن مع الصوت المولّد، كما يمكن من خلال الأداة تحديد نبرة الصوت ليكون صوت أنثى أو ذكر، وبأنماط مختلفة.

وفي المقابلة الأصلية، استضافت الرمحي في برنامجها "البعد الآخر" وزير الخارجية العراقي الأسبق هوشيار زيباري في حلقة عنوانها "إلى متى يبقى العراق ساحة لحرب بالوكالة بين الولايات المتحدة وإيران؟"، لمناقشة تبعات الضربات الإيرانية الأميركية المتبادلة في العراق.

صورة متعلقة توضيحية
الفيديو الأصلي لمقدمة برامج في قناة العربية

كما استبدلت صورة زيباري بصورة شخص آخر لجعله يبدو كضيف في الفيديو يتحدث عن المنتج باللهجة العراقية. وبالبحث عن هوية أخير، وجد مسبار أنَّه يُعرف نفسه كاستشاري فلسطيني في الطب البديل يُدعى محسن النادي.

وتم اقتطاع صورة النادي الأصلية من فيديو له نشر في 15 فبراير 2022، وكان يتحدّث فيه عن الخصوبة عند الرجال والنساء، في قناة تلفزيون المدينة على موقع يوتيوب.

صورة متعلقة توضيحية

وعمد القائمون على المركز والحساب التابع له إلى استخدام شعار قناة العراقية الرسمية، بالإضافة إلى قالب أخبار مشابه للذي تستخدمه القناة في أخبارها لإنشاء الفيديو الدعائي. كما بحث مسبار في صفحات المركز وتبيّن أنه استخدم سابقًا هذه المنهجية في معظم محتواه الترويجي وبأنماط مختلفة، وباعتماد صور عدة شخصيات ومن لقاءات مختلفة.

Description : صورة تحتوي على نص, الوجه الإنساني, تلبيس, امرأة

تم إنشاء الوصف تلقائياً
مشاهد مفبركة نشرتها صفحة المنتج ضمن سياستها الدعائية

مخاطر فبركة مقاطع فيديو في إعلانات دعائية

تساهم هذه المقاطع المفبركة في كسب المزيد من التفاعل وحرفاء جدد، عبر إضفاء نوع من الموثوقية للإعلان أو المنتج الذي يتم الترويج له، وتعزيز قيمة علامة الشركة التجارية من خلال ربطها بأسماء شخصيات معروفة ومؤثرة، تعطي انطباعًا إيجابيًّا للمستخدم ما يدفعه للشراء.

يعتمد هذا الأسلوب الدعائي للمنتج، على أشخاص وقنوات دون موافقتهم ويضلل المستخدمين من أجل تحقيق الربح وبيع المنتج. ويتسبب في تحميل هؤلاء مسؤولية جودة المنتج -إن كان سيئًا- كما يعتبر انتهاكًا وانتحالًا يمكن أن يحاسب عليه القانون.

وقد يتسبب هذا الاضطراب، في تشويش المستهلك ويفقده القدرة على التمييز بين المنتج الجيد والمنتحل.

كيف نكشف الإعلانات المزيفة؟

يقول الخبراء إنه يمكن التقليل من تأثير المعلومات المضللة المعتمدة على الذكاء الاصطناعي من خلال تعزيز محو الأمية الإعلامية وتثقيف الناس في تقنيات تقصي الحقائق.

وفي هذا السياق يمكن الكشف عن الإعلانات المزيفة عبر الانتباه إلى التشوهات التي يحتمل وجودها في الفيديوهات المفبركة، والتي تبدو عادةً على تعابير الوجه، والشفاه، وحركة الرأس، وحركة اليدين، وصورة الخلفية، واختلاف نبرة الصوت عن الصوت الحقيقي إن كان الشخص الظاهر في الفيديو معروفًا، أو عدم تطابق الصوت مع حركة الشفاه، ومن خلال صوت المتحدث الذي يولّد بواسطة الذكاء الاصطناعي، إذ غالبا ما تظهر الأخطاء في مخارج الحروف، ومن المهم الانتباه إلى وجود أي شعار لمؤسسة إعلامية أو شركة معروفة، ومراجعة موقعها الرسمي للتحقق مما إذا كانت قد تداولته بالفعل أم لا.

اقرأ/ي أيضًا

تقرير: شركات التكنولوجيا غير مهيئة لمواجهة هلوسة الذكاء الاصطناعي

هل ستسبب الصور المولّدة بالذكاء الاصطناعي أزمة لمدققي المعلومات؟

الأكثر قراءة