` `

ما هو الزيف العميق، وكيف نستطيع كشفه؟

يزداد انتشار الفيديوهات المزيّفة عبر تقنيات الذكاء الاصطناعي شيئاً فشيئاً، وتزداد إقناعاً. إليكَ الأسباب التي يجدر أن تدعوك للقلق
عمر فارس عمر فارس
تكنولوجيا
23 يناير 2020
ما هو الزيف العميق، وكيف نستطيع كشفه؟

كتابة إيان سامبل، عن جريدة ذي غارديان، ترجمة عمر فارس بتصرّف.

ما هو "الزيف العميق"؟

هل سبق لك أن رأيت مارك زَكربرغ وهو يتباهى بامتلاكه القدرة على التحكّم ببيانات المليارات من الناس؟ أو ربما رأيتَ جون سنو وهو يعتذر عن النهاية المخيبة للآمال لمسلسل صراع العروش؟
إذا كانت إجابتك "نعم" عن أيّ من الأسئلة السابقة، فقد شاهدتَ إحدى مخرجات "الزيف العميق"، وهو أحد أهم التقنيات التي ظهرت مع القرن الواحد والعشرين، عبر استخدام شكل من أشكال الذكاء الاصطناعي يُدعى بالتعلّم المتعمّق أو العميق (بالإنجليزية: Deep Learning) لإنتاج صور وفيديوهات مزيّفة، ومن هنا جاء الاسم: الزيف العميق.

لماذا تستخدم هذه التقنية؟

الكثير من إنتاجات هذه التقنية متعلّق بالمحتوى الإباحي، إذ وجدت شركة الذكاء الاصطناعي "Deeptrace" أكثر من 15 ألف فيديو مزيّف في شهر سيبتمبر/أيلول من عام 2019، وهو ضعف العدد الذي كان موجوداً قبل تسعة أشهر. شكّل المحتوى الإباحيّ ما نسبته 96% من هذه الفيديوهات، وكانت 99% من الوجوه الظاهرة في تلك الفيديوهات لنجماتٍ من المشاهير اللواتي استُبدلت وجوهُهنّ بوجوه ممثّلات إباحيّات.
ومع وجود المزيد من التقنيات التي تتيح المجال لأشخاص ذوي مهارات محدودة لإنتاج فيديوهات مزيّفة بمجرّد امتلاك مجموعة كافية من الصور، من المتوقّع أن تمتدّ ظاهرة الفيديوهات المزيّفة هذه إلى خارج عالم المشاهير، وتصير أداةً للانتقام بين الناس العاديّين. وكما يقول دانييل سيترون، أستاذ القانون في جامعة بوسطن: "أصبحت تقنية الزيف العميق سلاحاً ضدّ النساء بأشكال متعددة".

هل الأمر محصور بالفيديوهات فقط؟

لا. من الممكن لتقنيات الزيف العميق أن تخلق صوراً غير حقيقية ومُقنِعة في نفس الوقت من لا شيء. وهناك العديد من الأمثلة على حسابات وشخصيات وهمية تُختَلَق بالكامل على وسائل التواصل الاجتماعي لغايات متعددة، منها التجسّس مثلاً.

من الممكن تزييف الصوت كذلك، وخلق نسخٍ صوتية شبه حقيقية للمشاهير. في شهر آذار من العام الماضي، اضطُرّ مدير فرعٍ لشركة ألمانية في بريطانيا لدفع ما يقارب مئتي ألف جنيه استرليني لبنكٍ مَجَريٍّ بعد أن زُيّف صوته من قبل مُحتالٍ مجهول. تقول الشركة أن الصوت كان مُزيّفاً، لكن الدليل ليس واضحاً. ثمّة الكثير من الأمثلة المشابهة على حالات احتيال وخداعٍ تمّت أيضاً عن طريق رسائل الواتساب الصوتية.

صورة متعلقة توضيحية

كيف يتم التزييف فعلاً؟

يرجع أساس هذا الأمر إلى تاريخ من محاولات الباحثين الأكاديميين ومحاولات استوديوهات المؤثرات الخاصة إلى توسيع مساحات ما يمكن فعله من تلاعبٍ بالصور والفيديوهات. لكن الزيف العميق بحد ذاته وُلَد حقيقةً عام 2017، عندما نشر مستخدم لموقع (Reddit) باسم (Deepfake) فيديوهات إباحية مزيّفة لمشاهير معروفين (منهم تايلور سويفت وسكارليت جوهانسون)، وُضعت فيها وجوههن بدلاً من وجوه ممثّلات إباحيات.

يتطلّب الأمر بضع خطوات لصنع فيديو يُستبدل فيه وجه شخص بآخر. تتضمّن التقنية الأساسية أولاً إدخالَ آلاف الصور للشخصين عبر خوارزمية ذكاء اصطناعي هي أداة التشفير (Encoder). تتعلّم هذه الأداة التشابهات بين الوجهين، وتختزلهما لملامح مشتركة، وتضغط الصور معاً أثناء ذلك. ثم يأتي دور خوارزمية ذكاء اصطناعي أخرى، وهي أداة فك التشفير (decoder)، والتي تسترجع الوجوه وتفكّ الصور المضغوطة. فبعد أن تكون قد مرّنتَ آلتين، إحداها لاسترجاع وجه الشخص الأول، والثانية لاسترجاع وجه الشخص الثاني، فما عليك إلا أن تمرّر الصور المشفّرة ببساطة عبر أداة فك التشفير "الخطأ"، إذ تقوم حينها أداة فكّ التشفير بإعادة بناء وجه الشخص الأول وتعلوه ملامح وإيماءات الشخص الثاني. وهكذا تُصمِّم وجه شخصٍ ما مع الحفاظ على تعابير وملامح الشخص الآخر.

من الطرق الأخرى أيضاً ما يُدعى بـ"الشبكة الولّادة للمعلومات" أو "Gan". حيث تُوضع خوارزميتا ذكاء اصطناعي قبالة بعضهما البعض، تُعرَف الأولى بالمولّدة (Generator)، لأنها تولّد صورةً لا معنى لها في البداية، لكن هذه الصورة بعد ذلك تتلقّى ملاحظات عبر مرورها بالخوارزمية الثانية المُميِِّزة (Discriminator)، والتي تحتوي على عدد هائلٍ من الصور الحقيقية. مع الوقت، يتحسّن الأداء وتنتج في النهاية صورٌ تبدو حقيقية وواقعية تماماً لأشخاص غير موجودين أصلاً. 

من الذي يزيّف بالضبط؟

يفعل ذلك طيفٌ واسع من الناس، بدءاً من الباحثين الأكاديميين والمهنيين ووصولاً إلى الهُواة المتحمّسين، ومنتجي الموادّ الإباحية، وليس انتهاءً بالحكومات التي قد تستخدم هذه التقنيات لمكافحة الجماعات الإرهابية أو التواصل بشكلٍ ملتوٍ مع الأشخاص المطلوبين، أو الإيقاع بالمعارضة.

ماذا يتطلّب الأمر على الصعيد التقنيّ؟

من الصعب على الحواسيب العاديّة أن تنتج زيفاً جيّداً. تتمّ معظم إنتاجات الزيف العميق عبر حواسيب فائقة القدرات وعالية الدقّة بصريّاً. يتطلّب إنتاج فيديوهات "واقعية"، بالفعل، بعض الخبرة، من أجل تحجيم الأخطاء الممكنة وتحديدها.

كيف يمكن كشف الموادّ المزيّفة؟

كلما تطوّرت التقنية يزداد الأمر صعوبةً. في عام 2018، اكتشف باحثون من الولايات المتحدة الأمريكية أنّ الوجوه المزيّفة لا ترمِش بشكل طبيعي. في البداية، بدا الأمر وكأنّه دليلٌ مبشّرٌ على إمكانية كشف الزيف، لكن سُرعان ما ظهرت موادٌّ مزيّفةٌ ذات وجوه ترمش بشكل طبيعي، بعدما نُشر البحث بوقت قصير. هذه هي طبيعة اللعبة: ما إن تُحدّد مكامن الضعف، حتى تتغلّب عليها التقنية.

لكن من الممكن بسهولة التعرّف على التزييف الضعيف، إذ قد لا تكون حركات الشّفاه متزامنة مع الكلام، كما يمكن للبشرة أن تبدو غير متناسقة من حيث الشكل واللون. قد يكون هناك تشوّش وحركة خفيفة غير اعتيادية حول زوايا وحوافّ الوجه الذي يتحرّك. بالإضافة إلى ذلك، فإن التفاصيل الدقيقة مثل الشّعر وخُصَلِه تُعتبر من التحديات الصعبة على المُزيّفين. تمثّل المجوهرات المطليّة بطلاء باهت والأسنان ذات اللون أو الشكل الغريب وانعكاسات الضوء الغريبة غير المتناسقة، أدلّة مهمّة قد تكشف الزيف العميق.

تقوم الحكومات والجامعات وشركات التكنولوجيا بتمويل المزيد من الأبحاث التي تستهدف كشف الزيف العميق. كما قام فيسبوك في الفترة الماضية بمنع الفيديوهات التي قد تتسبّب بتضليل الناس عبر تقنية الزيف العميق، إلّا أن هذا القرار لم يشمل الزيف السطحي/البسيط، حيث لا يزال مسموحاً به هناك.

صورة متعلقة توضيحية

ما مدى خطورة الزيف العميق؟

نستطيع توقّع تزايد الموادّ المزيّفة مع كل الآثار السلبية التي تلحقها، لكن هل من الممكن للموادّ هذه أن تتسبّب بمشاكلَ كبيرة على مستوى دولي وعالمي؟ هنا، يصبح الموقف أكثرَ ضبابيةً.

رغم قلة احتمال تسبّب المواد المزيفة بردّات فعل سياسية ضخمة أو مباشرة، إلّا أن تأثير بعض الفيديوهات الحقيقية (كالفيديو الذي ظهر فيه إيلون مَسك، مالك شركة "تسلا"، وهو يدخّن الحشيش على الهواء مباشرة، وتسبّب بخسائر مالية كبيرة للشركة) تثير التساؤل حول قدرة الموادّ المزيّفة على فعل ذلك بل وغيره أيضاً.

هل سيقلّل التزييف من قيمة الثقة بكل شيء وأي شيء؟

يتمثّل الأثر التدريجي الخطير للزيف العميق، مترافقاً مع الإعلام المضلّل والأخبار الكاذبة، في خلق مجتمع خالٍ من الثقة، حيث يكون الناس غير قادرين ولا يأبهون أصلاً بالتفريق بين الحقيقي والمزيّف. وسيصبح الشكّ هو الخيار الأسهل والأكثر شيوعاً.
"قد لا تكون المشكلة الكبيرة في تزييف الحقيقة، بقدر أن تصبح الحقيقة نفسها محطّ شكّ وإنكار"، تقول الأستاذة والخبيرة في القانون في جامعة نيوكاسل، ليليان إدواردز.

مع زيادة إمكانية الوصول للتكنولوجيا واستخدامها، قد تخلق الموادّ المزيّفة مشاكل كبيرة جداً للمحاكم والنظام القضائي، إذ سيصعب تمييز الأدلة المزيّفة من غيرها. ناهيك عن خطرها الكبير على أمان الشخص نفسه، وإمكانية استغلاله عن طريق الخداع والتمويه. حين يطلب منكَ شخصٌ غريب أن تحوّل له المال إلى حساب بنكي غريب، فعلى الأرجح أنك لن تفعل ذلك. لكن، ماذا لو طلب منك ذلك "أحدُ أفراد عائلتك" عبر مكالمة فيديو على الواتساب؟

ما الحلّ؟

للمفارقة، قد يكون الحل هو الذكاء الاصطناعي نفسه. يساعدنا الذكاء الاصطناعي في كشف الموادّ المزيّفة كثيراً لكن العديد من أنظمة الذكاء المخصّصة لفعل ذلك تعاني من مشكلة أساسية، وهي أنّها تعمل بشكل ممتاز فيما يتعلّق بموادّ المشاهير، ببساطة لأنها تستطيع التدرّب على صورهم وفيديوهاتهم المتوفّرة بشكل مجاني. بعض شركات التكنولوجيا تعمل الآن على أنظمة كشف تقوم بتحديد الموادّ المزيّفة أينما ظهرت. ثمّة استراتيجية أخرى تعتمد على فحص الأصل للمواد (media provenance). لا تعدّ البصمة المائية (Digital watermarks) حصناً منيعاً، ولكن لو وُجد نظام تسجيل إلكتروني يحفظ رقماً تسلسليّاً للصورة أو الفيديو أو المقطع الصوتي الأصل، فقد نقلل من مخاطر التزييف.

هل الزيف العميق ضارّ وسيءٌ دائماً؟

بالطّبع لا. الكثير من الموادّ المزيّفة تستخدم للترفيه ولتسهيل العديد من المهامّ والأشياء. إذ قد يساعد استنساخ الصوت (Voice-cloning) الأشخاص الذين فقدوا أصواتهم بسبب المرض. وقد تُحيي الفيديوهات المزيّفة المتاحف والمعارض الفنية، وتضفي عليها طابعاً خاصاً. في متحف الفنان دالي في فلوريدا مثلاً، صمّموا نسخة مزيّفة منه تتفاعل مع الحضور وتقدّم إنتاجه الفني أمامهم. أما في مجال الترفيه، تفيد هذه التقنيات كثيراً في دبلجة الأفلام وإعادة إحياء الممثلين الذين وافاهم الأجل على الشاشة.

اقرأ أيضاً

الأكثر قراءة