تناولت دراسة أجراها كل من ماريسا كوبمان، وأندريا ماكارولا رودريغيز، وزينو جرادتس، من جامعة أمستردام ومعهد الطب الشرعي الهولندي، أثر التطور في معالجة المقاطع المصورة على إمكانية استخدام هذه المقاطع في إثبات الحقائق. حيث كانت تستخدم أدلة التصوير الفوتوغرافي ومقاطع الفيديو بشكل شائع في تحقيقات المحاكم والشرطة، وكان يُنظر إليها على أنها أنواع موثوقة من الأدلة. ولكن مع التقدم الذي جرى على تقنيات تعديل الفيديو، أصبح من الصعب الوثوق بأدلة الفيديو والصور، كما أنه أصبح من المحتمل في المستقبل القريب أن تكون هناك حاجة إلى فحص أدلة الفيديو بحثا عن احتمالية أن يكون هناك تعديلات تم إجراؤها على الفيديو قبل تقديمه إلى المحاكم كمستند دلالي.
التقنية المعروفة باسم الزيف العميق “Deepfake” جرى العمل عليها خلال العام 2018 بشكل متزايد، وأصبحت قيد الاستخدام عبر مواقع الشبكة العنكبوتية، وتتيح هذه التقنية لمستخدمها التلاعب في وجوه وأصوات الأشخاص الذين يظهرون في مقاطع الفيديو، حيث تمكِّنه من تبديل وجه شخص موجود في الفيديو بشخص آخر، بشرط توفر صور كافية -مئات إلى آلاف الصور- سواء للشخص المراد تزييف شخصيته، أو الشخص البديل الذي يؤدي دور الشخصية المزيفة.
سرعان ما اكتسبت تقنية الزيف العميق سمعة سيئة في وسائل الإعلام، وذلك بسبب تطبيقها على مقاطع إباحية بوجوه ممثلين وسياسيين معروفين، وتواجدت هذه المقاطع على مواقع مثل Reddit. ما يميِّز هذه التقنية عن تقنيات معالجة الفيديو الأخرى، قدرتها على تحقيق النتائج الواقعية في حال وجود عدد كاف من الصور للشخصيتين، كما يمكن أن تكون مقاطع الفيديو الناتجة مقنعة للغاية. كما أنَّ هذه التقنية توفرت للشخص العادي عبر تطبيق متخصص بتزييف الصور والفيديوها، ويسمح هذا التطبيق للمستخدمين ذوي المعرفة المحدودة بالبرمجة والتعلم الآلي بإنشاء فيديوهات مزيفة.
مع تزايد تنامي هذه التقنية، يصبح من الصعب استخدام أدلة الفيديو، كما أنه يعطي مساحة كبيرة لزيادة الأخبار المزيفة، وتصعب المهمة على إمكانية إنفاذ القانون. وهناك بعض البرامج التي تم تطويرها للكشف على التناقضات الموجودة في مقاطع الفيديو المزيفة، حيث تعمل بعضها على استخدام الذكاء الاصطناعي للتعرف على الوجه واكتشاف التناقضات في عرضه، وعندما يشتبه البرنامج في مقطع الفيديو يقوم بالتحقق مما إذا كان قد تم تحميل مقطع فيديو بنفس الجسم والخلفية من قبال أم لا، وإن اكتشف البرنامج عدم وجود تطابق حقيقي في الصورة المعروضة فإنه يخلص إلى أنه تم التلاعب بالفيديو الجديد.
وجود كل من برامج التزييف وبرامج كشف التزييف، يشي بضرورة استخدام آليات للمصادقة على الفيديوهات والتأكد من حقيقتها لكشف عمليات التلاعب، أو سيكون من الصعب تصديق الفيديوهات التي يشاهدها المستخدم، وهو ما سيحدث قلقاً حقيقيًّا تجاه مصداقية وسائل الإعلام وما ينتج عنها من معلومات.