` `

إلى أيّ حدٍّ يُمكن لتقنيّة التزييف العميق أن تخدعنا؟

محمد طلعت القيسي محمد طلعت القيسي
أخبار
21 فبراير 2022
إلى أيّ حدٍّ يُمكن لتقنيّة التزييف العميق أن تخدعنا؟
الاستخدام السائد للتزييف العميق حاليًّا هو لإنتاج المواد الإباحيّة (Getty)

هذا المقال ترجمة من صحيفة ذي إندبيندنت.

وفقًا لإحدى الدراسات العلميّة، تبيّن أنّ الوجوه المُزيّفة التي يتم إنشاؤها اصطناعيًا تبدو أكثر موثوقيّة للبشر مُقارنةً بوجوه الأشخاص الحقيقيين. إذ يتمّ من خلال التقنيّة المعروفة باسم "التزييف العميق"، استخدام الذكاء الاصطناعي، إضافة إلى أُطر التعلّم الآلي وهو أسلوب حسابي جديد يُستخدم من خلال أجهزة الحاسوب لجعل صور الأشخاص تبدو كصور حقيقيّة.

والجدير بالذكر أنّه يُمكن استخدام تلك التقنيّة بهدف نشر رسائل أو صور ومقاطع فيديو مفبركة، مثل صورة مفبركة منسوبة لباراك أوباما يُهين فيها الرئيس الأميركي السابق دونالد ترامب، أو كمقطع فيديو مفبرك منسوبًا لريتشارد نيكسون خلال خطاب "أبولو 11" الرئاسي.

أجرى الباحثون عدّة تجارب لاكتشاف ما إذا كانت الوجوه المزيفة التي يتم إنشاؤها باستخدام برنامج StyleGAN2، قادرة على خداع المُشاركين. وقد بيّنت النتائج أنّ المشاركين حققوا معدل نجاح بنسبة بلغت 48%، وهي نسبة أقل قليلًا من رمي عملةٍ معدنيّة.

وفي تجربةٍ أخرى، خضع المشاركون لجلسة تدريبيّة بهدف مساعدتهم على اكتشاف الصور المفبركة، باستخدام مجموعة البيانات نفسها، التي تمّ عرضها عليهم في التجربة الأولى، ولكنّ ارتفع معدل الدقّة إلى نسبة بلغت 59% فقط.

إلى جانب ذلك، فإنّ نتائج الأبحاث والدراسات في جامعة أوكسفورد وجامعة براون والجمعية الملكيّة تتوافق مع تلك التجارب التي أُجريت، ويتّضح أنّ غالبيّة الأشخاص غير قادرين على تمييز مقاطع الفيديو المُزيفة من الحقيقيّة حتى عندما يتم إخبارهم بأنّ تلك المقاطع قد تمّ تعديلها رقميًا بواسطة تقنية التزييف العميق.

وبناءً على ذلك، قرّر الباحثون إجراء تجربة أخرى لمعرفة ما إذا كانت التصورات حول الجدارة بالثقة يمكن أن تساعد الأشخاص في تحديد حقيقة الصور.

وصرّح البروفيسور هاني فريد من جامعة كاليفورنيا في بيركلي وصوفي نايتينغيل من جامعة لانكستر، بأنّ صور الوجوه تُوفر مصدرًا غنيًا للمعلومات، مع الكشف عن أجزاء من الثانية فقط كانت كافية للخروج باستنتاجات ضمنيّة حول السمات الفرديّة مثل الجدارة بالثقة. وتساءل الباحثان عمّا إذا كانت صور الوجوه الاصطناعيّة تنشط بنفس درجة صور الوجوه الموثوقة. وقد أضافوا بأنّ التصورات حول الجدارة بالثقة من شأنها أن تُساهم في التمييز بين الوجوه الحقيقيّة والوجوه المُزيفة.

لسوء الحظ، أظهرت النتائج أنّ الوجوه الاصطناعيّة (المزيفة) أكثر جدارة بالثقة بنسبة بلغت 7.7% من الوجوه الحقيقيّة، وكانت صور وجوه النساء أكثر جدارة بالثقة من صور وجوه الرجال.

على الرغم من أنّ 65.5% من الوجوه الحقيقيّة و58.8% من الوجوه المُزيفة كانت وجوهًا مُبتسمة، إلّا أنّ الباحثين قد أشاروا إلى احتماليّة تصنيف الوجوه المُبتسمة على أنّها أكثر جدارةً بالثقة مقارنةً بغيرها. إذ يعتقد الباحثون أنّ تلك الوجوه يُمكن تصديقها بشكل أكبر لأنّها تُشبه الوجوه الطبيعيّة للأشخاص، والتي يجدها البعض أكثر موثوقيّة. لذلك، يقترح الباحثون ضرورة إنشاء إرشادات كافية حول التزييف العميق، مثل دمج علامات مائية قوية في الصور لمنع تزييفها. 

ووفقًا لتقرير صادر عن كلية لندن الجامعيّة، فإنّ جرائم التزييف العميق التي يتم إنشائها بواسطة الذكاء الاصطناعي يُمكن تصنيفها على أنّها أخطر أشكال الجرائم.

في الوقت الحالي، يُدير مُعظم الأشخاص عدّة أنشطة عبر شبكة الإنترنت، وقد تؤدي تلك الأنشطة إلى تكوين أو تحطيم سُمعتهم. وقد صرّح البروفيسور ماثيو كالدويل، بأنّ البيانات والمعلومات المُتعلقة بملكيّة الأشخاص تُعدّ مصدرًا مثاليًا للاستغلال من قِبل الأنشطة الإجراميّة القائمة على الذكاء الاصطناعي. وبخلاف العديد من الجرائم التقليديّة، فإنّ الجرائم الرقميّة يسهل مُشاركتها ونشرها وبيعها، كما ويُسمح بتسويق التقنيات الإجراميّة وتوفيرها كخدمة. وفي ذلك إشارة واضحة إلى إمكانيّة استعانة المجرمين بمصادر خارجية قائمة على الذكاء الاصطناعي.

وفي الوقت الراهن، فإنّ الاستخدام السائد للتزييف العميق هو لإنتاج المواد الإباحيّة. ففي شهر يونيو/حزيران عام 2020، أشارت إحدى الدراسات إلى أنّ 96% من إجمالي عمليات التزييف العميق على الإنترنت كانت في سياقٍ إنتاج محتوى إباحيّ، ونحو 100% من تلك الحالات كانت تستهدف النساء.

الأكثر قراءة