` `

كيف نكشف الصور المولدة بالذكاء الاصطناعي؟

بيان حمدان بيان حمدان
تكنولوجيا
31 مايو 2023
كيف نكشف الصور المولدة بالذكاء الاصطناعي؟
لا يمكن الاعتماد على الإخفاقات التقنية وحدها في كشف حقيقة الصور (Getty)

غزت في الآونة الأخيرة العديد من الصور المولدة بالذكاء الاصطناعي  مواقع التواصل الاجتماعي، وسبّبت لبسًا وحالة من الجدل عند المستخدمين، خاصة وأنّها بدت في غاية الواقعية، وكان من الصعب في غالب الأحيان تمييزها عن الصور الحقيقية.

تأثير الصور المولدة بالذكاء الاصطناعي

يتراوح تأثير الصور المولّدة بالذكاء الاصطناعي على الجمهور حسب موضوعها، فمؤخرًا انتشرت مجموعة من الصور ادّعى متداولوها أنها لمهرجان كوكايين يقام سنويًا في العاصمة الكولومبية بوغوتا، إحياءً لذكرى تاجر المخدرات الشهير بابلو إسكوبار.

وفي حين أنّ عددًا كبيرًا من مستخدمي مواقع التواصل اعتقد أنها صور حقيقية، إلا أنّ تفاعلهم معها انحصر بالضحك وإلقاء النكات أو الاستنكار، فهي ليست من الصور التي قد تترك أثرًا مباشرًا على حياة من يراها.

صورة متعلقة توضيحية

صورة انفجار البنتاغون المولّدة بالذكاء الاصطناعي

ولكن من جهة أخرى، راجت حديثًا صورة بدت أنها لانفجار في مبنى البنتاغون الأميركي، انتشرت في مواقع التواصل وبعض المواقع الإخبارية، مسببة حالة من القلق لدى الجمهور انعكست بانخفاض في مؤشرات البورصة الأميركية لفترة قصيرة.

صورة متعلقة توضيحية

من جهتها، سارعت وكالة حماية قوة البنتاغون إلى نفي صحة المشهد المتداول، وأكّدت في بيان مشترك مع إدارة الإطفاء في مقاطعة أرلينغتون عدم وجود انفجار في مبنى البنتاغون أو بالقرب منه، ونفت وجود أي خطر مباشر على الجمهور.

صورة متعلقة توضيحية

إنّ صورًا مثل انفجار في البنتاغون أو اعتقال الرئيس الأميركي السابق دونالد ترامب، من السهل نسبيًا أن يتم كشف حقيقتها بمراجعة آخر الأنباء حول الموضوع، خاصة وأن أحداثًا كهذه غالبًا ما يتم نفيها من الجهات المعنية على وجه السرعة. 

صور انتشرت على أنّها لزلزال شمال غربيّ المحيط الهادي

ولكنّ فبركات الذكاء الاصطناعي طاولت ابتكار أحداث قديمة لا أساس لها من الصحة، فقد انتشرت في مارس/آذار الفائت مجموعة صور على موقع ريديت الأميركي، ادّعى متداولوها أنها لزلزال شديد هزّ شمال غربي المحيط الهادي في الولايات المتحدة وكندا في عام 2001، وبعد انتشار الصور بشكل واسع، أفاد الخبراء أنّها غير حقيقية وتم توليدها بواسطة موقع ميدجورني.

صورة متعلقة توضيحية
صورة ادعى متداولوها أنها لزلزال ضرب شمال غرب المحيط الهادئ (1)
صورة متعلقة توضيحية
صورة ادعى متداولوها أنها لزلزال ضرب شمال غرب المحيط الهادئ (2)

تشوهات الصور المولدة بالذكاء الاصطناعي

يواجه مدققو المعلومات حول العالم تحديًا كبيرًا في تمييز الصور المولّدة بالذكاء الاصطناعي عن الصور الحقيقية، خاصة وأنّ الأدوات التقنية المتاحة في الوقت الحالي لكشف هذه الصور، نتائجها غير دقيقة ولا يُعتمد عليها، لذلك يلجأ مدققو المعلومات إلى فحص عناصر الصورة بعناية لرصد إخفاقات تقنيات توليد الصور، إلى جانب اعتمادهم على مهارات الصحافة والاستقصاء. ولكن ما أبرز إخفاقات تقنيات توليد الصور؟

  • تشوهات في شكل اليد البشرية

من السهل رصد إخفاقات تقنيات توليد الصور بالذكاء الاصطناعي في شكل الأيدي البشرية، فكثيرًا ما نجد خللًا في عدد أصابع اليد؛ كأن تحتوي على ستة أو أربعة أصابع، أو أن تندمج الأصابع بصورة مشوّهة تخفي تفاصيلها، مثال ذلك ما رصده "مسبار" من تشوّهات في الصور التي نُشرت على أنها من مهرجان الكوكايين.

صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها من مهرجان للكوكايين في كولومبيا (1)
صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها من مهرجان للكوكايين في كولومبيا (2)
صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها من مهرجان للكوكايين في كولومبيا (3)
  • اندماج العناصر المتقاربة

من إخفاقات تقنيات توليد الصور التي يتم رصدها حتى الآن، عدم قدرتها على إبراز تفاصيل العناصر المتقاربة في الصورة وفصلها عن بعضها البعض، إذ غالبًا ما تكون هذه العناصر مندمجة بصورة تشوّهها وتجعل من المشهد المتداول عرضة للتشكيك. لوحظت هذه الإخفاقات في صورة انفجار مبنى البنتاغون المولّدة حديثًا، تحديدًا في اندماج الجزء السفلي من المصباح بالسياج، واندماج الجزء السفلي من المبنى بالسياج أيضًا.

صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها لانفجار في مبنى البنتاغون

تظهر هذه الإخفاقات جلية أيضًا في صور تم توليدها للبابا فرانسيس وهو يرتدي معطفًا أبيض من العلامة التجارية بالنسياغا، إذ يظهر اندماج إطار النظّارة بوجه البابا فرانسيس، إضافة إلى تشوه تفاصيل الصليب الذي يرتديه، وتشوه واضح بشكل أصابع اليد التي تندمج مع بعضها، رغم أنها من المفروض أن تقبض على كأس القهوة الذي تحمله.

صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها للبابا فرانسيس وهو يرتدي معطف بالنسياغا 
  • عدم التناسب بين أجزاء الجسم المختلفة

انتشرت صورة مفبركة تم توليدها بالذكاء الاصطناعي، تُظهر الرئيس الروسي فلاديمير بوتين وهو يركع أمام الرئيس الصيني شي جين بينغ. حازت الصورة على اهتمام واسع من قبل مستخدمي مواقع التواصل الذين انقسموا بين مصدقين المشهد وآخرين يتساءلون عن صحته. 

بالتدقيق في الصورة لوحظ تشوّه في أجزاء من أجسام الظاهرين في الصورة مثل شكل أذن الرئيس الصيني، إلى جانب اختلاف واضح بحجم بعض الأجزاء نسبة إلى حجم الجسم كاملًا، مثل حجم رأس بوتين وقدمه والذين يبدوان أضخم من حجمهما الطبيعي، إضافة إلى صغر حجم يدي الشخص المقابل لشي جين بينغ.

صورة متعلقة توضيحية
صورة ادّعى متداولوها أنها لبوتين وهو يركع أمام شي جين بينغ 
  • بشرة براقة وإضاءة مثالية

من المفارقات في موضوع تمييز الصور المولدة بالذكاء الاصطناعي، أن واحدًا من أبرز عيوبها هو أنها تبدو مثالية! غالبًا ما تكون الإضاءة وزاوية الالتقاط وتركيز العدسة في الصور المولدة بالذكاء الاصطناعي في أحسن حالاتها. كما أن الأشخاص الظاهرين فيها يتّسمون ببشرة مثالية وناعمة، خالية من الندوب أو علامات التهيج، إضافة إلى أن الأسنان عادة ما تكون براقة وبلا عيوب، إلى حد قد تبدو فيه الصورة أحيانًا أنها مرسومة.

احتفال أردوغان بالفوز في الانتخابات التركية

تجلت هذه التفاصيل في صورة انتشرت منذ يومين في مواقع التواصل وبعض المواقع الإخبارية على أنها من احتفالات في تركيا بفوز رجب طيب أردوغان بولاية رئاسية جديدة.

صورة متعلقة توضيحية
صورة ادعى متداولوها أنها لاحتفالات في تركيا بفوز أردوغان في الانتخابات الرئاسية

كما ظهرت أيضًا في صورة قيل إنها للممثل الأميركي ويل سميث من حفل توزيع جوائز الأوسكار، وتم تداولها بشكل واسع في مارس الفائت.

صورة متعلقة توضيحية
صورة ادعى متداولوها أنها لويل سميث خلال حفل توزيع جوائز الأوسكار
  • عناصر مشوهة في خلفية الصور

حتى وإن بدت الصورة مثالية للوهلة الأولى، غالبًا ما يكشف التدقيق في خلفيتها عن عناصر مشوهة تشكك في صحتها وتشير إلى أنها مولّدة بالذكاء الاصطناعي. 

إذ بالعودة إلى صورتي أردوغان وويل سميث المشار إليهما أعلاه، نجد العديد من العناصر المشوهة في الخلفية، مثل وجوه الأشخاص الغريبة، وشكل الأيدي وشكل البناء في صورة أردوغان، فضلًا عن شكل مصابيح الإضاءة وشكل حيطان القاعة في صورة ويل سميث.

صورة متعلقة توضيحية
إخفاقات واضحة في خلفية الصورة المولدة بالذكاء الاصطناعي (1)
صورة متعلقة توضيحية
إخفاقات واضحة في خلفية الصورة المولدة بالذكاء الاصطناعي (2)

ومن الجدير بالذكر، أنّ على مدققي المعلومات عند الشك بأنّ صورة ما مولدة بتقنية الذكاء الاصطناعي، أن يبحثوا عن النسخة ذات الجودة الأفضل منها، حتى يتمكنوا من رصد تفاصيها، ذلك أن الصور عندما يتم تداولها على مواقع التواصل تنخفض جودتها إلى حد كبير قد لا يسمح بتتبع التشوّهات.

نصائح لكشف الصور المولّدة بالذكاء الاصطناعي

لا يمكن الاعتماد على إخفاقات تقنيات الصور وحدها في كشف الصور المولدة بالذكاء الاصطناعي، فمن المتوقع أن تتطوّر هذه التقنيات بسرعة كبيرة إلى حدّ إنتاج صور خالية من العيوب. وفي تصريح لموقع دي دبليو، حذر خبير الذكاء الاصطناعي، هنري أجدر، من أنّ الإصدارات الأحدث من برنامج ميدجورني أصبحت أفضل في توليد الأيدي، ما يعني أن المستخدمين لن يكونوا قادرين على الاعتماد على اكتشاف هذه الأنواع من الأخطاء لفترة أطول.

بناء على ذلك، لا بدّ لمدققي المعلومات من الاعتماد على مهاراتهم في الصحافة والتقصي للوصول إلى حقيقة الصور، ومن أهم النصائح التي يمكن تقديمها في هذا الصدد:

  • متابعة مولّدي الصور بالذكاء الاصطناعي

من الإجراءات الاستباقية التي يمكن للصحفي أو مدقق المعلومات أن يتخذها، هي متابعة الفنانين الذين ينتجون الصور المولّدة بالذكاء الاصطناعي على مواقع التواصل الاجتماعي، ويكون ذلك بالانضمام إلى المجموعات التي ينشر فيها الفنانون أعمالهم. مثل مجموعة AI Art Universe ومجموعة AI Generated Art ومجموعة Midjourney Official على موقع فيسبوك، إضافة إلى متابعة حساب TheInsaneApp@ على موقع تويتر، والذي ينشر باستمرار صورًا مولدة بالذكاء الاصطناعي، ويشير إلى مبتكرها.

هذا من شأنه أن يساعد مدققي المعلومات بالتعرّف إلى أبرز الفنانين في حال الحاجة للتواصل معهم حول صحة صورة ما، فضلًا عن مواكبة آخر الأعمال والتي قد يرتبط بعضها فيما بعد بادّعاءات مضللة.

  • متابعة تعليقات المستخدمين على الصور

كثيرًا ما يشير بعض المستخدمين إلى حقيقة الصورة في التعليقات، وأحيانًا تتم الإشارة إلى الفنان صانع العمل، وقد حدث وأن رصدت منصات تدقيق المعلومات حقيقة بعض الصور المولدة بالذكاء الاصطناعي من خلال استفسار المستخدمين عن حقيقتها وإجابة الفنان بأنها مولدة بالذكاء الاصطناعي، لذلك من الضروري أن تكون أولى خطوات البحث هي مراجعة كافة التعليقات المرفقة بالصورة المتداولة.

  • تتبع العلامات المائية على الصور

قد تشير العلامات المائية الظاهرة على الصورة إلى مبتكرها، ومثال ذلك صورة تحقق منها “مسبار”، ادّعى متداولوها أنّها مسربة حديثًا لجوليان أسانج مؤسس ويكيليكس وهو في سجنه، ولكن بتتبع العلامة المائية توصّل “مسبار” إلى منشئ الصورة، الذي صرّح لمواقع إخبارية أنه ولّدها عبر موقع ميدجورني.

صورة متعلقة توضيحية
  • البحث العكسي عن الصورة

يعدّ البحث العكسي عن الصورة إجراءً أساسيًا للوصول إلى مصدرها، فقد تشير النتائج إلى منافذ أخبار موثوقة فنّدت حقيقة الصورة، أو إلى حسابات مولِّدي الصور على مواقع التواصل الاجتماعي، لذلك إلى جانب تفحّص جميع عناصر الصورة المشكوك في صحتها، يُنصح بإجراء بحث عكسي عنها في محرّكات البحث الأهم وهي: غوغل، وتن آي، وياندكس، وبينغ، إذ يفيد هذا الإجراء أيضًا في الوصول إلى النسخة ذات الجودة الأفضل من الصورة.

المصادر

مسبار

مسبار

Forbes

DW

Times

Reddit

AI Art Universe

AI Generated Art

Midjourney Official 

TheInsaneApp@

مسبار

The Newyork Times

Scientific American

اقرأ/ي أيضًا

عرّاب الذكاء الاصطناعي يترك غوغل ويحذر من مخاطر مستقبلية

صورة مولدة بالذكاء الاصطناعي ولم يشارك ماسك صورًا له في شفشاون

اقرأ أيضاً

الأكثر قراءة