غزت في الآونة الأخيرة العديد من الصور المولدة بالذكاء الاصطناعي مواقع التواصل الاجتماعي، وسبّبت لبسًا وحالة من الجدل عند المستخدمين، خاصة وأنّها بدت في غاية الواقعية، وكان من الصعب في غالب الأحيان تمييزها عن الصور الحقيقية.
تأثير الصور المولدة بالذكاء الاصطناعي
يتراوح تأثير الصور المولّدة بالذكاء الاصطناعي على الجمهور حسب موضوعها، فمؤخرًا انتشرت مجموعة من الصور ادّعى متداولوها أنها لمهرجان كوكايين يقام سنويًا في العاصمة الكولومبية بوغوتا، إحياءً لذكرى تاجر المخدرات الشهير بابلو إسكوبار.
وفي حين أنّ عددًا كبيرًا من مستخدمي مواقع التواصل اعتقد أنها صور حقيقية، إلا أنّ تفاعلهم معها انحصر بالضحك وإلقاء النكات أو الاستنكار، فهي ليست من الصور التي قد تترك أثرًا مباشرًا على حياة من يراها.
صورة انفجار البنتاغون المولّدة بالذكاء الاصطناعي
ولكن من جهة أخرى، راجت حديثًا صورة بدت أنها لانفجار في مبنى البنتاغون الأميركي، انتشرت في مواقع التواصل وبعض المواقع الإخبارية، مسببة حالة من القلق لدى الجمهور انعكست بانخفاض في مؤشرات البورصة الأميركية لفترة قصيرة.
من جهتها، سارعت وكالة حماية قوة البنتاغون إلى نفي صحة المشهد المتداول، وأكّدت في بيان مشترك مع إدارة الإطفاء في مقاطعة أرلينغتون عدم وجود انفجار في مبنى البنتاغون أو بالقرب منه، ونفت وجود أي خطر مباشر على الجمهور.
إنّ صورًا مثل انفجار في البنتاغون أو اعتقال الرئيس الأميركي السابق دونالد ترامب، من السهل نسبيًا أن يتم كشف حقيقتها بمراجعة آخر الأنباء حول الموضوع، خاصة وأن أحداثًا كهذه غالبًا ما يتم نفيها من الجهات المعنية على وجه السرعة.
صور انتشرت على أنّها لزلزال شمال غربيّ المحيط الهادي
ولكنّ فبركات الذكاء الاصطناعي طاولت ابتكار أحداث قديمة لا أساس لها من الصحة، فقد انتشرت في مارس/آذار الفائت مجموعة صور على موقع ريديت الأميركي، ادّعى متداولوها أنها لزلزال شديد هزّ شمال غربي المحيط الهادي في الولايات المتحدة وكندا في عام 2001، وبعد انتشار الصور بشكل واسع، أفاد الخبراء أنّها غير حقيقية وتم توليدها بواسطة موقع ميدجورني.
تشوهات الصور المولدة بالذكاء الاصطناعي
يواجه مدققو المعلومات حول العالم تحديًا كبيرًا في تمييز الصور المولّدة بالذكاء الاصطناعي عن الصور الحقيقية، خاصة وأنّ الأدوات التقنية المتاحة في الوقت الحالي لكشف هذه الصور، نتائجها غير دقيقة ولا يُعتمد عليها، لذلك يلجأ مدققو المعلومات إلى فحص عناصر الصورة بعناية لرصد إخفاقات تقنيات توليد الصور، إلى جانب اعتمادهم على مهارات الصحافة والاستقصاء. ولكن ما أبرز إخفاقات تقنيات توليد الصور؟
- تشوهات في شكل اليد البشرية
من السهل رصد إخفاقات تقنيات توليد الصور بالذكاء الاصطناعي في شكل الأيدي البشرية، فكثيرًا ما نجد خللًا في عدد أصابع اليد؛ كأن تحتوي على ستة أو أربعة أصابع، أو أن تندمج الأصابع بصورة مشوّهة تخفي تفاصيلها، مثال ذلك ما رصده "مسبار" من تشوّهات في الصور التي نُشرت على أنها من مهرجان الكوكايين.
- اندماج العناصر المتقاربة
من إخفاقات تقنيات توليد الصور التي يتم رصدها حتى الآن، عدم قدرتها على إبراز تفاصيل العناصر المتقاربة في الصورة وفصلها عن بعضها البعض، إذ غالبًا ما تكون هذه العناصر مندمجة بصورة تشوّهها وتجعل من المشهد المتداول عرضة للتشكيك. لوحظت هذه الإخفاقات في صورة انفجار مبنى البنتاغون المولّدة حديثًا، تحديدًا في اندماج الجزء السفلي من المصباح بالسياج، واندماج الجزء السفلي من المبنى بالسياج أيضًا.
تظهر هذه الإخفاقات جلية أيضًا في صور تم توليدها للبابا فرانسيس وهو يرتدي معطفًا أبيض من العلامة التجارية بالنسياغا، إذ يظهر اندماج إطار النظّارة بوجه البابا فرانسيس، إضافة إلى تشوه تفاصيل الصليب الذي يرتديه، وتشوه واضح بشكل أصابع اليد التي تندمج مع بعضها، رغم أنها من المفروض أن تقبض على كأس القهوة الذي تحمله.
- عدم التناسب بين أجزاء الجسم المختلفة
انتشرت صورة مفبركة تم توليدها بالذكاء الاصطناعي، تُظهر الرئيس الروسي فلاديمير بوتين وهو يركع أمام الرئيس الصيني شي جين بينغ. حازت الصورة على اهتمام واسع من قبل مستخدمي مواقع التواصل الذين انقسموا بين مصدقين المشهد وآخرين يتساءلون عن صحته.
بالتدقيق في الصورة لوحظ تشوّه في أجزاء من أجسام الظاهرين في الصورة مثل شكل أذن الرئيس الصيني، إلى جانب اختلاف واضح بحجم بعض الأجزاء نسبة إلى حجم الجسم كاملًا، مثل حجم رأس بوتين وقدمه والذين يبدوان أضخم من حجمهما الطبيعي، إضافة إلى صغر حجم يدي الشخص المقابل لشي جين بينغ.
- بشرة براقة وإضاءة مثالية
من المفارقات في موضوع تمييز الصور المولدة بالذكاء الاصطناعي، أن واحدًا من أبرز عيوبها هو أنها تبدو مثالية! غالبًا ما تكون الإضاءة وزاوية الالتقاط وتركيز العدسة في الصور المولدة بالذكاء الاصطناعي في أحسن حالاتها. كما أن الأشخاص الظاهرين فيها يتّسمون ببشرة مثالية وناعمة، خالية من الندوب أو علامات التهيج، إضافة إلى أن الأسنان عادة ما تكون براقة وبلا عيوب، إلى حد قد تبدو فيه الصورة أحيانًا أنها مرسومة.
احتفال أردوغان بالفوز في الانتخابات التركية
تجلت هذه التفاصيل في صورة انتشرت منذ يومين في مواقع التواصل وبعض المواقع الإخبارية على أنها من احتفالات في تركيا بفوز رجب طيب أردوغان بولاية رئاسية جديدة.
كما ظهرت أيضًا في صورة قيل إنها للممثل الأميركي ويل سميث من حفل توزيع جوائز الأوسكار، وتم تداولها بشكل واسع في مارس الفائت.
- عناصر مشوهة في خلفية الصور
حتى وإن بدت الصورة مثالية للوهلة الأولى، غالبًا ما يكشف التدقيق في خلفيتها عن عناصر مشوهة تشكك في صحتها وتشير إلى أنها مولّدة بالذكاء الاصطناعي.
إذ بالعودة إلى صورتي أردوغان وويل سميث المشار إليهما أعلاه، نجد العديد من العناصر المشوهة في الخلفية، مثل وجوه الأشخاص الغريبة، وشكل الأيدي وشكل البناء في صورة أردوغان، فضلًا عن شكل مصابيح الإضاءة وشكل حيطان القاعة في صورة ويل سميث.
ومن الجدير بالذكر، أنّ على مدققي المعلومات عند الشك بأنّ صورة ما مولدة بتقنية الذكاء الاصطناعي، أن يبحثوا عن النسخة ذات الجودة الأفضل منها، حتى يتمكنوا من رصد تفاصيها، ذلك أن الصور عندما يتم تداولها على مواقع التواصل تنخفض جودتها إلى حد كبير قد لا يسمح بتتبع التشوّهات.
نصائح لكشف الصور المولّدة بالذكاء الاصطناعي
لا يمكن الاعتماد على إخفاقات تقنيات الصور وحدها في كشف الصور المولدة بالذكاء الاصطناعي، فمن المتوقع أن تتطوّر هذه التقنيات بسرعة كبيرة إلى حدّ إنتاج صور خالية من العيوب. وفي تصريح لموقع دي دبليو، حذر خبير الذكاء الاصطناعي، هنري أجدر، من أنّ الإصدارات الأحدث من برنامج ميدجورني أصبحت أفضل في توليد الأيدي، ما يعني أن المستخدمين لن يكونوا قادرين على الاعتماد على اكتشاف هذه الأنواع من الأخطاء لفترة أطول.
بناء على ذلك، لا بدّ لمدققي المعلومات من الاعتماد على مهاراتهم في الصحافة والتقصي للوصول إلى حقيقة الصور، ومن أهم النصائح التي يمكن تقديمها في هذا الصدد:
- متابعة مولّدي الصور بالذكاء الاصطناعي
من الإجراءات الاستباقية التي يمكن للصحفي أو مدقق المعلومات أن يتخذها، هي متابعة الفنانين الذين ينتجون الصور المولّدة بالذكاء الاصطناعي على مواقع التواصل الاجتماعي، ويكون ذلك بالانضمام إلى المجموعات التي ينشر فيها الفنانون أعمالهم. مثل مجموعة AI Art Universe ومجموعة AI Generated Art ومجموعة Midjourney Official على موقع فيسبوك، إضافة إلى متابعة حساب TheInsaneApp@ على موقع تويتر، والذي ينشر باستمرار صورًا مولدة بالذكاء الاصطناعي، ويشير إلى مبتكرها.
هذا من شأنه أن يساعد مدققي المعلومات بالتعرّف إلى أبرز الفنانين في حال الحاجة للتواصل معهم حول صحة صورة ما، فضلًا عن مواكبة آخر الأعمال والتي قد يرتبط بعضها فيما بعد بادّعاءات مضللة.
- متابعة تعليقات المستخدمين على الصور
كثيرًا ما يشير بعض المستخدمين إلى حقيقة الصورة في التعليقات، وأحيانًا تتم الإشارة إلى الفنان صانع العمل، وقد حدث وأن رصدت منصات تدقيق المعلومات حقيقة بعض الصور المولدة بالذكاء الاصطناعي من خلال استفسار المستخدمين عن حقيقتها وإجابة الفنان بأنها مولدة بالذكاء الاصطناعي، لذلك من الضروري أن تكون أولى خطوات البحث هي مراجعة كافة التعليقات المرفقة بالصورة المتداولة.
- تتبع العلامات المائية على الصور
قد تشير العلامات المائية الظاهرة على الصورة إلى مبتكرها، ومثال ذلك صورة تحقق منها “مسبار”، ادّعى متداولوها أنّها مسربة حديثًا لجوليان أسانج مؤسس ويكيليكس وهو في سجنه، ولكن بتتبع العلامة المائية توصّل “مسبار” إلى منشئ الصورة، الذي صرّح لمواقع إخبارية أنه ولّدها عبر موقع ميدجورني.
- البحث العكسي عن الصورة
يعدّ البحث العكسي عن الصورة إجراءً أساسيًا للوصول إلى مصدرها، فقد تشير النتائج إلى منافذ أخبار موثوقة فنّدت حقيقة الصورة، أو إلى حسابات مولِّدي الصور على مواقع التواصل الاجتماعي، لذلك إلى جانب تفحّص جميع عناصر الصورة المشكوك في صحتها، يُنصح بإجراء بحث عكسي عنها في محرّكات البحث الأهم وهي: غوغل، وتن آي، وياندكس، وبينغ، إذ يفيد هذا الإجراء أيضًا في الوصول إلى النسخة ذات الجودة الأفضل من الصورة.
المصادر
اقرأ/ي أيضًا
عرّاب الذكاء الاصطناعي يترك غوغل ويحذر من مخاطر مستقبلية
صورة مولدة بالذكاء الاصطناعي ولم يشارك ماسك صورًا له في شفشاون