` `

هل ستسبب الصور المولّدة بالذكاء الاصطناعي أزمة لمدققي المعلومات؟

نغم المصري نغم المصري
أخبار
18 أبريل 2023
هل ستسبب الصور المولّدة بالذكاء الاصطناعي أزمة لمدققي المعلومات؟
اختلفت آراء الخبراء حول أثر هذه التقنيات على مشكلة المعلومات المضللة (Getty)

هذه المدوّنة ترجمة لمقال للصحفية غريتيل كان، وهي مساهِمة في فريق التحرير لمعهد رويترز التابع لجامعة أكسفورد.

خلال الأسابيع القليلة الفائتة، انتشرت العديد من الصور التي بدت واقعية على نطاق واسع، مثل صور: إلقاء القبض على الرئيس الأميركي السابق دونالد ترامب، والبابا فرانسيس وهو يرتدي معطفًا أبيضًا أنيقًا منفوخًا، وإيلون ماسك وهو يسير إلى جانب ماري بارا الرئيسة التنفيذية لشركة جنرال موتورز.

هذه الصور غير بعيدة تمامًا عن الواقع، فقد تم بالفعل القبض على الرئيس ترامب. ومن المعروف أيضًا أن الباباوات يرتدون ملابس فاخرة، كما قد كان ماسك بالفعل من قبل. إلا أن هذه الصور التي انتشرت مزيفة وتم إنشاؤها بواسطة برامج الذكاء الاصطناعي التوليدية.

مولدات الصور بالذكاء الاصطناعي 

مولدات مثل دول-إي (DALL-E) وميدجورني (Midjourney)، شائعة وسهلة الاستخدام، ويحظى كل من التطبيقين بالكثير من الاهتمام، إذ تدّعي شركة دول-إي أنّ أكثر من ثلاثة ملايين شخصًا يستخدمون التطبيق. وفي حين أن “ميدجورني” لم تنشر أي أرقام عن عدد مستخدميها، إلا أنها وبسبب التدفق الهائل للمستخدمين الجدد مؤخرًا، أوقفت التجارب المجانية .

تتطور تقنيات الذكاء الاصطناعي بسرعة كبيرة، ومؤخرًا، وقّع عدد من الباحثين البارزين والتقنيين والشخصيات العامة، خطابًا مفتوحًا، يطالبون فيه بوقف تدريب نماذج الذكاء الاصطناعي والبحث لمدة ستة أشهر على الأقل في هذه التقنيات، وخاصة التي تفوق قدراتها النموذج اللغوي جي بي تي-4، تخوّفًا مما قد تساهم به من نشر دعايات كاذبة وتضليل وتزييف.

مخاطر نماذج التوليد البصري

 تحدثتُ (كاتبة المقال) إلى الكثير من الصحفيين والخبراء ومدققي الحقائق لتقييم المخاطر التي تشكلها نماذج التوليد البصري، إذ لم تعد العين تؤمن بما تراه، فما هي الآثار المترتبة لهذه التكنولوجيا على المعلومات المضللة؟ وكيف سيؤثر هذا على الصحفيين ومدققي الحقائق؟ هل ستغرق قنواتنا الإعلامية بــ"الدعاية والكذب"؟

اعتقال ترامب المزيّف 

غرد الصحفي إليوت هيغنز، مؤسس شركة بيلينغ كات، في 20 مارس/آذار الفائت، بسلسلة من الصور التي صنعها بواسطة موقع ميدجورني، تصوّر اعتقالًا مفبركًا لترامب، وسرعان ما انتشرت هذه الصور على نطاق عالمي، تم على إثره حظر هيغنز من خادم منشئ الصور.

يقول هيغينز "تثبت الصور التي نشرتها مدى سرعة انتشار الادعاءات التي تجذب اهتمامات الأفراد وتحيزاتهم"، ويردف "ولا شك بأن تقصي الحقائق هو شيء يستغرق وقتًا أطول بكثير من إعادة التغريد".

ظهور الصور المولّدة بالذكاء الاصطناعي، يعدّ مصدر قلق كبير لأولئك الذين يعملون على فضح المعلومات المضللة، لأن جزءًا كبيرًا من عمليات تقصي الحقائق التي يقومون بها تعتمد على الصور ومقاطع الفيديو.

تقول مارين غونزالو، وهي صحفية تكتب عمودًا تكنولوجيًا في موقع منظمة إسبانية مستقلة لتقصي الحقائق تدعى نيوترال، إن التضليل المرئي يمثل مصدر قلق خاص، لأن الصور مقنعة ويمكن أن تأثر بشكل عاطفي وقوي على تصورات الجمهور.

أردفت غونزالو: "يمكنك التحدث إلى شخص لمدة ساعة وإعطائه عشرين حجة حول ادعاء واحد، ولكن إذا عرضت عليه صورة منطقية بالنسبة له، فسيكون من الصعب جدًا إقناعه بأنها غير صحيحة".

ما الذي تخبئه لنا نماذج الصور التوليدية؟

في مقابلة مع الصحفية التشيلية فالنتينا دي مارفال، أستاذة الصحافة في جامعة ييغو بورتاليس، والتي تمتلك خبرة سابقة في تقصي الحقائق لوكالات مثل وكالة فرانس برس وشيكاس بوديروساس ولابوت تشيكا، ذكرت أنها قلقة أيضًا من انتشار الصور المولّدة بالذكاء الاصطناعي. وفي حين هناك أدلة أنّ هذه الصور مفبركة، مثل العيوب الملحوظة في اليدين أو الأسنان أو الأذنين، فإن دي مارفال تشعر بالقلق من أن التحسين السريع لهذه النماذج سيجعل هذه المؤشرات قديمة.

تقول دي مارفال "ربما في غضون شهرين أو أيام، سيتعلم الذكاء الاصطناعي، على سبيل المثال: رسم الأيدي جيدًا، وتحديد الخطوط العريضة للعينين بصورة أدق، ورسم الأسنان أو الأذنين، وجعل الجلد أقل نعومة وأكثر واقعية".

على الرغم من وجود مخاوف من أن تؤدي نماذج الصور التوليدية إلى أزمة حقيقية، يحذر خبراء مثل فيليكس سيمون، وهو باحث اتصالات وطالب دكتوراه في معهد أكسفورد للإنترنت، من اتخاذ إجراءات تحدّ من تطور هذه التقنيات، قائلًا إن انتشار هذه الصور لا يعني بالضرورة تصديق المزيد من الناس بها.

يقول سايمون “لطالما كانت العلاقة بين الصورة والحقيقة غير مستقرة ويمكن للمرء أن يقول إن ما نراه في الذكاء الاصطناعي التوليدي هو مجرد استمرار لذلك”.

وأتبع موضحًا "كثير من الناس سوف يعتادون على ذلك، سيطورون آليات دفاع على المستوى الشخصي وأيضًا على المستوى المؤسسي، إذ من المحتمل أن تبذل المؤسسات الإخبارية جهودًا أكبر للتحقق مما إذا كانت الصور تظهر ما تدعي أنها تظهره".

وأردف أن المخاوف بشأن حرب المعلومات القائمة على الصور وانتشار الأخبار الزائفة، قديمة، وتعود إلى الأيام التي تم فيها تقديم التصوير الفوتوغرافي إلى غرف الأخبار. وفي الآونة الأخيرة، تصاعدت المخاوف بشأن تأثير التزييف العميق، كما ظهرت مخاوف مماثلة بشأن الأخبار الزائفة المعتمدة على الصور عندما أصبح تطبيق فوتوشوب متاحًا للجمهور. ولكن، قبل أيام قليلة، انتشر غلاف من مجلة بلاي بوي يحمل صورة وزيرة الحكومة الفرنسية مارلين شيابا على نطاق واسع، ولكن سرعان ما ثبت أن الصورة مفبركة، من خلال تركيب وجه الوزيرة على جسد امرأة أخرى.

سرعة انتشار الصور المزيفة أكبر تحد لمدققي المعلومات

يعتقد هيغنز أن الصور المولّدة بالذكاء الاصطناعي ظاهرة سيتم احتواؤها على الأرجح في منصات وسائل التواصل الاجتماعي، ولن تكون على أي صلة بوسائل الإعلام الرئيسية. ويعتقد أيضًا أن الصور المزيفة سيتم فضحها بسرعة فيقول "إن الأشخاص الذين يحاولون الحصول على درجة معينة من الشرعية، لن يسمحوا لأنفسهم بأن يتم استدراجهم باستمرار لمشاركة الصور المزيفة". 

ومع ذلك، فإن ما يهم مدققي الحقائق ليس بالضرورة ما تنتجه هذه البرامج، بل السرعة التي يتم إنتاجها بها، إذ لن تضطر المؤسسات الإخبارية إلى التحقق من المعلومات فحسب، بل يتعين عليها القيام بذلك بأسرع ما يمكن.

إن تطبيقي دول-إي وميدجورني قادران على إنشاء وسائط في غضون ثوانٍ من خلال مطالبات نصية قليلة فقط، على عكس تطبيق فوتوشوب أو برامج التزييف العميق. تسمي غونزالو هذه الظاهرة بـ "النار الرقمية"، إشارة إلى التوزيع السريع للصور أو مقاطع الفيديو المزيفة عبر منصات التواصل الاجتماعي. 

 وتقول "هذا مصدر قلق دائم لمتقصي الحقائق لأننا لا نستطيع رؤية ما يتحرك على مستوى مجموعات واتساب أو مجموعات المراسلة الأخرى، وهذا أسرع شكل من أشكال الانتشار وهو من أنواع التوزيع الفايروسي".

تدقيق المعلومات في غرف الأخبار

من جهتها، تعتقد دي مارفال أن مدققي المعلومات سيتعين عليهم تعديل منهجيتهم وطرقهم حتى يتمكنوا من اللحاق بالتدفق المحتمل للصور الاصطناعية، وتقول "يجب تكييف أساليب التحقق وتبسيطها في جميع غرف الأخبار حتى يتمكنوا من معالجة مقاطع الفيديو والصور قبل عرضها".

تقول دي مارفال إن قضية المعلومات المضللة تتجاوز التكنولوجيا الناشئة وترتبط بتآكل الثقة المؤسسية. و تتبع “لن يكون لدينا عدد كاف من الصحفيين. نحن حاليًا نواجه خسارة على مستوى مكانة المهنة، وفقدان هيبة المؤسسات الصحفية والسياسية بشكل عام، وكلما فقدت وسائل الإعلام ومؤسسات الدولة مصداقيتها، زاد انتشار المعلومات المضللة".

الذكاء الاصطناعي والمعلومات المضللة

وفي حين أن الذكاء الاصطناعي التوليدي يساهم بالتأكيد في زيادة حجم إنتاج المعلومات الخاطئة والمضللة، يعتقد سايمون أن الادعاءات المنتجة بهذه التكنولوجيا هي إشكالية قد تؤدي إلى نهاية حقبة الحقيقة. ويكمل موضحًا "ليس بالضرورة أن يتم خداع الناس بسهولة أكبر ، بل سيصبح الناس أكثر تشكيكًا في المعلومات بشكل عام، بما في ذلك المعلومات الجديرة بالثقة". ولهذا بالطبع، آثار إشكالية على البيئة الإعلامية حيث تآكلت الثقة في الأخبار بالفعل. 

أظهر التقرير الخاص بالأخبار الرقمية لعام 2022 أن الثقة في الأخبار آخذة في الانخفاض، إذ أفاد 42٪ فقط من أفراد العينة العالمية، بأنهم يثقون بمعظم الأخبار في معظم الأوقات. ووجد التقرير أن الثقة في وسائل التواصل الاجتماعي ومحركات البحث وتطبيقات المراسلة أقل من ثقة الجمهور في وسائل الإعلام بشكل عام. وتوضح الدراسة أيضًا كيف يعتقد جزءًا كبيرًا من الأشخاص أن المعلومات المضللة والمنصات التي تستخدم البيانات بشكل غير مسؤول هي "مشكلات كبيرة" في بلدانهم.

يقول هيغينز "ما رأيناه مؤخرًا أدى إلى وعي أوسع بكثير بما يمكننا فعله بالأنظمة الجديدة هذه، إلا أن الناس حين يصبحون أكثر تشاؤمًا بشأن ما يرونه، سيتجهون إلى رفض تصديق أي صورة."

ما الذي يجب على شركات التكنولوجيا فعله؟

يثار هذا السؤال حول المسؤوليات التي تقع على عاتق الشركات الناشئة في مجال الذكاء الاصطناعي في تمييز محتواها عن الصور ومقاطع الفيديو الحقيقية. الخبراء الذين تحدثت معهم يدافعون عن المزيد من الشفافية من هذه الشركات لتسهيل تمييز المستخدمين بين الصور الحقيقية والمزيفة، مثل إدخال العلامات المائية.

تعمل بعض المؤسسات الإخبارية أيضًا على تطوير أدوات لإعلام الجمهور بأن محتواها حقيقي. على سبيل المثال، مشروع أورجين (Project Origin) وهو مشروع تعاوني بين مؤسسات إعلامية مثل بي بي سي و سي بي سي راديو ونيويورك تايمز من جهة، والمؤسسات التقنية مثل مايكروسوفت من جهة أخرى، يعمل على تطوير أدوات للتحقق من التشفير على سبيل المثال، والتي تكون مرتبطة بمحتوى الوسائط الإعلامية لإثبات أصالة ومصدر المحتوى، مثل الصور أو مقاطع الفيديو، إذ ستشمل أداة إنشاء الصور فاير فلاي المقدمة من أدوبي مؤخرًا "بيانات اعتماد المحتوى" في كل صورة أو ملصق لإخبار المستخدمين ما إذا كانت الصورة قد تم إنشاؤها بالذكاء اصطناعي أم لا، وفقًا لمسؤول الثقة في الشركة دانا راو.

يهتم الخبراء بمسائل أخلاقية أخرى، لا سيما البيانات التي يتم تدريب هذه النماذج عليها. جميع الأمثلة الفايروسية التي ذُكرت بداية المقال تصور أشخاصًا حقيقيين، وتثير أسئلة أخلاقية حول البيانات التي يتم تدريب هذه البرامج عليها. إذ حددت ميدجورني بالفعل الشخصيات العامة التي تسمح للمستخدمين بإنشاء صور لها، ولكن لا يولد التطبيق صورًا لرئيس الصين شي جين بينغ على سبيل المثال، ومع ذلك، ما تزال المخاوف حول إمكانية هذه التطبيقات تستمر بالتصاعد.

وفي هذا السياق، يقول هيغينز "من الواضح أن ما يفعلونه هو التدريب على أشخاص حقيقيين، ولكن، هناك اعتبار أخلاقي، هل لديهم الحق في تدريب هذه التقنيات على أشخاص حقيقيين لم يأخذوا موافقتهم على ذلك؟".

يتم تدريب عدد من مولدات الذكاء الاصطناعي مثل دول-إي باستخدام الملايين من الصور العامة على الإنترنت، وفي هذا تقول جونزالو "دونالد ترامب هو أيضًا لديه حقوق بياناته الشخصية، قد يقول البعض ولكن إذا وضعت بياناتك على الإنترنت ... "لا! يمكنني وضع بياناتي على الإنترنت ولكن هذا لا يعني أنه يجب أن أتخلى عن حقي في حمايتها ".

كيف نتفادى أزمة الصور المولّدة بالذكاء الاصطناعي؟

يقول الخبراء أنه يمكننا التقليل من تأثير المعلومات المضللة المعتمدة على الذكاء الاصطناعي من خلال تعزيز محو الأمية الإعلامية وتثقيف الناس في تقنيات تقصي الحقائق.

يعمل الصحفيون ومدققو الحقائق بالفعل على زيادة التثقيف الإعلامي لجمهورهم حتى لا يقعوا في فخ المعلومات المضللة. يقول هيغينز "ما نحاول القيام به في بيلينغ كات هو اتباع نهج يعتمد على التعليم بشكل أكبر ، حيث نعمل مع المدارس والجامعات لتدريب الطلاب على هذه المهارات والأفكار والمفاهيم". 

تقول دي مارفال، التي تُدرِّس دورة تدقيق المعلومات لطلاب جامعتها ، "إن أهم شيء هو النظر إلى السياق المحيط بالصورة والسؤال عمن ينشر هذه، فكلما كانت الصورة أكثر إثارة سياسيًا، علينا ان نكون أكثر ترددًا بشأن صحتها .

 وأتبعت "بغض النظر عن حجم التدقيق الذي نقوم به أو إذا كانت جميع غرف الأخبار تتحقق من كل المحتوى أم لا، لن تكون هذه العملية ذات فائدة تذكر إذا لم يكن الناس متعلمين ومثقفين إعلاميًا".

المصادر 

News Checker

Rueters Institute

Rueters

The Newyork Times

teenvogue

Vanty Fair

DALL·E 2 

Midjourney

The Verge

Future of life

The Guardian

Nieman Lab

Verifica

Rueters

BBC

Adobe

Arxiv

الأكثر قراءة