أعلنت شركة ميتا مطلع فبراير/شباط الفائت، أنها ستشرع في تمييز الصور المولدة بالذكاء الاصطناعي المنشورة على منصات فيسبوك وإنستغرام وثريدز بعلامات مائية وصفية، تحمل عبارة "منشأة بالذكاء الاصطناعي". وجاء في بيان نيك كليغ، رئيس الشؤون العالمية للشركة، أن ميتا عملت في الفترة الأخيرة مع الشركاء في إنشاء الصور التوليدية، لتحديد معايير تقنية مشتركة تميّز الصور المولدة بالذكاء الاصطناعي، وذلك ضمن مساعيها لـ “تضييق الفجوة بين المحتوى البشري والاصطناعي”.
يأتي هذا القرار، في إطار الأمر التنفيذي الذي أصدره الرئيس الأميركي جو بايدن بشأن الذكاء الاصطناعي، الذي يهدف، وفقه، لمعالجة بعض مخاطره المتعلقة بالأمن والسلامة، وحماية الخصوصية. ودعا بايدن إلى اتخاذ مجموعة المعايير التي تعمل عليها الحكومة، بشأن وضع العلامات المائية على المحتوى المولد بالذكاء الاصطناعي، كما في العلامات المائية على الصور الفوتوغرافية أو النقود الورقية، بهدف مساعدة المستخدمين على التمييز بين الشيء الحقيقي والشيء المزيف وتحديد من يملكه.
وسبق ميتا في هذه الخطوة، عدد من الشركات المنتجة لتقنيات التوليد بواسطة الذكاء الاصطناعي مثل "أوبن إيه آي"، التي تضع علامة مائية على صور DALL-E، وغوغل التي كشفت في أغسطس/آب 2023، عن الإصدار التجريبي من SynthID، وهي أداة تضيف علامة مائية غير محسوسة يتم إدراجها مباشرة في بكسلات الصورة، بما يُجنّب تخريبها أو وضع علامة بارزة عليها، مع السماح لبرنامج كشف الذكاء الاصطناعي باكتشافها حتى بعد قصها أو تغيير حجمها.
ومع ذلك، فإن تكنولوجيا العلامات المائية “الواعدة”، ليست معصومة من الخطأ، ويخشى الخبراء من أنها لن تكون كافية في حد ذاتها، وأن أدوات مثل SynthID لا يجب أن تكون الحل الوحيد. إذ قالت غوغل نفسها إن الأداة "ليست مضمونة ضد التلاعب الشديد بالصور". وهناك أبحاث متزايدة لدعم هذا الادعاء.
العلامة المائية مفيدة لكن ليست كافية
في أكتوبر/تشرين الأول 2023، أصدر باحثون في جامعة ميريلاند الأميركية ورقة بحثية أولية تشرح تجاوزهم جميع طرق وضع العلامات المائية المتاحة من خلال التكنولوجيا الحالية. ولم يكن الفريق قادرًا على إزالة تلك العلامات المائية فحسب، بل تمكن أيضًا من إدراج علامات مزيفة في الصور أيضًا، مما أدى إلى إنشاء نتائج إيجابية كاذبة عند فحصها.
قال سهيل فيزي، الأستاذ المشارك في علوم الكمبيوتر بجامعة ميريلاند، لموقع ذا فيرج المتخصص بالتقنية “لا أعتقد أن وضع علامة مائية على مخرجات النماذج التوليدية سيكون حلًا عمليًا للمعلومات المضللة المُعتمدة على الذكاء الاصطناعي. من المستحيل نظريًا حل هذه المشكلة بشكل موثوق”.
وفي تقرير صدر عن شركة موزيلا فبراير الفائت، أشار الباحثون إلى أن الأساليب الشائعة للكشف عن محتوى الذكاء الاصطناعي واكتشافه ليست فعالة بما يكفي لمنع المخاطر المتعلقة بالمعلومات الزائفة الناتجة عنه. إذ لاحظ الباحثون أن حواجز الحماية الحالية التي يستخدمها العديد من منشئي محتوى الذكاء الاصطناعي ومنصات التواصل الاجتماعي ليست قوية بما يكفي لمحاربة الجهات الفاعلة الضارة، وشمل ذلك تحليل الأساليب "الموجهة للإنسان"، مثل تصنيف محتوى الذكاء الاصطناعي بتحذيرات مرئية أو مسموعة، وكذلك الأساليب المقروءة آليًا، بما في ذلك استخدام العلامة المائية، وتضمين البيانات الوصفية، وإضافة أنماط إحصائية.
وخلص تقرير موزيلا إلى أن الـ"كشف" عن المحتوى المولد بالذكاء الاصطناعي ليس كافيًا، "إن التركيز على الحلول التقنية للكشف عن هذا النوع من المحتوى يمكن أن يصرف الانتباه عن إصلاح المشكلات الجوهرية الأوسع مثل الإعلانات شديدة الاستهداف، وتحفيز خوارزميات منصات التواصل الاجتماعي للمحتوى العاطفي والمثير، الذي يمكن أن يؤدي إلى إعطاء الأولوية لتوزيع المحتوى المولد بالذكاء الاصطناعي، مما يخلق تأثيرًا مضاعفًا".
تقول باحثة الدكتوراه في الذكاء الاصطناعي في جامعة أوكفسورد البريطانية، كلير ليبوفيتش، في مقال نشرته مجلة إم آي تي تكنولوجي ريفيو، إنه حتى لو كانت العلامات المائية غير المرئية متينة من الناحية الفنية وتحافظ على الخصوصية، فقد لا تساعد الجماهير في تفسير المحتوى "على الرغم من أن الإفصاحات المباشرة عن المحتوى المولد بالذكاء الاصطناعي مثل العلامات المائية المرئية لها جاذبيتها في توفير قدر أكبر من الشفافية، فإن مثل هذه الإفصاحات قد لا تحقق بالضرورة آثارها المقصودة، ويمكن في كثير من الأحيان أن يُنظر إليها على أنها أبوية، ومتحيزة، وعقابية، حتى عندما لا تقول أي شيء عن صدق المعلومات الواردة في قطعة المحتوى التي وُسمت بها".
علاوة على ذلك، تقول ليبوفيتش إن الجمهور قد يسيء تفسير مثل الإفصاحات المباشرة، وتستمدّ في ذلك السياق، مثالًا، عندما أخطأ أحد المشاركين في بحث أجرته عام 2021 في تفسير تصنيف "وسائط تم التلاعب بها" (Manipulated Media) على تويتر على أنه يشير إلى أن "وسيلة الإعلام" (Media) كانت تتلاعب به، وليس أن محتوى الفيديو الموسوم قد تم تعديله بغرض التضليل. لذا فإن دراسة مدى فعالية الإفصاحات المباشرة وتجارب المستخدم، وليس مجرد الاعتماد على تصنيف المحتوى الناتج عن الذكاء الاصطناعي، أمر بالغ الأهمية لصنع السياسات الفعالة لتحسين الشفافية، وفقها.
ماذا عن الثقة في المحتوى "الحقيقي"؟
تطرح ليبوفيتش سؤالاً شائكًا عن مدى تأثير الإفصاح المباشر عن المحتوى المولّد بالذكاء الاصطناعي على المواقف الأوسع تجاه المعلومات، وربما تقليل الثقة في المحتوى "الحقيقي". فمن وجهة نظرها، إن محو الأمية الإعلامية من خلال الكشف بالعلامة المائية وغيرها هو مسعى نبيل؛ ومع ذلك، فإن العديد من العاملين في فرق السياسة داخل شركات التكنولوجيا وخارجها يشعرون بالقلق من أن الدفع المبكر لتصنيف كل المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي قد يقوّض الثقة في التقنيات التي لا يكون فيها استخدام الذكاء الاصطناعي ضارًا، مثل خاصية تصوير "البورتريه" في أجهزة آيفون، التي تعتمد على تقنيات الذكاء الاصطناعي، أو المساعدين الصوتيين، المذكورين في أمر البيت الأبيض التنفيذي المُشار إليه أعلاه.
لذا، تدعو الباحثة إلى التعاون بين الأخصائيين وصانعي السياسات لقياس المواقف المجتمعية تجاه المعلومات بمرور الوقت وتحديد متى يكون من المنطقي الكشف عن مشاركة الذكاء الاصطناعي. والأهم من ذلك، تقييم تأثير الإفصاحات المرئية التي تشير إلى طريقة توليد المحتوى فقط دون الإشارة إلى الجانب الأكثر أهمية، وهو ما إذا كان ادعاء المحتوى صحيحًا أم خاطئًا.
اقرأ/ي أيضًا:
كيف وُظّفت الصور المولدة بالذكاء الاصطناعي خلال الحرب الإسرائيلية على غزة؟
الفيديو مولّد بالذكاء الاصطناعي وترامب لم يعد بإخراج القوات التركية من قبرص