` `

الاتحاد الأوروبي يشدد على أهمية تمييز المحتوى المولد بالذكاء الاصطناعي

فريق تحرير مسبار فريق تحرير مسبار
أخبار
17 يونيو 2023
الاتحاد الأوروبي يشدد على أهمية تمييز المحتوى المولد بالذكاء الاصطناعي
أقر الاتحاد الأوروبي قانونًا لتنظيم الذكاء الاصطناعي (Getty)

لا شك بأن تقنيات الذكاء الاصطناعي باتت من أهم مصادر إنشاء المحتوى، إذ يمكن من خلالها إنتاج مقالات ومحتوى مسموع ومرئيات معقدة في غضون ثوان. ومع ذلك، فإن هذا التقدم التكنولوجي يطرح العديد من التحديات الكبيرة، لا سيما فيما يخص المعلومات المضللة. لمعالجة هذه المشكلة، اقترح الاتحاد الأوروبي على شركات التكنولوجيا الكبرى مثل غوغل وميتا وضع العلامات لتمييز المحتوى الذي يتم إنشاؤه بتقنية الذكاء الاصطناعي.

الاتحاد الأوروبي يشدد على تمييز محتوى الذكاء الاصطناعي

أكدت نائبة رئيس المفوضية الأوروبية فيرا جوروفا على الحاجة إلى منصات إلكترونية تعالج قضية المحتوى المولد بالذكاء الاصطناعي، إذ حثت شركات التكنولوجيا الكبرى الملتزمة باتفاقية الاتحاد الأوروبي الطوعية بشأن مكافحة المعلومات المضللة، مثل غوغل وميتا وتيك وتوك، على إعطاء الأولوية لتطوير ضمانات ضد انتشار المعلومات المضللة التي تعتمد على المحتوى المولد بالذكاء الاصطناعي، وشددت على أهمية تمييز هذا المحتوى بشكل بارز لمنع نشره.

وبينما يهدف الاتحاد الأوروبي إلى الحفاظ على حرية التعبير، تؤكد جوروفا أن الآلات والتقنيات لا ينبغي أن تتمتع بنفس الحرية التي يتمتع بها البشر. فقد بات التقدم السريع لتكنولوجيا الذكاء الاصطناعي التوليدية يثير مخاوف جادة بشأن تأثيرها المحتمل على مختلف جوانب الحياة اليومية.

ولأن أوروبا في طليعة المنظمين لتقنية الذكاء الاصطناعي، أقر الاتحاد الأوروبي قانونًا لتنظيم الذكاء الاصطناعي، إذ يشعر مسؤولوه بحاجة ملحة إلى العمل بسرعة استجابة للتطور السريع بتقنيات الذكاء الاصطناعي التوليدية.

وقد دعت جوروفا الشركات الملتزمة بالقانون، إلى تصنيف المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي على وجه السرعة. وانتقدت من ناحيتها انسحاب شركة تويتر من اتفاقية الاتحاد الأوروبي لمكافحة المعلومات المضللة، عقب استحواذ إيلون ماسك، وأكدت أن الاتحاد الأوروبي سيدفع باتجاه امتثال “تويتر” لقانون الاتحاد الأوروبي.

البيانات الوصفية للصور المولدة بالذكاء الاصطناعي

غالبًا ما يفتقر المستخدمون إلى معلومات حول أصل الصور التي يصادفونها على مواقع التواصل الاجتماعي أو محركات البحث. ومع ذلك، يمكن أن تساعد البيانات الوصفية التي تتضمن تفاصيل مثل وقت وموقع التقاط الصورة، المستخدمين في تحديد صحة المحتوى. حاليًا، تعمل بعض شركات التكنولوجيا على دمج بيانات وصفية محددة للمواد المولدة بالذكاء الاصطناعي في إصداراتها، مما يجعل هذه المعلومات متاحة للجمهور بشكل أكبر.

على سبيل المثال، تخطط “غوغل” لوضع علامة على الصور المولدة بالذكاء الاصطناعي الخاصة بها داخل ملفات الصور الأصلية. وبالتالي عند الوصول إلى هذه الصور من خلال البحث في “غوغل” سيرى المستخدمون تصنيفًا يشير إلى أنها مولّدة بالذكاء الاصطناعي.

وقد دخلت “غوغل” أيضًا في شراكة مع موقع ميد جورني المختص بتوليد الصور وموقع شاتر ستوك المختص بعرض الصور، ما يعني أن هذه الخاصية ستضاف أيضًا إلى هذه المواقع. 

ولتعزيز الشفافية بشكل أكبر، ستقدم شركة غوغل ميزة "حول هذه الصورة" التي ستظهر بجوار نتائج البحث، يمكن للمستخدمين من خلالها الوصول إلى معلومات حول الصورة، بما في ذلك وقت فهرستها أول مرة وأول جهة ناشرة لها، وحالات أخرى من وجودها على الإنترنت، الأمر الذي سيساعد المستخدمين على الوصول إلى مقالات إخبارية توثّق حقيقة الصورة.

 من جهة أخرى شكلت شركات مثل مايكروسوفت وأدوبي وبي بي سي وإنتل، تحالف C2PA، الذي يهدف إلى تطوير معيار مفتوح لمشاركة مصادر الوسائط المتعددة. تتيح هذه المبادرة للمستخدمين تتبع أصل المحتوى الرقمي، مما يوفر الشفافية أيضًا حول أي تعديلات يتم إجراؤها بمرور الوقت.

عيوب آليات تمييز المحتوى المولد بالذكاء الاصطناعي

 في حين أن القدرة على التحقق والوصول لأصل الصورة وتاريخ نشرها قد تبشر بالخير، فإن أنظمة تمييز المحتوى المولد بالذكاء الاصطناعي الحالية ليست آمنة ولا فعالة بصورة يمكن الاعتماد عليها. ما يزال مدققو الحقائق يواجهون مهمة فضح الصور المضللة والتسجيلات الصوتية المزيفة يدويًا، إذ تقع مسؤولية تطوير أدوات الذكاء الاصطناعي الخاصة بمكافحة المعلومات المضللة على عاتق الأفراد والمنظمات، ولابد من المشاركة في تصميم هذه الأدوات وتطويرها وتوزيعها، للوصول إلى النتائج المنشودة.

إضافة إلى ذلك، ما تزال السياسات المتعلقة بالمحتوى المولد بالذكاء الاصطناعي على مواقع التواصل الاجتماعي غامضة، فمنصات مثل تيك توك ويوتيوب حدثت سياساتها لمعالجة "الوسائط المولدة" ولكنها تحتاج إلى مزيد من التوضيح لتحديد حالات استخدام هذه الوسائط المقبولة.

مع انتشار المحتوى المولد بالذكاء الاصطناعي على الإنترنت، تصبح معالجة هذه التحديات ملحة بشكل متزايد. وفي حين أن أنظمة تمييز هذا المحتوى وتحديد هوية الجهة المنتجة له ما تزال محدودة إلا أنها تمثل خطوة أولية حاسمة للتخفيف من المخاطر المرتبطة به. 

المصادر

Misbar

AP

Vox

CNBC

اقرأ/ي أيضًا

بسبب المخاطر العالية: قانون أوروبي جديد لتنظيم الذكاء الاصطناعي

كيف استُغلت تقنيات الذكاء الاصطناعي في تنفيذ عمليات احتيال على الإنترنت؟

اقرأ أيضاً

الأكثر قراءة