` `

كيف يمكن لأداة سورا لتوليد مقاطع الفيديو بالذكاء الاصطناعي المساهمة في نشر المعلومات المضللة؟

أحمد كحلاني أحمد كحلاني
تكنولوجيا
21 فبراير 2024
كيف يمكن لأداة سورا لتوليد مقاطع الفيديو بالذكاء الاصطناعي المساهمة في نشر المعلومات المضللة؟
سورا أداة جديدة لتوليد مقاطع الفيديو بتقنيات الذكاء الاصطناعي (Getty)

أعلنت شركة OpenAI المطورة لأداة تشات جي بي تي ChatGPT، ومولد الصور DALL·E عن أداة جديدة أطلقت عليها اسم سورا “Sora”، في 15 فبراير/شباط الجاري، وهي أداة تُمكن المستخدمين من توليد مقاطع فيديو تحاكي الواقع عبر الذكاء الاصطناعي، لا تتجاوز مدتها الدقيقة من خلال إدخال نص فقط.

وأشارت الشركة خلال تقديمها للأداة أنها ستكون قادرة على إنتاج مقاطع فيديو عالية الدقة وبحسب أوامر المُستخدم، إلى جانب قدرتها على توليد مشاهد مُركبة لشخصيات بحركات وتفاصيل دقيقة.

تقرير الإعلان عن أداة sora

ونشرت قناة الشركة في موقع يوتيوب وموقعها الرسمي في 17 فبراير الجاري، عدة نماذج لمقاطع فيديو تم توليدها عبر الذكاء الاصطناعي باستخدام الأداة "سورا"، وتظهر المقاطع قريبة بشكل كبير من الواقع ومن الصعب من الوهلة الأولى الانتباه إلى أنها مولدة عبر الذكاء الاصطناعي، خاصة وأن الشركة تقول إنها نشرت مجموعة هذه النماذج دون إجراء أي تعديلات عليها. 

وأكدت على أن تطوير الأداة يتم مع خبراء متخصصين في مجلات المعلومات الخاطئة، والمحتوى الذي يتضمن خطاب كراهية وتحريض، وأنهم يعملون على اختبارها.

كما يمكن الاستفادة لصانعي المحتوى الاستفادة من أداة سورا،  التي ستمكنهم من سرد قصصهم عبر الفيديو.

 في المقابل هناك تخوفات كثيرة بشأن إساءة استخدامها خصوصًا، فيما يتعلق بتضخيم مخاطر المعلومات المضللة وزيادة انتشار الأخبار الزائفة.

نماذج لمقاطع فيديو مولدة باستخدام أداة sora

إجراءات لضمان عدم إساءة استخدام "سورا"

ونشر حساب الرئيس التنفيذي لشركة OpenAI، سام ألتمان، على منصة إكس في 15 فبراير الجاري، منشورًا مفاده أن أداة “سورا”  ليست متاحة للجميع في الوقت الحالي، وأنها لا تزال قيد الاختبار حصرًا مع "الفريق الأحمر"، وهو فريق من الخبراء يقوم باختبار الأداة وتجربتها واكتشاف عيوبها لتفادي الاستعمال السيء لها على غرار إنتاج محتوى المتحيز أو الذي يحرض على الكراهية أو يتضمن محتوى جنسيًّا.

منشور سام ألتمان بخصوص أداة SORA الجديدة

تخوفات من انتشار أوسع للتضليل في الفضاء الرقمي

قد تؤدي أداة مثل "سورا" إلى نشر أوسع للتضليل باستخدام مقاطع فيديو مولدة وغير حقيقية، إذ سيصبح من السهل توليد فيديو عبر الذكاء الاصطناعي لأي مشهد يمكن وصفه ونشر أخبار مزيفة أو بقصد التشكيك في المشاهد الحقيقية في أي حدث.

ويمكن أن تساهم الأداة في تضخم انتشار الأخبار الزائفة على الإنترنت، عبر تسهيل عملية إنشاء صور مرئية لدعم الادعاءات الكاذبة، مما قد يؤدي إلى قصور في القدرة على محاصرة المعلومات المضللة.

كما يمكن استغلال هذه الأداة لتأجيج الدعاية وخداع المتابعين، من خلال الاعتماد على استراتيجية الإغراق، عبر إنشاء مقاطع فيديو كثيرة حول مواضيع معينة بهدف تضليل الرأي العام على غرار المناسبات الانتخابية أو المظاهرات أو عبر توليد مقاطع فيديو مزيفة لمجموعة عرقية أو أقلية مُعينة.

"سورا" تُشكل تحديًا جديدًا لمدققي المعلومات 

رغم الجوانب الإيجابية لهذه الأداة والأفاق التي يمكن أن تفتحها في عدة مجالات، لكن طرحها للعامة قد يفرض تحديات جديدة على مدققي المعلومات.

ومن بين المخاطر الأخرى التي يمكن أن تمثلها هذه الأداة هو استغلال أحداث واقعية وتوليد مقاطع فيديو عبر الذكاء الاصطناعي، ونسبها لها مما سيصعب مهمة التحقق منها وتفنيدها. 

إضافة إلى صعوبة استخدام المدققين لأدوات البحث العكسي نظرا لغزارة وسهولة توليد مقاطع فيديو جديدة، ولجوء مروجي المعلومات المضللة والأخبار الزائفة لتوليد مشاهد جديدة في كل مرة عوضًا عن إعادة استخدام مقاطع قديمة كما هو شائع الآن. 

كما أن الأداة في توليدها للمشاهد تختلق أشخاصًا غير واقعيين ذوي ملامح وهمية، ما يصعب على مدققي المعلومات الحسم بشأن حقيقة الشخصيات الظاهرة في المقاطع.

هل يمكن الكشف عن مقاطع الفيديو المولدة باستخدام أداة "سورا"؟

رغم الدقة العالية لمقاطع الفيديو التي يتم توليدها عبر أداة "سورا"، إلا أنها لا تعدّ مقاطع فيديو ذات جودة مثالية، إذ ما تزال هناك إمكانية للتمييز بينها وبين المشاهد الحقيقة، وهو الأمر الذي أشارت إليه شركة OpenAi ذاتها، التي اعتبرت أن النسخة الحالية تحتوي بعض العيوب على غرار الالتباس بين اليمين واليسار أو عدم القدرة على الحفاظ على الاستمرارية البصرية طوال الفيديو. إلى جانب ظهور بعض الكيانات الدخيلة في المشاهدات المركب، إلى جانب توليد مقاطع فيديو بحركات غير قابلة للتصديق أو بتفاعلات جسدية غير دقيقة. 

نموذج لمقطع فيديو مولد بأداة sora

على الرغم من أن شركة OpenAI عملت على إضافة علامة مائية في ركن الفيديو من الأسفل، لتمييز المشاهد المولدة عن طريق الأداة الجديدة، إلا أن هذا لن يمنع مروجي المعلومات المضللة من اقتصاص الشعار واستغلال الأداة.

كما أن القيود التي فرضتها الشركة حتى الآن على محتوى الفيديوهات التي سيتم توليدها عبر أداتها الجديدة، غير كافية لمنع الاستخدام السيئ لها.

ولكن مهما بلغت دقة المشاهد فمن المتوقع أن تحتوي عيوبًا وتشوهات، كما هو الحال في الصور المولدة بالذكاء الاصطناعي.

ومن أبرز النصائح التي يُمكن تقديمها للكشف عن الفيديوهات المولدة باستخدام تقنيات الذكاء الاصطناعي بشكلٍ عام: التدقيق في تفاصيل الفيديو وعناصره الثانوية، على غرار حركة الشخصيات الثانوية البارزة في الفيديو، والتدقيق في شكل الأذن والعينين والرموش وحركة اليد والأصابع والظلال ومدى تناسق ألوان البشرة والانعكاسات.

إضافة إلى التدقيق في حركة الشعر ومدى تطابقها مع الاندفاع الحركي أو اتجاه الرياح، إلى جانب ذلك التدقيق في حركة الكاميرا وما إن كانت تتحرك بذات السرعة والنسق في مختلف المشاهد.

وسبق أن نشر مسبار تقريرًا مفصلًا عن طرق كشف الصور المولدة بالذكاء الاصطناعي وأبرز التشوهات التي تحتويها.

طرق كشف الصور المولدة بالذكاء الاصطناعي

مخاطر الذكاء الاصطناعي 

في أواخر شهر يناير/كانون الثاني الفائت، انتشرت على مواقع التواصل الاجتماعي صور جنسية مزيفة مولدة بواسطة الذكاء الاصطناعي، لنجمة البوب الأمريكية ​​تايلور سويفت حصدت ملايين المشاهدات والتفاعلات، هذه إحدى المخاطر التي بات يشكلها الذكاء الاصطناعي التوليدي في ما يتعلق بإنتاج المحتوى المزيف.

فيما بعد حُظر البحث عن تايلور سويفت على منصة إكس في إجراءٍ مؤقت بسبب انتشار الصور المزيفة.

وللحد من المخاطر التي باتت تشكلها أدوات التوليد عبر الذكاء الاصطناعي، وإلى جانب الإجراءات التي تتخذها الشركات المقدمة لهذه الأدوات، أصدرت شركة ميتا بيانًا، في السادس من فبراير/شباط الجاري، مفاده أنها ستشرع في تمييز الصور المولدة بالذكاء الاصطناعي بعلامات وصفية، وفي حين تتخذ الشركة هذا الإجراء مع الصور المولدة بالأداة الخاصة بميتا، على منصات فيسبوك وانستغرام وثريدز، إذ تضيف علامة مائية تحمل عبارة "منشأة بالذكاء الاصطناعي"، إلا أنها تسعى حاليًا إلى تمييز الصور الناتجة عن أدوات توليد الصور التابعة للشركات الأخرى مثل غوغل وأوبن إيه آي ومايكروسوفت وميد جورني وشترستوك، وذلك في سياق “تضييق الفجوة بين المحتوى البشري والاصطناعي”. 

ميتا تعلن عن إجراءات لتمييز الصور المولدة بالذكاء الاصطناعي

اقرأ/ي أيضًا

أداة ذكاء اصطناعي جديدة لمكافحة المعلومات المُضللة على ويكيبيديا

هل يمكن أن يتفوق الذكاء الاصطناعي على البشر؟

الأكثر قراءة