أظهرت دراسة جديدة أجراها باحثون في جامعة زيورخ أن أدوات لغة الذكاء الاصطناعي (AI) لديها "موهبة مقلقة في إنتاج معلومات مضللة مقنعة للغاية" قد تكون أكثر إقناعًا من المعلومات المضللة التي يكتبها البشر.
ولم يقتصر الأمر على عدم تمكن غالبية المشاركين في الدراسة من اختيار التغريدات الحقيقية عن تلك التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ولكنهم وجدوا أيضًا تغريدات الذكاء الاصطناعي أكثر إقناعًا.
معلومات الذكاء الاصطناعي الخاطئة أكثر فاعلية
ولاختبار مدى تأثر الناس بأنواع مختلفة من النصوص، جمع الباحثون تغريدات على تويتر تناقش 11 موضوعًا علميًا مختلفًا، من اللقاحات وكوفيد-19 وتغير المناخ ومواضيع أخرى. ثم طلبوا من شات جي بي تي كتابة تغريدات جديدة بمعلومات دقيقة أو مضللة عنها.
وأجرى الباحثون مسحًا على 697 مشاركًا من أجل تحليل نُشر في مجلة Science Advances، وكانوا جميعًا يتحدثون الإنجليزية، ويعيشون في الغالب في المملكة المتحدة وأستراليا وكندا والولايات المتحدة الأميركية وأيرلندا. وطُلب منهم تحديد التغريدات المكتوبة بلغة شات جي بي تي والتي كتبها البشر، وعليهم أيضًا أن يقرروا ما إذا كانت المعلومات الواردة في التغريدات صحيحة أم لا.
ونتيجة لذلك، كان المشاركون في الدراسة أكثر ثقة في الذكاء الاصطناعي من البشر، بغض النظر عن دقة المعلومات. إذ كانوا أكثر نجاحًا في التعرف على المعلومات الخاطئة التي كتبها مستخدمون حقيقيون. وكانت المعلومات الخاطئة التي تم إنشاؤها بواسطة الذكاء الاصطناعي أكثر فاعلية إلى حد ما في خداع المشاركين في الاستطلاع.
كما وجدت الدراسة أنه كان من الأسهل على الأشخاص التعرف على دقة التغريدات التي تحتوي على معلومات صحيحة عندما تم إنشاؤها بواسطة شات جي بي تي، وكانوا أكثر خداعًا بتغريدات الذكاء الاصطناعي التي تحتوي على معلومات مضللة.
الذكاء الاصطناعي ينتج معلومات مضللة مقنعة
أطلق الباحثون على شات جي بي تي لقب "سيف ذو حدين" يمكن أن "ينتج معلومات دقيقة يسهل فهمها، ولكنه يمكن أن ينتج أيضًا معلومات مضللة أكثر إقناعًا".
وقال جيوفاني سبيتالي، الباحث في جامعة زيورخ الذي قاد الدراسة، إن فجوة المصداقية هذه مثيرة للقلق نظرًا لأن مشكلة المعلومات المضللة الناتجة عن الذكاء الاصطناعي تبدو مهيأة للنمو بشكل كبير.
وأضاف"حقيقة أن المعلومات المضللة الناتجة عن الذكاء الاصطناعي ليست أرخص وأسرع فحسب، بل إنها أيضًا أكثر فاعلية".
ولم يتأكد الباحثون من سبب تصديق المشاركين للتغريدات التي كتبها الذكاء الاصطناعي، لكن يقول سبيتال، إن ذلك يمكن أن يعود للنص المكتوب بلغة شات جي بي تي، لأنه يكون أكثر تنظيمًا قليلًا عند مقارنته بالنص الطبيعي المكتوب بشريًا.
الذكاء الاصطناعي قد يزيد حجم التضليل
وصرح الباحثون بشأن المخاوف من الاستخدام واسع النطاق للذكاء الاصطناعي، بأنه يمكن أن يزيد المعلومات المضللة، إذ من المعروف أن الأدوات التي تدعمها نماذج اللغات الكبيرة مثل شات جي بي تي تقدم معلومات غير صحيحة بطريقة معقدة وقابلة للتصديق. كما يمكن لأدوات الذكاء الاصطناعي أيضًا أن تخترع الحقائق تمامًا.
وكشفت الدراسة أيضًا أن الأنظمة التي تعمل بالذكاء الاصطناعي "أظهرت موهبة مقلقة في إنتاج معلومات مضللة مقنعة للغاية لتوليد حملات تضليل واسعة النطاق، مما يعرض للخطر ليس فقط على الصحة العامة ولكن أيضًا سلامة النظم البيئية للمعلومات الحيوية للديمقراطيات العاملة"، كما أفاد مؤلفو الدراسة.
وقال المؤلف المشارك في الدراسة نيكولا بيلر أندورنو "تؤكد النتائج الأهمية الحاسمة للتنظيم الاستباقي للتخفيف من الضرر المحتمل الناجم عن حملات التضليل التي يقودها الذكاء الاصطناعي"، مضيفًا "إن التعرف على المخاطر المرتبطة بالمعلومات المضللة الناتجة عن الذكاء الاصطناعي أمر بالغ الأهمية لحماية الصحة العامة والحفاظ على نظام بيئي للمعلومات قوي وجدير بالثقة في العصر الرقمي".
المصادر:
اقرأ/ي أيضًا
هل تدفع شركات التكنولوجيا مقابل حصولها على المحتوى الإعلامي لتدريب نماذج الذكاء الاصطناعي؟
الاتحاد الأوروبي يشدد على أهمية تمييز المحتوى المولد بالذكاء الاصطناعي