` `

الذكاء الاصطناعي قد لا يكون حلًا سحريًا لمشكلة الأخبار الزائفة

بيان حمدان بيان حمدان
تكنولوجيا
28 نوفمبر 2021
الذكاء الاصطناعي قد لا يكون حلًا سحريًا لمشكلة الأخبار الزائفة
حلول الذكاء الاصطناعي المقترحة اليوم لا تصلح لمشاكل المستقبل (Getty)

هذا المقال ترجمة لمقال رأي من موقع ذا كونفرسيشن.

لطالما استُخدمت المعلومات المضللة في الحروب وضمن الاستراتيجيات العسكرية، ولكن لا شك بأنّ التطوّر التقني ووجود وسائل التواصل الاجتماعي كثّف انتشارها بشكل لافت، خاصةً وأنّ تقنيات الاتصال توفر طرائق سهلة ومنخفضة التكلفة لنشر أي معلومة من أي مكان في العالم. ولكن السؤال هنا: هل يمكن حل هذه المشكلة باستخدام التكنولوجيا؟

قد يوفر التطوير المستمر للحلول التقنية مثل الذكاء الاصطناعي جزءًا من الحل، إذ عملت شركات التكنولوجيا ومنصات وسائل التواصل الاجتماعي على تطوير عملية الكشف التلقائي عن الأخبار الزائفة من خلال تقنيات معالجة اللغة الطبيعية (NLP) والتعلم الآلي وتحليل الشبكة. والفكرة تتلخص بأنّ الخوارزمية ستحدد المعلومات على أنها زائفة، لتحد من وصولها إلى المستخدمين.

الانتشار والتعرض المتكرر للمعلومات المضللة

من منظور علم النفس، فإن التعرض المتكرر للمعلومات نفسها يزيد من احتمالية تصديقها. وبالتالي عندما يحدد الذكاء الاصطناعي المعلومات المضللة ويقلل من تكرار تداولها، فإن ذلك قد يؤدي إلى كسر دورة “استهلاكها”.

ومع ذلك، ما تزال عملية تحديد الذكاء الاصطناعي للمعلومات المضللة غير موثوقة، إذ تعتمد على تقييم نص الادعاء (المحتوى) وشبكته الاجتماعية لتحديد صدقيّته. 

وعلى الرغم من قدرة الذكاء الاصطناعي على تحديد أصل مصادر المعلومات ونمط انتشارها، إلا أنّ المشكلة الأساسية تكمن في كيفية تحقق الذكاء الاصطناعي من طبيعة المحتوى.

من الناحية النظرية، إذا كانت كمية البيانات المستخدمة في تدريب خوازمية الذكاء الاصطناعي كافية، فسيكون نموذج تصنيف الادعاءات قادرًا على تحديد ما إذا كانت المقالة تحتوي على أخبار زائفة أم لا. ومع ذلك، فإنّ الحقيقة هي أنّ هذه المهمة تتطلب معرفة سياسية وثقافية واجتماعية مسبقة، الأمر الذي ما تزال خوارزميات معالجة اللغة الطبيعية تفتقر إليه. بالإضافة إلى أنّ الأخبار الزائفة قد تكون شديدة الدقة عندما يتم تغييرها عمدًا لتظهر كأخبار صحيحة كما أظهرت بعض الدراسات.

الشراكة بين الإنسان والذكاء الاصطناعي 

وغالبًا ما يميز الذكاء الاصطناعي الموضوعات بدلاً من محتوى الادعاء لتحديد مدى صحته. فعلى سبيل المثال، من المرجح أن يتم تصنيف المقالات المتعلقة بفايروس كوفيد-19على أنها أخبار مزيفة أكثر من الموضوعات الأخرى.

ويتمثل أحد حلول هذه المشكلة في توظيف أشخاص للعمل إلى جانب خوازميات الذكاء الاصطناعي للتحقق من صحة المعلومات. وقد طورت وزارة الدفاع الليتوانية في عام 2018، برنامجًا للذكاء الاصطناعي يبلّغ عن المعلومات المضللة في غضون دقيقتين من نشرها ويرسل إشعارات إلى المتخصصين لمزيد من التحليل.

تجنب الرقابة 

في بعض الحالات، قد تُعدّ السيطرة على انتشار المعلومات المضللة رقابة وتهديدًا لحرية التعبير، إذ لا شكّ بأنه حتى الإنسان قد يواجه صعوبة في الحكم على ما إذا كانت المعلومات زائفة أم لا، ولذا ربما يكون السؤال الحاضر هنا: من وما الذي يحدد تعريف الأخبار الزائفة والمعلومات المضللة؟ وكيف نتأكد من أنّ تصنيفات الذكاء الاصطناعي لن تسحبنا إلى الانحياز التأكيديّ الخاطئ، وتصنّف المعلومات بشكل غير صحيح على أنها زائفة بسبب البيانات التي تدربت عليها؟

قد يكون لأنظمة الذكاء الاصطناعي التي تحدّد الأخبار الزائفة تطبيقات شريرة، إذ من الممكن أن تستخدمها الحكومات الاستبدادية ذريعةً لتبرير إزالة أي مقالات تنتقدها، أو لمقاضاة الأفراد غير المؤيدين لها، وبالتالي فإنّ  تطبيق أنظمة الذكاء الاصطناعي سيتطلب إدارته مع طرف ثالث لرصده.

وتظل التحديات المستقبلية المرتبطة بمكافحة انتشار الأخبار الكاذبة تقنيًّا مستمرة، فقد لا تتمكن الخوارزمية التي تم اختراعها اليوم من اكتشاف الأخبار المزيفة في المستقبل. 

فعلى سبيل المثال يصعب اكتشاف التلاعب الرقمي بالصوت أو الفيديو المعتمد عى تقنيات التزييف، التي من المرجح أن تلعب دورًا أكبر في حرب المعلومات المستقبلية. كما أن تتبع المعلومات المضللة المنتشرة عبر تطبيقات المراسلة مثل واتساب و وسغنال أصبح أكثر صعوبة بسبب التشفير التام بين لأطراف.

وفي حين من الضروري تخصيص الموارد التكنولوجية لمكافحة المعلومات المضللة باستخدام الذكاء الاصطناعي، إلا أنّ الحذر والشفافية ضروريان بالنظر إلى التداعيات المحتملة. ولسوء الحظ، قد لا تكون الحلول التكنولوجية الجديدة حلاً سحريًا.

 

المصدر

The Conversation 

الأكثر قراءة