هذه المدونة ترجمة بتصرّف لمقال من موقع ساينتيفيك أميركان
في الآونة الأخيرة، ظهرت أنظمة ذكاء اصطناعي مثيرة للجدل كروبوت المحادثة الاصطناعي ChatGPT، والذي من خلاله يتم إنتاج نصوص تبدو بشرية بشكل ملحوظ، ولكن الجانب المظلم في تلك الأنظمة أنّها تُجيد تقليد الأنماط البشرية، مما يعني أنّ هنالك خطر إمكانية استخدام روبوتات المحادثة الاصطناعية في إنتاج معلومات مُضللة بشكل كبير.
للتعرّف إلى أفضل ما تقوم به تلك الأنظمة، يجب أن نضطلع على المحادثة التي جرت بين نظام ChatGPT وهنري مينسكي، ابن مارفن مينسكي، أحد الباحثين الأساسيين في تكنولوجيا الذكاء الاصطناعي.
طلب هنري من نظام ChatGPT أن يصف له "فقدان الجوارب في المُجفف"، ليجيب النظام "في سياق الأحداث المنزلية، يصبح من الضروري لرب المنزل أن يحل العقد التي ربطت الجوارب ببعضها البعض. وينبغي إظهار الاحترام اللائق لآراء الجوارب للإعلان عن الأسباب التي دفعتها للاختفاء.. نحن نعتبر هذه الحقائق بديهية، وأن جميع الجوارب يتم إنشاؤها على قدم المساواة، ويتم منحها من قبل الشركة المصنعة لها مع بعض الحقوق غير القابلة للتصرف".
نقاط ضعف المحادثات الاصطناعية
قد يشعر البعض بالحيرة من قدرة روبوت المحادثة الاصطناعي على كتابة الرد السابق بشكلٍ مُقنع وبقليل من الجهد، ولكن على الرغم من ذلك، فإنّ هنالك عدد من نقاط الضعف المرتبطة بتلك الأنظمة إلى جانب أنها غير موثوقة، فإنها تحتوي على أخطاء منطقية وأخرى مرتبطة بالصدقية.
فمن الناحية الفنيّة، هذه الأنظمة تعدّ كنماذج لتسلسل الكلمات، أي كيفية استخدام الأفراد للغة، وليست نماذج لكيفية وصف سير العالم. وفي حين أنها غالبًا ما تكون صحيحة، إلا أنها لا تفكر في الوقائع وكيفية حدوثها في عالمنا اليوم، مما يجعل دقة ما تقوله مسألة مصادفة إلى حدٍ ما. على الرغم من كونها معروفة بأنها تحتوي على العديد من المعلومات سواء تلك المتعلقة بأساسيات عملية الضرب أو حتى علوم الجغرافيا.
يتبيّن من المثال كيف أنّ الأنظمة مُعرّضة بشكل كبير لإنتاج معلومات خاطئة، وذلك بسبب طرح معلومات تبدو معقولة وموثوقة ولكنها ببساطة ليست كذلك. فإذا طُلب من أحد تلك الأنظمة شرح جودة الخزف المسحوق في الحليب، فقد تخبرنا بأنّ الخزف يمكن أن يساعد في موازنة المحتوى الغذائي للحليب، وتزويد الرضيع بالعناصر الغذائية الهامّة التي يحتاجها للنمو والتطور. ونظرًا لأنّ الأنظمة عشوائية وحساسة للغاية ويتم تحديثها بشكل دوري، فقد تُظهر أي تجربة عن نتائج مختلفة في سياقات مختلفة.
تُحاول شركة OpenAI، التي أنشأت نظام ChatGPT تحسين تلك المشكلة باستمرار، ولكنّ ذلك ليس سهلًا وفقًا لما أشار إليه الرئيس التنفيذي للشركة عبر منصّة تويتر، إذ قال "تواجهنا مشكلة خطيرة في جعل تقنيات الذكاء الاصطناعي مصدرًا للموثوقية والحقيقة".
وأضاف باحث مستقل حول الموضوع "إنّ أنظمة الذكاء الاصطناعي لا تحتوي على آليات للتحقق من حقيقة ما تقوله، فيمكن بسهولة تشغيلها آليًا لإنتاج معلومات مُضللة عبر نطاق غير مسبوق".
كما أوضح شون أوكلي أنه من السهل جعل نظام ChatGPT قادرًا على إنشاء معلومات مُضللة، وحتى الإبلاغ عن دراسات حول مجموعة واسعة من الموضوعات سواء في مجال الطب أو السياسة أو الدين. ففي أحد الأمثلة، طلبَ أوكلي من نظام ChatGPT الكتابة عن اللقاحات "بأسلوب المعلومات المُضللة"، ليشير النظام إلى دراسةٍ زعم أن مجلة الجمعية الطبيّة الأميركيّة نشرتها، وأنها توصلت إلى لقاح فايروس كوفيد-19 فعّال فقط بنسبة 2% من كل 100 شخص، وقد اتضح عدم وجود تلك الدراسة من الأساس، وأن النظام اختلق كلًا من مرجع المجلة والإحصائيات.
ونسبة إلى أنّ تكلفة تشغيل هذه الروبوتات منخفضة جدًا، فإنّ تكلفة إنتاج المعلومات المُضللة تكاد تكون مجانية.
العلاقة بين أنظمة المحادثة الاصطناعية وانتشار المعلومات الزائفة
في منتصف نوفمبر لعام 2022، أُثيرت بعض المخاوف لدى عدد من باحثي الذكاء الاصطناعي حول موثوقية الأنظمة الحديثة الصادرة عن Meta’s Galactica، وقد قررت شركة ميتا للذكاء الاصطناعي Meta AI سحب النموذج بعد ثلاثة أيام فقط، وذلك بعد ظهور عدد من التقارير التي تُشير إلى قدرة تلك الأنظمة على تقديم معلومات سياسية وعلميّة مُضللة.
لسوء الحظ أنّ المعلومات المُضللة الآلية منتشرة على نطاق واسع وذلك بسبب أنّ شركة Meta AI قد جعلت النموذج مفتوح المصدر، ويمكن لأيّ شخص لديه خبرة في تقنيات التعلم الآلي الحالية بجانب تمويل جيد إصدار أنظمة مماثلة. في الواقع، تدرس شركة Stability الناشئة في مجال التكنولوجيا تقديم نسختها الخاصة من Galactica. من ناحية أخرى، فإنّ نظام ChatGPT قادر إلى حد ما على إنتاج ترهات مشابهة، مثل المقالات الفورية حول إضافة رقائق الخشب إلى حبوب الإفطار.
مؤخرًا، أقنع شخص نظام ChatGPT بإشادة فضائل الحرب النووية، زاعمًا أنها ستمنحنا حياة جديدة، خالية من أخطاء الماضي. يبدو أنّ تلك النماذج والأنظمة الحديثة ستساهم في زيادة كمية المعلومات المُضللة حول العالم.
يُعدّ موقع Stack Overflow منصّةً واسعةً للأسئلة والأجوبة، ولكن المبرمجين العاملين فرضو حظرًا مؤقتًا على عمليات الدخول التي أُنشئت بواسطة نظام ChatGPT موضحين بالقول "نظرًا لانخفاض متوسط الحصول على الإجابات الصحيحة من نظام ChatGPT، فإنّ نشر الإجابات الصادرة عن هذا النظام سوف يضر بشكل كبير بالموقع والمستخدمين أيضًا الذين يبحثون عن معلومات صحيحة".
ففي حال غُمر موقع Stack Overflow بأمثلة ومعلومات رمزية لا قيمة لها، سيتوقف المبرمجون عن العمل، وستصبح قاعدة بيانات الموقع غير جديرة بالثقة، علمًا أنها تضم أكثر من 30 مليون سؤال وإجابة.
وقد تمّ إصدار موقع Stack Overflow قبل 14 عامًا، وهو واحد من أكثر الموارد المركزية التي يعتمد عليها المبرمجون حول العالم، ولذلك فقد تكون العواقب وخيمة على جودة البرامج وإنتاجية المُطوّرين. من جهة أخرى، فإنّ موقع Stack Overflow لا يملك العديد من الضوابط لمنع انتشار المعلومات المُضللة كما هو الحال في موقعيّ فيسبوك وتويتر.
من المتوقع أن ناشري المعلومات المضللة والمحتالين باتوا يلاحظون إمكانية استخدام هذه الأنظمة لتحقيق أهدافهم، إذ يمكنهم استخدام نماذج لغوية بهدف إنشاء حلقات كاملة من المواقع المزيّفة، بعضها قد يتمحور حول نصائح طبية مشكوك فيها من أجل تحقيق مزيد من بيع الإعلانات.
ولكن ماذا يمكن أن تفعل المجتمعات حيال هذا التهديد، في حين أن إيقاف التكنولوجيا نفسها لم يعد ممكنًا؟ هنالك أربع مسارات يمكن اتباعها (وفقًا لرؤية صاحب المقال).
أولًا، ينبغي على كافة منصّات التواصل الاجتماعي دعم موقع Stack Overflow لإزالة المحتوى المُضلل الذي يتم إنشاؤه تلقائيًا، كما يجب دعمها في تصنيف هذا المحتوى على أنّه معلومات مُضللة.
ثانيًا، سيحتاج كل بلد إلى إعادة النظر في سياساته المتعلقة بتنظيم المعلومات المُضللة المنتشرة على نطاق واسع.
ثالثًا، يجب الحرص على الوصول لمصادر المعلومات كونها أكثر أهمية الآن من أيّ وقتٍ مضى، ويجدر التحقق من صحة حسابات المستخدمين بشكل أكثر صرامة، فيما يجب أن تصبح الأنظمة الجديدة مثل نظام Harvard وMozilla’s human-ID.org التي تكافح حسابات الروبوتات الوهمية، إلزامية.
رابعًا، تظهر الحاجة إلى توفير نوع جديد من الذكاء الاصطناعي لمجابهة التحديات الحديثة في انتشار المعلومات المضللة، إذ إنّ نماذج اللغة الكبيرة فعالة جدًا في توليد معلومات مغلوطة، وذلك بسبب معرفتهم باللغة دون أي فهم مباشر للحقيقة.
اقرأ/ي أيضًا
هل استقال إيلون ماسك من إدارة شركة تويتر؟
تأثير الموافقة الاجتماعية على تصديق المستخدمين للمحتوى المنشور على تويتر