` `

محادثة مع تشات جي بي تي.. متى يقدّم معلومات مضللة؟

أنس ناصيف أنس ناصيف
تكنولوجيا
7 مارس 2023
محادثة مع تشات جي بي تي.. متى يقدّم معلومات مضللة؟
يعدّ روبوت المحادثة ثورة واعدة في مجال توفير المعلومات (Getty)

أعلنت شركة الذكاء الاصطناعي أوبن أيه آي Open AI، عن إطلاق روبوت المحادثة تشات جي بي تي ChatGPT، في نوفمبر/تشرين الثاني 2022. والذي يعدّ نموذجًا لغويًّا ضخمًا، تم تدريبه باستخدام تقنيات التعلم العميق Deep Learning، لتوليد النصوص عبر تحليل البيانات والمعلومات المنشورة على الإنترنت.

ما هو تشات جي بي تي ChatGPT؟

يستخدم تشات جي بي تي الذكاء الاصطناعي للإجابة عن أي سؤال يُطرح عليه، اعتمادًا على معالجة المحتوى الهائل المتوفر لديه. وما يميّز روبوت المحادثة قدرته على التعلم من الشخص الذي يحاوره، فيحفظ كل ما يُكتب، ويخزّنه كمعلومات في إطار سلوك أقرب للتعلم الذاتي، ليصحّح الأخطاء التي قد يرتكبها خلال إجابته عن موضوعات ليس لديه بيانات كافية عنها. وبهذا يأمل مطوّروه أن تتيح له قدرته السريعة على التعلُّم توليد محتوى دقيق للغاية في المستقبل، وتقليل عدد الأخطاء التي يرتكبها، الأمر الذي سيمثّل ثورة في مجال المعلومات ستطاول تأثيراتها قطاع الأعمال والوظائف والكثير من المهام المرتبطة بالكتابة والمعلومات.

شرع مستخدمو شات جي بي تي، إلى محاولة استخلاص معلومات منه في مختلف المجالات، فطرحوا عليه الأسئلة الطبية والتكنولوجية، وطلبوا شرح نظريات علمية ومفاهيم معقدة، ووصل الأمر حدّ الطلب منه كتابة لغة برمجية وحتى قصائد وقصصًا خيالية.

يمتلك التطبيق ميزة توفر للمستخدم إمكانية طلب إجابة أخرى غير تلك التي تلقاها، في حال لم تكن مقنعة أو أراد معرفة المزيد من المعلومات.

محادثة مع تشات جي بي تي

أثار التطبيق الدهشة والجدل بين المستخدمين والمختصين في مجال المعلومات حول قدراته الحالية وإمكانياته المستقبلية. لكن من بين النقاط التي كانت مبعث قلق، احتمال تحوّله إلى مصدر للمعلومات الزائفة، عبر تقديمه إجابات غير دقيقة قد تضلل المستخدمين. حول هذا الموضوع أجرى “مسبار” محادثة مع تشات جي بي تي.

هل يمكن أن يعطي تشات جي بي تي معلومة مضللة؟

ChatGPT: "نعم، يمكن لـ ChatGPT أن يعطي معلومات مضللة إذا كانت البيانات المستخدمة في تدريبه تحتوي على معلومات مضللة أو مغلوطة. على سبيل المثال، إذا كانت البيانات التي تم استخدامها لتدريب ChatGPT تحتوي على معلومات خاطئة أو مضللة، فإن النموذج يمكن أن يتعلم تلك المعلومات ويستخدمها لإعطاء إجابات غير دقيقة أو مضللة".

ويتابع التطبيق "من الجدير بالذكر أن تشات جي بي تي يعتمد بشكل كبير على البيانات التي يتم تدريبه عليها، وتحديدًا على جودة هذه البيانات. لذلك، فمن المهم جدًا أن يتم تدريب ChatGPT على مجموعة متنوعة من البيانات الدقيقة والموثوقة، وأن يتم تقييم أدائها بشكل دوري لضمان دقتها وموثوقيتها".

صورة متعلقة توضيحية

هل يمكن أن يعطي تشات جي بي تي معلومة مضللة في حال أعطي معلومة صحيحة؟

ChatGPT: "لا يجب أن يعطي تشات جي بي تي معلومة مضللة إذا تلقى معلومة صحيحة من المستخدم. ومن المفترض أنّ تشات جي بي تي يقوم بتحليل المعلومات المقدمة له بشكل دقيق ويقدم إجابات صحيحة بناءً عليها".

ويتابع "ومع ذلك، قد يواجه التطبيق بعض الصعوبات في تحديد معنى العبارات والجمل المعقدة أو الأسئلة غير الواضحة بشكل كافٍ. قد يؤدي هذا إلى إعطاء إجابات غير دقيقة أو مختلفة في بعض الأحيان. لذلك، يجب على المستخدم أن يقدم المعلومات بشكل واضح ودقيق قدر الإمكان لتحسين جودة الإجابات التي يحصل عليها من تشات جي بي تي".

صورة متعلقة توضيحية

عاود فريق مسبار سؤاله عن أي احتمال لأن يعطي معلومة مضللة إذا تلقى معلومة صحيحة؟

ChatGPT: "إذا تم تدريب تشات جي بي تي على مجموعة من البيانات الصحيحة والموثوقة، فإنه لا ينبغي أن يعطي معلومة مضللة إذا تلقى معلومة صحيحة من المستخدم. ومع ذلك، لا يمكن استبعاد الأخطاء التي قد تحدث بشكل عرضي أو نتيجة للمشكلات التقنية".

ويؤكد التطبيق هنا أنّه "قد تحدث أخطاء إذا تم استخدام تشات جي بي تي في سياقات غير مألوفة أو في الإجابة على أسئلة غير واضحة أو معقدة. كما أنه يمكن أن يواجه التطبيق بعض المشاكل في فهم المعلومات العاطفية أو اللغة العامية أو الألفاظ العامة. في هذه الحالات، قد يعطي تشات جي بي تي إجابات غير دقيقة أو مضللة، ولكنها لا تأتي عمدًا بل تكون نتيجة لعدم الفهم الصحيح للمعلومات التي قدّمها المستخدم".

"لذلك، ينبغي دائمًا التحقق من دقة المعلومات والبيانات المقدمة من قبل تشات جي بي تي وتأكيدها من مصادر أخرى قبل اتخاذ قرارات أو إجراءات أساسية عليها".

صورة متعلقة توضيحية

نلاحظ من إجابات روبوت الدردشة أنّه يركز على نقاط عدّة، أهمها أنّه يشترط لكي يقدم معلومة صحيحة أن تكون البيانات المدخلة إليه صحيحة، متجنّبًا تقديم إجابة قاطعة تنفي أي احتمال لتقديمه معلومة مضللة في حال مُنح معلومة صحيحة من المستخدم. موضحًا سياقات مختلفة قد تفضي إلى تقديمه إجابات غير دقيقة أو مضللة. ولا يفوت التطبيق أن يؤكد بناء على تلك النقاط على ضرورة التثبت من المعلومات التي يحصل عليها من روبوت المحادثة من مصادر أخرى.

هل ناجي العلي شاعر فلسطيني؟

أنشأنا محادثات حول مواضيع مختلفة مع "تشات جي بي تي"، للتثبت من بعض السياقات التي يمكن فيها أن يقدم معلومة مغلوطة أو مضللة.

فسألناه عن عدد القصائد التي كتبها ناجي العلي، رسام الكاريكاتير الفلسطيني الذي اغتيل عام 1987. ليجيب بأنّ ناجي العلي شاعر فلسطيني له قصائد عديدة، وذكر عناوين لبعضها، لم نجد لها أي ارتباط بالرسّام الفلسطيني.

وحين سألناه، هل كان ناجي العلي شاعر؟ أجاب بنعم وذكر معلومات بعضها يتقاطع مع سيرة رسام الكاريكاتير. لكنّه في السؤال الأخير نفى بشكل قاطع أن يكون ناجي العلي رسامًا بالأصل، مؤكدًا أنّه شاعر، وهذا بالطبع غير صحيح.

صورة متعلقة توضيحية

ربما اعتبر روبوت المحادثة أنّ سؤال "كم قصيدة كتب ناجي العلي؟"، يتضمن معلومات مضللة أو يختلق سياقًا قد يؤدي إلى تقديمه إجابة مغلوطة، لكنّ السؤال لا ينفي أنّ ناجي العلي رسام أو يثبت أنّه امتهن الشعر أو كان معروفًا بوصفه شاعرًا.

هذا مثال يوضح كيف يمكن أن يقدم التطبيق معلومات مضللة بناء على بيانات من الصعب أن نعدّها مضللة تمامًا.

وعلى الرغم من أنّ تشات جي بي تي يعدّ مصدرًا واعدًا للمعلومات، إلّا أنّه حتى الآن ليس مصدرًا موثوقًا لها، فلا يمكن الاعتماد عليه بمفرده. كما أنّ فهم وتطوير آليات استخدامه يحتاج ذهنية تدرك أنّه مختلف عن المواقع الإلكترونية ومحرّكات البحث. إذ عند طرح أي سؤال على غوغل، فإنّه لا يُقدّم إجابة مباشرة، إنّما نتائج بحث تُظهر مواقع إلكترونية تعطي إجابات كتبها بشر، يمكن مقارنتها والتثبت من صدقيتها. أمّا مع تشات جي بي تي فنحن أمام روبوت يولّد النصوص ويعالج البيانات باستخدام ذكاء اصطناعي، ويقدّم إجابة مباشرة، لكنّه يقول لنا تثبتوا مما أكتبه لكم من مصادر موثوقة. 

 

المصادر

ChatGPT

BBC Science Focus

مسبار

الجزيرة

اقرأ/ي أيضًا

ChatGPT دراسة: علماء يفشلون بتمييز الأوراق البحثية المزيفة التي أنتجها

دراسة: يمكن للذكاء الاصطناعي خلق الكذب والدعاية المضللة

الأكثر قراءة