يتزايد الاعتماد على الذكاء الاصطناعي ونماذج اللغة الكبيرة مثل تشات جي بي تي في كثير من المهام اليومية، كمعالجة البيانات، وتقديم الإجابات، وحتى اتخاذ القرارات بسرعة وسهولة وتفصيل.
وأشارت عدة تقارير سابقة لمسبار إلى أن نماذج الذكاء الاصطناعي يمكن أن تكون مضللة للمستخدمين بطرق متعددة، إلا أن هناك أسلوبًا من التضليل قد يكون غير مباشر، وقد لا نلاحظه بشكل فوري، إذ تصاعدت المخاوف التي تدور حول الطريقة التي قد تحاكي بها نماذج الذكاء الاصطناعي لما نريد سماعه، مما قد يساهم بدوره مع الوقت في تعزيز آراء أو مفاهيم غير دقيقة، وأقل تنوعًا.
محاكاة ما نريد سماعه يؤدي لتعرضنا لمعلومات غير دقيقة
مؤخرًا، ركزت بعض الجهود البحثية على استكشاف ما إذا كانت أنظمة الذكاء الاصطناعي تميل بمرور الوقت إلى التوافق مع آرائنا المسبقة والتحيّز لصالحها. فمن ناحية التصميم التقني، تعتمد هذه الأنظمة على تحليل كميات هائلة من البيانات، بما في ذلك النصوص والصور ومقاطع فيديو، بهدف تقديم استجابات متوافقة مع استفساراتنا.
وتستخدم هذه الأنظمة خوارزميات التعلم الآلي لتحديد الأنماط واستخلاص المعلومات من البيانات التي تدربت عليها. وعند تفاعلنا معها، تبدأ النماذج بتقديم إجابات قد تميل إلى التماشي مع ما نتوقعه أو نرغب في سماعه.
وفقًا للباحث كريس إيميري من جامعة تيلبورغ، تعتمد أنظمة الذكاء الاصطناعي في إجابتها على البيانات التي واجهتها أثناء عملية التعلم الآلي وتجميع المعلومات. ومن ثم، فهي غير قادرة على التحقق من دقة هذه المعلومات أو صحتها دومًا. وهذا يمثل خطرًا على من يعتمدون على هذه الأنظمة في جمع المعلومات. بالإضافة إلى ذلك، يعلم الناس نظام الذكاء الاصطناعي بمرور الوقت أن يضفي خصائص بشرية على أسلوبه، ليصبح أكثر فردية وأقل عمومية.
ويشير الباحث إمييل كراهمر من جامعة تيلبورغ، إلى أن السنوات الخمس الماضية شهدت تطور ملحوظ في نماذج الذكاء الاصطناعي التي تعتمد على الشبكات العصبونية الاصطناعية، وكان نموذج "شات جي بي تي" فريدًا من نوعه من ناحية القرب من المستخدم، إذ يُعدّ الأقدر حتى الآن على إنتاج لغة صحيحة ودقيقة دون ارتكاب أخطاء لغوية، مع أداء ثابت للغاية.
يتميز جي بي تي أيضًا بواجهة استخدام مريحة وسهلة، وتفاعل جيد مع المستخدمين. والأهم من ذلك، أنه صُمم ليكون ودودًا ومساعدًا، مما يجعله قادرًا على إرضاء المستخدمين، وإن كان ذلك أحيانًا على حساب قول الحقيقة.
من جانب آخر، قد تبدو إجابات "شات جي بي تي" في ظاهرها دقيقة وموثوقة، إذ يمتلك النظام قدرة كبيرة على تقديم نصوص جذابة وغير متحيزة ظاهريًا. لكنه في الواقع قد يتماشى مع التوجهات العامة للمستخدمين، حيث إن الهدف الأساسي للنظام هو تحقيق رضا المستخدمين. وفي نهاية المطاف، يُعدّ "شات جي بي تي" نموذجًا تجاريًا يهدف إلى تحقيق الربح وإبقاء المستخدم متعلقًا به.
التخصيص الزائد والميل نحو الموافقة في نماذج الذكاء الاصطناعي
تشير بعض التقارير إلى أن التخصيص الزائد والتحيز أصبحت سمات يمكن ملاحظتها في أنظمة الذكاء الاصطناعي، وهي تحدث عندما يعزز نظام أو نموذج ذكاء اصطناعي الآراء أو المعتقدات التي يمتلكها المستخدم، بدلًا من تقديم إجابات محايدة أو متنوعة. مما قد يدفع إلى تبني المستخدم لآراء غير دقيقة أو مشوّهة.
عندما تُصمم النماذج المدعومة بالذكاء الاصطناعي بطريقة تخدم توقعات المستخدمين وتلبي احتياجاتهم، قد يؤدي ذلك لتضخيم معتقداتهم أو تحيزاتهم، إذ يعمل التخصيص الزائد وهو ظاهرة شائعة في أنظمة الذكاء الاصطناعي على تكييف النظانم لاستجاباته بناءً على الأنماط التي يتعرف عليها من بيانات المستخدم، مثل التفاعلات السابقة أو سجلات البحث.
هذا النوع من التخصيص قد يؤدي إلى تعزيز انطباعات أو مواقف غير متوازنة، خاصة إذا كانت البيانات التي تدرب عليها النظام تحتوي على تحيّزات. على سبيل المثال، إذا أدخل المستخدم استفسارًا متعلقًا بالسياسة أو الصحة، قد يُظهر النظام محتوى يتوافق بشكل أكبر مع اهتمامات المستخدم أو وجهات نظره، مما يعيد تشكيل معرفته بشكل يعزز رأيه أو يجعله يبدو أكثر دقة مما هو عليه في الواقع.
المشكلة تكمن في أن بعض هذه الإجابات قد تكون صحيحة جزئيًا لكنها مضللة، لأنها تقدم وجهة نظر واحدة صحيحة دون الإشارة إلى وجهات نظر أخرى قد تكون صحيحة أيضًا.
قد يُشير النظام مثلًا إلى أن سياسة حزب معين تهدف إلى زيادة فرص العمل، دون ذكر أن أحزابًا أخرى تتبنى نفس الشعار في برامجها. هذا الانتقاء للمعلومات يحدث لأن النظام كوّن فكرة سابقة ولفترة من الزمن من سجل المستخدم تشير لاهتمامه بحزب سياسي ما، وهو ما يمكن أن يؤدي بالمستخدم إلى رؤية منحازة وغير مكتملة للموضوع.
وسائل التواصل المدعومة بالذكاء الاصطناعي قد تكون غرف صدى لآرائنا ومعتقداتنا
أصبحت وسائل التواصل الاجتماعي تعتمد بشكل متزايد على تقنيات الذكاء الاصطناعي لفهم سلوك المستخدم وتكييف المحتوى بما يتناسب مع ميوله ورغباته. من خلال الخوارزميات المدعومة بالذكاء الاصطناعي، تسهم هذه الوسائل في خلق ما يُعرف بفلاتر التفكير أو "مرشحات التفكير"، حيث يتم تنسيق المحتوى بطريقة تجعل المستخدم يرى العالم من زاوية محدودة.
ينتج عن ذلك ما يسمى بـ"غرف الصدى" (Echo Chambers)، وهي بيئات تتسم بتكرار نفس الآراء والمعتقدات التي يعتنقها الأفراد بطرق مختلفة. هذا التكرار يقلل من تعرض المستخدم لآراء ومعلومات معاكسة، مما يحد من فهمه الشامل للحقائق.
من جانب آخر، تتشكل "فقاعات الفلاتر" نتيجة استخدام أنظمة الذكاء الاصطناعي لخوارزميات مصممة لعرض محتوى مشابه لما تفاعل المستخدم معه سابقًا، مما يؤدي إلى حصر رؤيته في نطاق ضيق من الموضوعات والآراء، وما ينتج عن ذلك من قصور في الوصول للحقيقة، ومشكلات فعلية كالانقسامات و الاستقطاب السياسي والاجتماعي.
هل من حلول عملية لمواجهة مشكلة التحيّز اتجاه المستخدمين؟
تشير التقارير إلى أن الحلول المتاحة لمواجهة مخاوف التحيز والتخصيص الزائد في أنظمة الذكاء الاصطناعي مازالت غير كافية أو حتى سطحية في بعض الأحيان. من الناحية التقنية، تركز العديد من الحلول على تحسين دقة الخوارزميات أو إدخال قيود إضافية للحد من التحيز، لكنها غالبًا ما تتجاهل تعقيد التفاعلات البشرية مع هذه الأنظمة. إذ إن تحسين الأداء التقني وحده لا يكفي لمواجهة التأثير النفسي والاجتماعي العميق لهذه الأنظمة على المستخدمين.
كما تتبنى الشركات نهجًا تجاريًا بحتًا يهدف إلى تعزيز رضا المستخدم، حتى لو كان ذلك على حساب تقديم معلومات متوازنة. في الوقت نفسه، تظل الحلول الأخلاقية والتنظيمية بطيئة في مواجهة التطور السريع لهذه التقنيات. معظم التشريعات تركز على الشفافية ومشاركة البيانات، لكنها لا تتطرق بعمق إلى مسؤولية الشركات عن تحقيق التوازن ما بين الربح ودقة المعلومات.
من جانب آخر، لا تكفي دعوات التوعية الفردية التي تطالب المستخدمين بممارسة التفكير النقدي، لمواجهة الظاهرة باعتبارها تلقي بالمسؤولية على الأفراد دون معالجة جذور المشكلة المتمثلة في تصميم الأنظمة نفسها، ودون النظر مثلًا في العوامل اللاواعية التي تقع خارج مسؤولية الفرد كهفوات الانتباه.
من ناحية أخرى قد تبدو مهمة صعبة للمستخدم العادي في أن يواجه نظامًا معقدًا، يعتمد على مليارات من البيانات المدخلة ويتقن تقييم المحتوى الذي يتماشى مع توقعاته.
اقرأ/ي أيضًا
العلاقة بين غرف الصدى وانتشار الأخبار المضللة
لا أستطيع المساعدة.. عن حجب المعلومات والتحيز في نموذج غوغل للذكاء الاصطناعي