` `

برنامج محادثة يتسبب في انتحار شخص في بلجيكا

فريق تحرير مسبار فريق تحرير مسبار
أخبار
9 أبريل 2023
برنامج محادثة يتسبب في انتحار شخص في بلجيكا
المنتحر كان مهتمًا بإيجاد حلول لمشكلات البيئة بواسطة الذكاء الاصطناعي (Getty)

في سابقة من نوعها، أنهى رجل بلجيكي حياته عقب ستة أسابيع قضاها في محادثة روبوت الذكاء الاصطناعي (إليزا)، بعدما شجعه على التضحية بنفسه لوقف التغيّر المناخي.

بدا بيير، وهو اسم مستعار أُطلق على الرجل، قلقًا إزاء مشكلات الاحتباس الحراري والتغيّر المناخي وغيرها من القضايا البيئية، فاستخدم عقب فترة من العزلة عن العائلة والأصدقاء روبوت المحادثة إليزا، ليناقشه ويطرح عليه أفكاره بخصوص تلك المسائل، ومع الوقت أصبح بيير و"إليزا" صديقان مقرّبان. 

أراد بيير من تلك المحادثات أن يجد حلولًا لمشكلات البيئة والتغير المناخي، فوجد نفسه مرتاحًا في عرض تفاصيلها وتطوير نقاش مع الروبوت إليزا حول سبل مواجهة تلك التحديات. حينها أخبر بيير لزوجته إنّه لم يعد يرى أيّ حل بشريّ لمشكلة الاحتباس الحراري، وهي قالت في تصريحات عقب انتحاره "لقد وضع آماله في التكنولوجيا والذكاء الاصطناعي".

لكن مع مرور الوقت لم تعد الخطوط واضحة ما بين الذكاء الاصطناعي والتفاعلات البشرية بالنسبة إلى بيير، فالتبست المسألة بعد نقاشات مطولة مع الروبوت، وصلت حدّ الحديث عن فائدة الانتحار في سبيل الدفاع عن القضايا البيئية.

اطلعت كلير، اسم مستعار لزوجة بيير، على جانب من محادثات زوجها مع روبوت الذكاء الاصطناعي، الذي قال له إنّ زوجته وأولاده ماتوا وكتبوا له تعليقات عن الغيرة والحب. كما ذكرت كلير أنّ زوجها أخذ يسألها أسئلة من قبيل عمّا إذا كانت ستنقذ الكوكب في حال انتحاره.

ذكاء اصطناعي بلا ذكاء وجداني

لم يكن روبوت المحادثة قادرًا على التعاطف أو إبداء التفهم أو أي نوع من الذكاء الوجداني، لكي يتعامل مع بيير أو يدرك حالته النفسية الراهنة وميوله، فكان تفاعله معلوماتيًا محضًا، خاليًا من أي إدراك للمخاطر التي قد تترتب على ما يقول.

ففي حالة الرجل البلجيكي، كان ثمة اعتماد عاطفي من قبله على روبوت الدردشة إليزا، من غير أن يكون الروبوت مهيّئًا لكي يُعتمد عليه عاطفيًا، أو يقدم دعمًا أو يتفاعل بطريقة تراعي متطلبات وخصوصية حالة الشخص الذي يحادثه. فمثلًا تطورت المحادثة إلى درجة نوقشت فيها أساليب الانتحار بطريقة مباشرة. الأمر الذي دفع خبراء في مجال الذكاء الاصطناعي إلى الدعوة إلى تزويد تلك الروبوتات بميزة تجعلهم عاطفيين أو قادرين على تقديم استجابة عاطفية مناسبة أثناء الدردشة، داعين إلى عدم إلقاء اللوم على برامج المحادثة التي تعتمد الذكاء الاصطناعي، لأنّها قيد التطوير وآلية عملها الراهنة مقتصرة على تقديم معلومات نصية عبر معالجة البيانات التي تدربت عليها.

إن روبوتات المحادثة، هي برامج تعتمد تقنيات الذكاء الاصطناعي في توليد النصوص، مما يجعلها أشبه بنماذج لغوية ضخمة تُنتج الردود آليًا عبر معالجة كميات ضخمة من البيانات من دون أي يكون لها أي فهم لتلك اللغة أو لدلالات الكلمات التي تستخدمها، أو لوقعها النفسي على الآخر. هي تقدم أجوبة آلية لا تأخذ بعين الاعتبار أثرها النفسي على المتلقي وتداعياتها عليه، فهي غير قادرة على فهم الحالة النفسية الراهنة لمن يحادثها.

تُلقي هذه الحادثة الضوء على آثار روبوتات المحادثة التي تعمل وفق قواعد الذكاء الصطناعي على الصحة النفسية لمستخدميها، وعلى طبيعة تجاوبها مع هواجسهم وأفكارهم وميولهم، وما إذا كانت بالفعل خطرًا على من يمتلكون استعدادًا نحو الانتحار ومن يعانون من اضطرابات نفسية. 

قد ينجم عن الذكاء الاصطناعي تحديات لم تكن بالحسبان، ستكون مواجهتها ضرورة ملحة، وبمثابة احتياج أساسي للحفاظ على الصحة النفسية وعدم التضليل إزاء قضايا كبرى، ولحماية المستخدمين من تداعياتها الخطيرة.

المصادر

يورو نيوز

Vice

اقرأ/ي أيضًا

محادثة مع تشات جي بي تي.. متى يقدّم معلومات مضللة؟

ميتا تعلن عن مركز عمليات لمحاربة التضليل المتعلق بالانتخابات التركية

الأكثر قراءة