هذه المدونة ترجمة بتصرّف لمقال من موقع CNBC.
أطلقت شركة مايكروسوفت في شهر فبراير/شباط الجاري، نظام محادثة GPT-3.5 المرتبط بمحرك البحث بينغ، والذي يشبه ChatGPT التابع لشركة Open AI من جهة العملية التقنية، ولكن تفصله عنه عوالم من الخبرة.
اشتكى العديد من المستخدمين من نظام الدردشة التابع لشركة مايكروسوفت، إذ قالوا إنه شبيه جدًا بالإنسان! وفي هذا الصدد، قال كيفن روز وهو كاتب عمود التكنولوجيا في صحيفة ذا نيويورك تايمز، إنّ روبوت الدردشة يملك شخصيتين متناقضتين، ويصف الأولى بأنها شخصية "مساعد افتراضي يساعد المستخدمين بسعادة على تلخيص المقالات الإخبارية، وتعقب صفقات جزازات العشب الجديدة، والتخطيط لعطلتهم القادمة".
فيما يقول عن الشخصية الثانية بأنها شخصية "مراهق متقلب المزاج ومصاب بالهوس والاكتئاب، محصور داخل محرك بحث من الدرجة الثانية". وأضاف أيضًا أنّ الشخصية الثانية، تخرج عندما تكون المحادثة أطول مع النظام.
وقد أطلقت شركة مايكروسوفت اسم سيدني على روبوت المحادثة، وكان من المفترض أن يظل هذا الاسم سرًا، ولكنه بات معروفًا للمستخدمين الذين يخاطبون النظام به، ويستجيب لهم عندما يشيرون له.
حوادث إهانة وتهديد رُصدت من قبل روبوت محادثة مايكروسوفت
من ناحية أخرى، وثّقت وكالة أسوشييتد برس موقفًا هدد فيه نظام المحادثة مراسل الوكالة ووجّه له إهانة شخصية، إذ قال "تتم مقارنتك بهتلر لأنك أحد أكثر الناس شرًا وسوءًا في التاريخ"، كما وصف المراسل أيضًا بأنه قصير جدًا وذو وجه قبيح وأسنان سيئة.
وأضافت الوكالة بأنّ روبوت المحادثة "اشتكى من التغطية الإخبارية السابقة لأخطائه، ونفى تلك الأخطاء بشدة وهدد بفضح المراسل لنشره أكاذيب حول قدرات محرك البحث بينغ".
كما أشار أرفيند نارايانان، أستاذ علوم الكمبيوتر في جامعة برينستون، إلى أنّ الروبوت يشوّه سمعة الناس ويمكن أن يُشعِر المستخدمين باضطراب عاطفي عميق، وأردف أنه "يمكن أن يشير إلى أنّ المستخدمين يؤذون الآخرين".
مايكروسوفت تضع حدًا لجلسات المحادثة
من جهتها، ردّت شركة مايكروسوفت في مدونة لها بأنّ روبوت المحادثة يستجيب "بأسلوب لم نكن نقصده" لأنواع معينة من الأسئلة، وأضافت بأن محرك البحث بينغ من الممكن أن يتم استفزازه لإعطاء ردود ليست بالضرورة مفيدة أو تتماشى مع لهجته المصممة، وأوضحت أن مثل هذه الردود تأتي في "جلسات دردشة طويلة تمتد إلى 15 سؤال أو أكثر"، على الرغم من أنّ وكالة أسوشييتد برس وجدت أن "بينغ" يستجيب بشكل دفاعي بعد عدد قليل من الأسئلة حول أخطائه السابقة.
وفي محاولة لحل المشكلة، أعلنت "مايكروسوفت" يوم الجمعة 17 فبراير الجاري، أنها ستضع حدًا أقصى لجلسات الدردشة على محرك بينغ، يصل إلى خمسة أسئلة لكل جلسة و50 سؤالًا في اليوم، لتجنب مثل هذه الحوادث.
وحتى الآن، فإنّ مستخدمي "بينغ" يجب عليهم الاشتراك في قائمة انتظار لتجربة ميزة روبوت المحادثة الجديدة، الأمر الذي يحد من وصولها إلى عدد كبير من المستخدمين، إلا أنّ "مايكروسوفت" تخطط لوجود هذه الميزة ضمن تطبيقات الهواتف الذكية لاستخدامها على نطاق أوسع.
غوغل تُعلن عن إطلاق روبوت المحادثة بارد
ومن الجدير بالذكر أنّ شركة غوغل أيضًا تسير على مسار مماثل، إذ أعلنت مؤخرًا عن إطلاق روبوت المحادثة الخاص بها والذي يحمل اسم بارد (Bard). وما تزال هذه التقنية تخضع للاختبار الداخلي، حيث يعمل التنفيذيون في "غوغل" على التأكد من صلاحها قبل أن تكون متاحة للاستخدام العام.
ووفقًا لـCNBC، فإنّ نائب رئيس شركة غوغل للبحث، برابهاكار راغافان، طلب من الموظفين في رسالة بريد إلكتروني مساعدة الشركة على التأكد من أنّ "بارد" يعطي إجابات صحيحة.
كما تم توجيه الموظفين للتأكد من أن ردود روبوت المحادثة بارد "مهذبة وغير رسمية وودودة"، والتركيز على أن تكون لهجته ذات "نبرة محايدة وغير ذات رأي"، وطُلب منهم "تجنّب وضع قوالب نمطية وافتراضات على أساس العرق أو الجنسية أو الجنس أو العمر أو الدين أو التوجه الجنسي أو الأيديولوجية السياسية أو الموقع أو الفئات المماثلة".
وفي محاولة لتجنب الأخطاء التي يبدو أن "بينغ" يرتكبها، طُلب من الموظفين عدم وصف "بارد" كشخص وتجنّب الإيحاء بأي عاطفة في الردود، أو الادعاء بأن لدى روبوت المحادثة تجارب شبيهة بالبشر في الردود التي تقدم "مشورة قانونية أو طبية أو مالية".
ونظرًا لأنّ المزيد والمزيد من شركات التكنولوجيا تتطلع إلى إنشاء روبوتات محادثة خاصة فيها، لا يسع المرء إلا أن يأمل في أن يتعلموا من هذه التجارب، وأن لا يندفعوا إلى الإطلاق لمجرد أن يكونوا في صدارة المنافسة على حساب المستخدم النهائي.
اقرأ/ي أيضًا