هذه المدوّنة ترجمة بتصرّف لمقال من موقع ذا غارديان.
لم يستغرق تطبيق تشات جي بي تي وقتًا طويلًا ليترك أثرًا مدمّرًا على الصحافة. مؤخرًا، ذكر كاتب عمود التكنولوجيا في صحيفة ذا نيويورك تايمز أنه رصد خلال تجربته مع التطبيق تعبير الروبوت عن مشاعر متناقضة، وامتلأت وسائل الإعلام الأخرى بأمثلة على "وقاحة" و "تنمّر" روبوت الدردشة التابع لمحرّك البحث بينغ، والمعروف باسم سيدني، كما أعلن بين طومسون، كاتب النشرة الإخبارية في موقع ستراتيكاري أنّ "سيدني" قد زوده "بتجربة الكمبيوتر الأكثر إثارة في حياته"، واستنتج أن الذكاء الاصطناعي تم تدريبه على إثارة ردود الفعل العاطفية.
ولكن لنكن واضحين، لا يمكن للذكاء الاصطناعي في روبوتات المحادثة مثل تشات جي بي تي وسيدني أن يكون لديه عواطف، كما لا يمكن لهذه التطبيقات تمييز المنطق، ما تجيده هذه الأنظمة هو محاكاة النثر البشري، والتنبؤ بالكلمات الصحيحة لربطها معًا، وتستطيع القيام بذلك بسبب تغذيتها بمليارات المقالات ومجموعات البيانات الموجودة على الإنترنت.
لماذا علينا أن نحذر من تأثير تشات جي بي تي على الصحافة؟
ولأغراض الصحافة، يمكن لهذه التطبيقات إنشاء كميات هائلة من المواد مثل المقالات والصور والأصوات ومقاطع الفيديو، بسرعة كبيرة، في حين أنّ المشكلة هي أنّ ليس لديها أي التزام على الإطلاق بالحقيقة، وبالتالي، فكّر فقط في مدى السرعة التي يمكن بها لمستخدمي هذه التطبيقات إغراق شبكة الإنترنت بقصص إخبارية مزيفة تبدو كأنها من إنتاج البشر.
ومع ذلك، منذ أن تم إصدار تطبيق تشات جي بي تي للجمهور من قبل شركة أوبن إيه آي، في نوفمبر/تشرين الثاني الفائت، بدت الضجة التي أثيرت حوله مألوفة بشكل مثير للقلق، تمامًا كالضجة التي أثيرت عند ولادة وسائل التواصل الاجتماعي، إذ أغرق حماس رجال الأعمال والمستثمرين كل الأصوات الحذرة حينها.
وفي هذا الصدد، غرّد كريستوفر مانينغ، مدير مختبر الذكاء الاصطناعي في جامعة ستانفورد، على حسابه في موقع تويتر "يواصل حشد أخلاقيات الذكاء الاصطناعي الترويج لسرديات تحيّز نماذج الذكاء الاصطناعي التوليدية وعدم موثوقيتها، إلا أنّ الناس فُتنوا بقدرة توفير هذه النماذج إمكانيات جديدة، حولت طريقة عملنا ووصولنا إلى المعلومات وتسلية أنفسنا".
وأردف "وأنا إذ أعتبر نفسي جزءًا من حشد الأخلاقيات هذا، أقول إذا أردنا تجنب الأخطاء الرهيبة التي ارتُكبت في السنوات الثلاثين الفائتة، بدءًا من خروقات بيانات فيسبوك ووصولًا إلى المعلومات المضللة غير الخاضعة للرقابة التي تتداخل مع الانتخابات وقد تثير فتنة إبادة جماعية، فنحن بحاجة ماسة إلى سماع مخاوف الخبراء الذين يحذرون من الأضرار المحتملة".
إنّ الحقيقة الأكثر إثارة للقلق والتي يجب تكرارها هي أن تطبيق تشات جي بي تي ليس لديه أي التزام بتقديم الحقائق. وكما أشارت مجلة إم آي تي للتكنولوجيا، فإن روبوتات الدردشة ذات النماذج اللغوية الكبيرة ما هي إلا "هراء سيء السمعة".
وبما يتعلّق بالصحافة، تجدر الإشارة أنّ العديد من غرف الأخبار باتت تعتمد على الذكاء الاصطناعي مؤخرًا، وإذا وجدت نفسك مدفوعًا نحو التبرع بالمال أو الدفع لقراءة مقال على موقع إخباري، أو إذا كان الإعلان الذي تراه قريبًا من ذوقك، فإن هذا دليل على استخدام إلى الذكاء الاصطناعي أيضًا.
من جهة أخرى، يذهب بعض الناشرين إلى مرحلة استخدام الذكاء الاصطناعي في كتابة القصص، ومؤخرًا، تم الكشف عن أن مجلة التجار التكنولوجية CNET تنشر مقالات آلية، وذلك بعد أن ادّعت موظفة سابقة في رسالة استقالتها الإلكترونية، أن المحتوى أنشأه الذكاء الاصطناعي مثل مقالات الأمن السيبراني، تضمن معلومات خاطئة يمكن أن "تسبب ضررًا مباشرًا للقراء".
اعتماد غرف الأخبار على الذكاء الاصطناعي
أجرى فيليكس سايمون، وهو باحث في مجال الاتصالات في معهد أكسفورد للإنترنت، مقابلات مع أكثر من 150 صحفيًا، لإجراء دراسة عن استخدام الذكاء الاصطناعي في غرف الأخبار. ويقول سايمون في هذا الصدد، إنّ هناك إمكانية في تسهيل عمل الصحفيين في مهام مثل نسخ المقابلات أو قراءة مجموعات البيانات بسرعة، لكن مشاكل مثل الدقة والتغلب على التحيز وتمييز مصادر البيانات، ما تزال تعتمد بشكل كبير على الحكم البشري.
وأضاف "قرابة 90٪ من استخدامات الذكاء الاصطناعي في الصحافة تغطي المهام المملة نسبيًا"، وفي هذا الصدد، قال تشارلي بيكيت الذي يدير برنامجًا للصحافة والذكاء الاصطناعي في كلية لندن للاقتصاد، إنّ صحيفة بلومبيرغ تعمل منذ سنوات على أتمتة أجزاء كبيرة من تغطية نتائجها المالية.
ورغم ذلك فإن فكرة استخدام تطبيقات مثل تشات جي بي تي لإنشاء محتوى أمر مقلق للغاية. ويردف بيكيت "بالنسبة لغرف الأخبار التي تعتبر أنه من غير الأخلاقي نشر الأكاذيب، من الصعب استخدام تشات جي بي تي دون الكثير من التحرير البشري والتحقق من المعلومات".
هل المعلومات المضللة هي المشكلة الأخلاقية الوحيدة لهذه التطبيقات؟
من ناحية أخرى، هناك أيضًا قضايا أخلاقية تتعلق بطبيعة عمل شركات التكنولوجيا نفسها، فقد كشف تحقيق لصحيفة تايم، أن شركة أوبن إيه آي التي أنتجت تطبيق تشات جي بي تي، قد دفعت للعمال في كينيا أقل من دولارين في الساعة لتمييز المحتوى المسيء مثل استغلال الأطفال والانتحار والتعذيب، من أجل تدريب تطبيق تشات جي بي تي على الاعتراف به أنه محتوى مسيء.
وفي دراسة أجريت عام 2021، نظر الأكاديميون في نماذج من الذكاء الاصطناعي تحول النص إلى صور، مثل برنامجي Dall-E وStable Diffusion، ووجدوا أنّ هذه الأنظمة تتبنى وتضخّم "الصور النمطية المجتمعية"، فعلى سبيل المثال، عندما يطلب من البرنامج إنشاء صورة "شخص ينظف"، كانت جميع الصور التي تم إنشاؤها لنساء، كما كانت نتائج الكلمة المفتاحية "شخص جذاب" لأشخاص ببشرة بيضاء.
تقول الأستاذة في جامعة نيويورك ميريديث بروسارد ، مؤلفة كتاب "أكثر من خلل"، الذي يدرس التحيز العرقي والجنسي والقدرة للتكنولوجيا، إنّ النماذج التوليدية تفتقر إلى التنوع، وأردفت موضحةً "إن هذا جزء من مشكلة كون التكنولوجيا الكبيرة ذات ثقافة أحادية"، وهذه ليست مشكلة يمكن لغرف الأخبار التي تستخدم هذه التقنيات أن تتجنبها بسهولة.
مؤخرًا، أعلن مؤسس موقع بازفيد، جونا بيريتي، بأن الشركة ستستخدم تطبيق تشات جي بي تي، كجزء من العمل الأساسي لإعداد القوائم والاختبارات والمحتويات الترفيهية الأخرى، ليرتفع سعر سهم “بازفيد” الخامل على الفور بنسبة 150٪! إنه أمر مقلق للغاية، فمن المؤكد أن جبلًا من المحتوى الرخيص الذي ينفثه "تشات جي بي تي" سيكون بانتظار شركات الإعلام بدلًا من نموذج أعمال طموح.
لقد كُتب الكثير عن إمكانات التزييف العميق في مقاطع الفيديو والصوت المزيف العميق، لكن الخطر الحقيقي يكمن خارج عالم الخداع الفوري الذي يمكن فضحه بسهولة، إنه يقع في التقنيات القادرة على خلق كل هذا الارتباك من خلال إغراق الفضاء الإلكتروني بمواد تطغى على الحقيقة أو على الأقل تُغرق وجهات نظر أكثر توازنًا.
ويبدو من غير المعقول بالنسبة للبعض منا في "حشد الأخلاقيات"، أننا لم نتعلم شيئًا خلال السنوات العشرين الفائتة من سوء إدارة تقنيات وسائل التواصل الاجتماعي التي أدت إلى تفاقم المشاكل المجتمعية والديمقراطية، يبدو أنه تتم قيادتنا من قبل مجموعة من التقنيين والأثرياء وصناديق الاستثمار في مسار آخر غير مختبر وغير منظم، ولكن هذه المرة على نطاق أوسع وباهتمام أقل بالأمان.
المصادر
اقرأ/ي أيضًا
روبوتات المحادثة يتجاوز خطرها نشر المعلومات المضللة إلى الإهانة والتهديد