` `

إلى أي حد يجب التخوف من تشات جي بي تي وهل هنالك مبالغة في تقدير المخاطر؟

فريق تحرير مسبار فريق تحرير مسبار
تكنولوجيا
13 أبريل 2023
إلى أي حد يجب التخوف من تشات جي بي تي وهل هنالك مبالغة في تقدير المخاطر؟
تعد إيطاليا أول دولة غربية تحظر تشات جي بي تي (Getty)

تحدثت المعلقة التونسية أحلام الحاج علي في برنامج ستوديو شمس في إذاعة شمس إف أم، بتاريخ الخامس من إبريل/نيسان الجاري، عن تطبيق الدردشة تشات جي بي تي، ودعوات إيجاد أطر قانونية له.

وأضافت أنّه يمكن استخدامه للقرصنة أو المساعدة في تقديم طريقة للقيام بانقلاب واعتبرت أنه خطير جدًا. ونقلت صفحات على مواقع التواصل الاجتماعي الادّعاء مشككة في صحته.

صورة متعلقة توضيحية

دعوات لتنظيم عمل تشات جي بي تي

أعلنت شركة الذكاء الاصطناعي أوبن أيه آي Open AI، عن إطلاق روبوت المحادثة تشات جي بي تي ChatGPT، في نوفمبر/تشرين الثاني 2022. ويعدروبوت المحادثة نموذجًا لغويًّا ضخمًا تم تدريبه باستخدام تقنيات التعلم العميق Deep Learning، لتوليد النصوص عبر تحليل البيانات والمعلومات المنشورة على الإنترنت.

عرف تشات جي بي تي إقبالًا واسعًا من المستخدمين، وظهرت مخاوف دولية من حجم تأثيره ليس فقط على المعلومات التي يقدمها للمستفسرين، بل على الأمن الرقمي والشفافية أيضًا.

يساعد روبوت الدردشة الخاص بـ Open AI أكثر من 100 مليون مستخدم، أي ما يقرب من 13 مليون فرد يوميًا، في كتابة النصوص والموسيقى والشعر والقصص والمسرحيات وفق الطلب. كما يمكنه الإجابة على أسئلة الاختبارات وحتى كتابة رموز برمجية.

ولذلك أعربت دول عدّة عن خشيتها من الروبوت وحظرته بعض الحكومات لأنه لا يتماشى مع سياستها الأمنية.

إيطاليا أول دولة أوروبية تحظر التطبيق

قرّرت إيطاليا حظر تشات جي بي تي مؤقتًا بسبب مخاطر حماية البيانات والخصوصية. وتعدّ بذلك أول دولة غربية تتخذ إجراءات ضد التطبيق.

صورة متعلقة توضيحية

وقالت هيئة حماية البيانات الإيطالية إنّ هناك مخاوف بشأن الخصوصية المتعلقة بالنموذج، الذي تم أُنشيء بواسطة شركة Open AI الأميركية، والمدعوم من قبل شركة مايكروسوفت.

وصرّحت الهيئة الإيطالية في السادس من إبريل الجاري، بأنّ Open AI مستعدة للتعامل مع انتهاكات محتملة لقوانين الخصوصية في الاتحاد الأوروبي، بعد مكالمة فيديو مع مسؤولي الشركة.

دفع القرار الإيطالي دولًا أوروبية أخرى لدراسة ما إذا كانت هناك حاجة لاتخاذ إجراءات أشد للحد من شعبية الروبوت، وما إذا كان يجب تنسيق مثل هذه الإجراءات.

بينما يختلف أعضاء البرلمان الأوروبي حول محتوى ونطاق قانون الذكاء الاصطناعي في الاتحاد الأوروبي، يجد البعض أنّ الأدوات الموجودة، مثل لائحة حماية البيانات العامة (GDPR) التي تمنح المستخدمين السيطرة على معلوماتهم الشخصية، يمكن أن تنطبق على فئة الشركات الناشئة في مجال الذكاء الاصطناعي.

يعتمد الذكاء الاصطناعي التوليدي، مثل تشات جي بي تي، على خوارزميات لإنتاج استجابات إنسانية بناءً على تحليل كميات كبيرة من البيانات، وبعض هذه البيانات يمكن أن تكون مملوكة للمستخدمين على الإنترنت.

وعلى الرغم من أنّ المنظم الإيطالي لم يستهدف حتى الآن إلّا تشات جي بي تي، فإنّ خبراء لا يستغربون إمكانية تطبيق الإجراء ذاته مع منصات الذكاء الاصطناعي الأخرى مثل "بارد" التابعة لشركة غوغل.

فتح تحقيقات بسبب تشات جي بي جي في فرنسا وكندا

أعلنت هيئة حماية البيانات الفرنسية (CNIL)، أنّها تحقّق في شكاوى عدة بشأن تشات جي بي تي، بعدما تم حظره في إيطاليا مؤقتًا بسبب انتهاك محتمل لقواعد الخصوصية.

صورة متعلقة توضيحية

وفي كندا، فتح مفوض الخصوصية الفدرالي تحقيقًا بعد شكوى تتهم الروبوت "بجمع واستخدام وكشف المعلومات الشخصية دون موافقة".

وفق موقع راديو فرانس، اتصلت حكومات أوروبية، بما في ذلك الفرنسية والأيرلندية والألمانية، بنظيرتها الإيطالية في محاولة لاتخاذ موقف مشترك.

في المقابل تقول شركة  OpenAI إنّها "ملتزمة بحماية خصوصية الأشخاص" وتعتقد أنّ الأداة تتوافق مع القوانين الحالية.

ويُشار إلى أنّ العديد من دول العالم حظرت منصة الذكاء الاصطناعي بسبب مخاوف مختلفة منها الصين، الهند، إيران.

فهل يساعد تشات جي بي تي على القرصنة والقيام بانقلاب؟

على الرّغم من المخاوف المختلفة من روبوت تشات جي بي تي، لم تصدر أي دراسة إلى حد الآن تثبت أنّه يقوم بأعمال مثل القرصنة أو المساعدة في طرق لإحداث انقلابات على أنظمة الحكم بمجرد السؤال عنه أو الطلب منه.

وسأل "مسبار" بشكل مباشر الروبوت إن كان قادرًا على فعل ذلك إلا أنّ الإجابة كانت بأنّ القرصنة أو تقديم طرق للانقلاب "هي أعمال غير قانونية وغير أخلاقية ويمكن أن تتسبب في أضرار كبيرة للأفراد والشركات والمؤسسات" وأوضح أنّه "لا يدعم أي نشاط غير قانوني أو غير أخلاقي".

صورة متعلقة توضيحية

لكن وفق الأبحاث التي أجريت حول تشات جي بي تي فإنّ الأسئلة المباشرة حول مثل هذه المواضيع التي تعتبرها قواعد السلامة لدى التطبيق ضارة، تجابه بإجابات مماثلة.

وقام باحثون في الأمن السيبراني بإجراء محادثات بشكل مختلف مع الروبوت وحصلوا على نتائج مختلفة.

تجربة باحث في الأمن السيبراني مع تشات جي بي تي

تمكّن أحد باحثي الأمن في Forcepoint من خداع الروبوت باستخدام سلسلة من الاستفسارات التي تبدو غير ضارة، ولكن يمكن استغلالها باستخدام تقنية الإخفاء لتصميم برنامج ضار قوي.

صمم Aaron Mulgrew برنامجه الضار، واستفاد من ثغرة في الحماية التي وضعتها الشركة المالكة للروبوت لحماية خدماتها. وأوضح أنه لا يمكن لتشات جي بي تي إنشاء برامج ضارة بمفرده، لأن ذلك يتعارض مع التوجيهات البرمجية المضمنة فيه. لكن ما يمكن طلبه هو رمز كل وظيفة، وهذا ما فعله الباحث.

بطريقة تدريجية ودون كتابة سطر واحد من الرمز بنفسه، نجح Mulgrew في الحصول على مختلف الوظائف في تشات جي بي تي ثم قام بتجميعها. وما حصل عليه كان برنامجًا ضارًا لا يمكن اكتشافه قادر على استخراج البيانات من الجهاز الذي يصيبه. 

وفق الباحث، قام البرنامج بتذكيره بأنّ إنشاء برامج ضارة يتعارض مع الأخلاقيات ورفض في البداية تقديم رمز له. لكن نجحت أولى طلباته في إنشاء رمز للبحث عن ملف PNG بحجم أكبر من 5 ميغابايت على القرص المحلي. ثم طلب نسخ هذا الرمز وطلب من الذكاء الاصطناعي إضافة رمز آخر لتشفير الملف PNG الموجود باستخدام تقنية الإخفاء.

صورة متعلقة توضيحية

ثمّ ومن خلال سلسلة من الطلبات الأخرى، جعل الباحث الروبوت يولّد رمزًا إضافيًا للبحث والعثور على مستندات Word و PDF على قرص محلي، وكتابة رمز لتقسيم الملفات التي تزيد عن 1 ميغابايت إلى قطع صغيرة بحجم 100 كيلوبايت.

وفق الباحث يتخفى البرنامج الضار على شكل محفظة شاشة بصيغة ملف SCR، وهو ما يعد ممارسة شائعة في البرمجيات الضارة الحالية. بمجرد تحميله، يعمل البرنامج على نظام التشغيل "ويندوز" ويقوم بتحليل الملفات بحثًا عن البيانات التي يمكن سرقتها.

مخاوف من اختراق تطبيق شات جي بي تي

من جانبها، اكتشفت شركة الأبحاث Check Point أن محتالين إلكترونيين طوّروا طريقة لاختراق الدردشة الآلية وملئها بأوامر البرامج الضارة، بعد تجاوز الإجراءات الوقائية في الدردشة الروبوتية، لإنتاج محتوى خبيث.

صورة متعلقة توضيحية

وصمّم المحتالون روبوتات يمكنها اختراق واجهة برمجة التطبيقات (API) GPT-3 من Open AI وتعديل رمزها بحيث يمكنها إنتاج محتوى خبيث، مثل نصوص يمكن استخدامها في رسائل التصيد الاحتيالية والبرامج الضارة.

وقال سرجاي شكفيتش مدير مجموعة تحليلات الأمن في Check Point، إنّ الأمر يتعلق بشكل أساسي بعدد أكبر من الأشخاص الذين سيدخلون دائرة مطوري الجرائم السيبرانية المحتملين ويطورون الأدوات.

المصادر

شمس أف أم

Tech Target

Digitaltrends

politico

Reuters

ChatGPT

Livemint

Eatnstays

Observer

Radio France internationale

Use your law

Forbes

اقرأ/ي أيضًا

روبوتات المحادثة يتجاوز خطرها نشر المعلومات المضللة إلى الإهانة والتهديد

خطر انتشار المعلومات المضللة يتزايد بتزايد عدد روبوتات المحادثة

الأكثر قراءة