` `

بسبب المخاطر العالية: قانون أوروبي جديد لتنظيم الذكاء الاصطناعي

إسلام عزيز إسلام عزيز
تكنولوجيا
15 يونيو 2023
بسبب المخاطر العالية: قانون أوروبي جديد لتنظيم الذكاء الاصطناعي
أول قانون لتنظيم الذكاء الاصطناعي (Getty)

أقرّ البرلمان الأوروبي مشروع قانون جديد لتنظيم الذكاء الاصطناعي، والذي من شأنه أن يضع قيودًا جديدة على ما يُنظر إليه على أنه الاستخدامات الأكثر خطورة للتكنولوجيا. وسيحدّ هذا القانون بشدّة من استخدامات برامج التعرف على الوجه، بينما يتطلب من صانعي الذكاء الاصطناعي مثل أنظمة تشات جي بي تي، للكشف عن المزيد من البيانات المستخدمة لإنشاء برامجها، كما سيُطلب من مطوري الذكاء الاصطناعي التوليدي تقديم أنظمتهم للمراجعة قبل إطلاقها تجاريًا.

مخاوف من الذكاء الاصطناعي

وخلال تصويت للبرلمان، يوم أمس الأربعاء، اعتُمد القانون بأغلبية 499 صوتًا مقابل 28 ضده وامتناع 93 عن التصويت، وذلك بعد سلسلة تعديلات أجريت عليه.

وجاء هذا القانون، بعدما أصبح الذكاء الاصطناعي ساحة معركة أساسية في صناعة التكنولوجيا العالمية، إذ تتنافس الشركات على دور رائد في تطوير التكنولوجيا، لا سيما الذكاء الاصطناعي التوليدي، والذي يمكنه إنشاء محتوى جديد من مطالبات المستخدم، ووسط مخاوف من أن التطورات الأخيرة في التكنولوجيا يمكن أن تستخدم بطرق خاطئة واستغلالية، تؤدي إلى انتشار المعلومات المضللة الغزيرة.

مخاطر الذكاء الاصطناعي 

وتجدر الإشارة إلى أنّ هذا التشريع يعمل بالكامل حول مفهوم المخاطر، ولا يتم تنظيم الذكاء الاصطناعي نفسه، بل طريقة استخدامه في مجالات محددة من المجتمع، يحمل كل منها مشاكل محتملة ومختلفة.

وتنص القواعد المعتمدة من قبل الاتحاد الأوروبي، على أن أنظمة الذكاء الاصطناعي المطبقة على حالات الاستخدام "عالية المخاطر" مثل التوظيف ومراقبة الحدود والتعليم يجب أن تمتثل لقائمة من متطلبات السلامة، بما في ذلك تقييمات المخاطر والشفافية وتسجيل الدخول. 

ولا يعدّ القانون أنظمة الذكاء الاصطناعي "للأغراض العامة" مثل تشات جي بي تي عالية الخطورة، لكنه يفرض متطلبات الشفافية وتقييمات المخاطر لما يسمى "النماذج الأساسية" أو أنظمة الذكاء الاصطناعي القوية المدربة على كميات كبيرة من البيانات. 

وسيُطلب من موردي نماذج المؤسسات، بما في ذلك أمثال "أوبن أيه آي" و"غوغل" و"مايكروسوفت"، على سبيل المثال، الإعلان عمّا إذا كانت المواد المحمية بحقوق الطبع والنشر قد تم استخدامها لتدريب أنظمة الذكاء الاصطناعي الخاصة بهم. 

الاتحاد الأوروبي وتمرير قانون الذكاء الاصطناعي

وعلى الرغم من موافقة البرلمان الأوروبي، لكن سيتم التفاوض على الصيغة النهائية للقانون من قبل ممثلي الفروع الثلاثة للاتحاد الأوروبي، وهم البرلمان الأوروبي والمفوضية الأوروبية ومجلس الاتحاد الأوروبي، للتوصل لاتفاق نهائي بخصوصه نهاية العام الجاري، قبل بدء الحملة الانتخابية للانتخابات الأوروبية المقبلة.

وأشارت تقارير صحافية إلى أنه يمكن أن يصبح هذا القانون المرجعية في اعتماد المعايير لأنظمة الذكاء الاصطناعي وحماية المستخدم، إذا اعتُمد في العديد من الدول، خاصةً وأنه أول لائحة بشأن الذكاء الاصطناعي.

وترجّح بعض التقارير، أنّ القانون سيدخل حيز التنفيذ  بعد عامين أو ثلاثة أعوام، وسيتعيّن على أي شركة تعمل داخل الاتحاد الأوروبي الامتثال له. ورحبت مايكروسوفت، بقانون البرلمان الأوروبي، وقال متحدث باسم الشركة في تصريحات نقلتها وكالة رويترز "نعتقد أنّ الذكاء الاصطناعي يتطلب حواجز تشريعية وجهود موائمة على المستوى الدولي وإجراءات تطوعية هادفة من قبل الشركات التي تطور الذكاء الاصطناعي وتنشره".

ومع ذلك، قالت رابطة صناعة الكمبيوتر والاتصالات إنّ التعديلات على تقنيات الذكاء الاصطناعي عالية المخاطر، ومن المرجح أن تثقل كاهل مطوري الذكاء الاصطناعي الأوروبيين بـ "القواعد الإلزامية المفرطة" وإبطاء الابتكار.

لكن قال موقع ذا كونفرسيشن، في تقريره إنّ مشروع القانون له تأثير أقل، ولكنه أكثر جوهرية من بعض التحذيرات الأخيرة حول الذكاء الاصطناعي، ويحاول السير على الخط الفاصل بين حماية الحقوق والقيم، دون منع الابتكار، وبالتحديد معالجة كل من المخاطر والعلاجات. في حين أنه بعيد عن الكمال، ويوفر على الأقل إجراءات ملموسة.

وحثّ الاتحاد الأوروبي في وقت سابق، شركات التكنولوجيا لتكثيف جهودها في مكافحة الأخبار الزائفة عن طريق إضافة تسميات إلى النصوص والصور والمحتويات الأخرى الناتجة عن الذكاء الاصطناعي.

المصادر:

Europarl

Reuters

The Conversation

The New York Times

اقرأ/ي أيضًا

أوروبا تدعو إلى تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي

كيف استُغلت تقنيات الذكاء الاصطناعي في تنفيذ عمليات احتيال على الإنترنت؟

اقرأ أيضاً

الأكثر قراءة