عقد مجلس الأمن التابع للأمم المتحدة جلسة يوم أمس الثلاثاء 17 يوليو/تموز، تناول فيها للمرة الأولى التهديد الذي يشكله الذكاء الاصطناعي على السلام والاستقرار الدولي. ودعا فيها الأمين العام أنطونيو غوتيريش إلى وجود هيئة رقابة عالمية للإشراف على التكنولوجيا الجديدة التي أثارت العديد من المخاوف مؤخرًا.
تنظيم وإدارة الذكاء الاصطناعي
افتتح الأمين العام للأمم المتحدة أنطونيو غوتيريش المؤتمر بالإشارة إلى أن الذكاء الاصطناعي لديه القدرة على تحسين الرعاية الصحية والتعليم والجوانب الأخرى لحياة الناس، لكنه قال "يتمتع الذكاء الاصطناعي التوليدي بإمكانيات هائلة للخير والشر على نطاق واسع".
وحذر غوتيريش من أن إساءة استخدام التكنولوجيا "يمكن أن يكون له عواقب وخيمة للغاية على السلام والأمن العالمي". وأشار إلى أنه يمكن استخدامها لنشر المعلومات المضللة والقيام بأشياء سلبية أخرى.
وأضاف "بدون اتخاذ إجراءات للتصدي لهذه المخاطر، فإننا مقصرون في مسؤولياتنا تجاه الأجيال الحالية والمستقبلية". كما دعا إلى وضع قواعد دولية للسيطرة على المخاطر التي يشكلها الذكاء الاصطناعي.
إنشاء كيان في الأمم المتحدة لإدارة التكنولوجيا
ورحب غوتيريش بفكرة طرحتها بعض الدول الأعضاء في الأمم المتحدة، لإنشاء كيان جديد يهدف إلى إدارة التكنولوجيا. وأوضح غوتيريش أنه يجب تكوين هيئة مراقبة تابعة للأمم المتحدة تعمل كهيئة حاكمة لتنظيم ومراقبة الذكاء الاصطناعي، وتُدار وفق اللوائح نفسها التي تشرف بها على الوكالات الأخرى مثل الطيران والمناخ والطاقة النووية.
وقال غوتيريش إنه بحلول عام 2026، يجب على الأمم المتحدة تطوير اتفاقية ملزمة قانونًيا تحظر استخدام الذكاء الاصطناعي في أسلحة الحرب الآلية بالكامل. كما تعهد بتكوين مجلس استشاري سيضع مقترحات لتنظيم الذكاء الاصطناعي على نطاق أوسع بحلول نهاية العام الجاري.
الموافقة على وضع قواعد دولية لإدارة الذكاء الاصطناعي
وتحدث دبلوماسيون وخبراء في مجال الذكاء الاصطناعي خلال جلسة مجلس الأمن، عن الفوائد العلمية والاجتماعية للتكنولوجيا الناشئة الجديدة، لكن قالوا إنّ الكثير منها ما يزال مجهولًا حتى مع تسارع تطورها.
ووافق غالبية الدبلوماسيين على فكرة آلية الحوكمة العالمية ومجموعة من القواعد الدولية، لإدارة الذكاء الاصطناعي. ودعاء وزير الخارجية البريطاني، جيمس كليفرلي، الذي ترأس الاجتماع لأن بريطانيا تتولى الرئاسة الدورية للمجلس هذا الشهر، إلى ربط الحوكمة الدولية للذكاء الاصطناعي بالمبادئ التي تدعم الحرية والديمقراطية، واحترام حقوق الإنسان وسيادة القانون وحماية حقوق الملكية والخصوصية.
وقال كليفرلي "نحن هنا اليوم لأن الذكاء الاصطناعي سيؤثر على عمل هذا المجلس. ويمكن أن يعزز أو يعطل الاستقرار الاستراتيجي العالمي. إنه يتحدى افتراضاتنا الأساسية حول الدفاع والردع". مضيفًا "يمكن للذكاء الاصطناعي أن يساعد في البحث المتهور عن أسلحة الدمار الشامل من قبل الجهات الفاعلة الحكومية وغير الحكومية على حد سواء. ولكن يمكن أن يساعدنا أيضًا في وقف الانتشار".
الصين تعارض سعي بعض الدول للسيطرة على التكنولوجيا
عارض سفير الصين لدى الأمم المتحدة، تشانغ غون، وضع مجموعة من القوانين العالمية، وقال إن الهيئات التنظيمية الدولية يجب أن تكون مرنة بما يكفي للسماح للدول بتطوير قواعدها الخاصة.
وقال تشانغ "بعض الدول المتقدمة، من أجل السعي إلى الهيمنة التكنولوجية، تبذل جهودًا لبناء قواعد صغيرة حصرية، تعرقل بشكل خبيث التطور التكنولوجي للبلدان الأخرى وخلق حواجز تكنولوجية بشكل مصطنع".
لكن مع ذلك، قال السفير الصيني إنّ بلاده تعارض استخدام الذكاء الاصطناعي باعتبارها "وسيلة لخلق هيمنة عسكرية أو تقويض سيادة بلد ما".
تطوير أنظمة الذكاء الاصطناعي بشكل آمن
وفي كلمة أمام مجلس الأمن عبر الهاتف، حث جاك كلارك، المؤسس المشارك لشركة الذكاء الاصطناعي Anthropic، الدول الأعضاء على عدم السماح للشركات الخاصة بالسيطرة على تطوير الذكاء الاصطناعي.
وقال كلارك "لا يمكننا ترك تطوير الذكاء الاصطناعي للجهات الفاعلة في القطاع الخاص فقط، ويجب أن تتعاون حكومات العالم لتطوير قدرات آمنة لجعل أنظمة الذكاء الاصطناعي القوية مسعى مشتركًا عبر جميع أجزاء المجتمع، بدلًا من السعي الذي يمليه فقط عدد صغير من الشركات التي تتنافس مع بعضها البعض في السوق".
وفي تصريحات نقلتها صحيفة ذا نيويورك تايمز، قال البروفيسور ريبيكا ويليت، مدير الذكاء الاصطناعي في معهد علوم البيانات في جامعة شيكاغو، إنه عند تنظيم التكنولوجيا، من المهم عدم إغفال البشر الذين يقفون وراءها. مضيفًا أن "الأنظمة ليست مستقلة تمامًا، ويجب محاسبة الأشخاص الذين يصممونها".
وأضاف ويليت "هذا هو أحد الأسباب التي تجعل الأمم المتحدة تنظر في هذا الأمر. هناك حاجة بالفعل إلى تداعيات دولية حتى لا تتمكن شركة مقرها في بلد ما من تدمير دولة أخرى دون انتهاك الاتفاقيات الدولية. ويمكن للتنظيم الحقيقي القابل للتنفيذ أن يجعل الأمور أفضل وأكثر أمانًا".
المصادر:
اقرأ/ي أيضًا
اختلاق معلومات وسهولة في التضليل: تجربة مسبار مع النسخة العربية من روبوت بارد
باحثون من كامبريدج يطورون اختبارًا لقياس قابلية تصديق المعلومات المضللة