في نهاية مايو/أيّار الفائت، نشر موقع سايبر سيكيوريتي إنتيليجنس (Cyber Security Intelligence) تقريرًا حول أثر تقنية التزييف العميق وخطر استخدامها المتزايد في عمليات الاحتيال والتضليل والتلاعب برأي الجمهور، واعتبر أنّها من أخطر التحديات التقنية التي نواجهها في وقتنا الحالي.
تزامن نشر التقرير مع أنباء متصاعدة في الفترة الأخيرة حول عمليات احتيال مختلفة نُفذت بالاستعانة بتقنيات الذكاء الاصطناعي، فهل تساهم هذه التقنيات بتسهيل عمليات الاحتيال على شبكة الإنترنت؟
عملية احتيال عبر التزييف العميق في الصين
انتشرت حديثًا أنباء عن عملية احتيال في شمال الصين، إذ استخدمت تكنولوجيا التزييف العميق لإقناع رجل بتحويل أموال إلى صديق له. وبحسب بيان مركز الشرطة في مدينة باوتو في منغوليا، فإنّ الجاني استخدم تقنية التزييف العميق لتبديل وجهه وانتحل شخصية صديق الضحية خلال مكالمة فيديو، وأقنعه بتحويل 4.3 مليون يوان أي ما يعادل 622 ألف دولار، لأغراض تسيير مناقصة تجارية.
وأضافت الشرطة أنّ الرجل لم يُدرك أنّه تعرض للخداع إلا بعد أن أعرب صديقه عن جهله بالوضع، مؤكدة أنها استعادت معظم الأموال المسروقة وتعمل على تعقب باقي المبلغ.
احتيال بالصور المولَّدة بالذكاء الاصطناعي
من جهة أخرى، اشتُهر مؤخرًا حساب يحمل اسم كلوديا على موقع التواصل الاجتماعي ريديت، لفتاة تنشر صورها باستمرار، وعُرف بين مستخدمي الموقع أنه يرسل صور أشخاص عراة في المحادثات الخاصة مقابل مبالغ.
تبيّن لاحقًا أنّ الحساب مزيّف، بعد أن تم كشف الصور الشخصية للفتاة بأنها مولّدة بالذكاء الاصطناعي وليست حقيقية، وقد وثّقت صحيفة رولينغ ستون تصريحات اثنين من طلاب علوم الحاسوب قالوا إنهم اختلقوا الحساب بشكل أساسي على سبيل المزاح، بعد أن صادفوا منشورًا على موقع ريديت من رجل حقّق 500 دولار من مستخدمي الموقع عن طريق إرسال صور لنساء حقيقيات. وأوضحوا للصحيفة أنهم حقّقوا قرابة 100 دولار من بيع صور الأشخاص العراة عن طريق حساب كلوديا.
عُرضت صور "كلوديا" على باحثين أفادوا من ناحيتهم بأنها تحمل العديد من السمات الواضحة للصور المولدة بالذكاء الاصطناعي، بما في ذلك تفاصيل الخلفية الغريبة وتغيّر موضع الشامة في الرقبة.
ولكن هذه السمات لم تحمِ العديد من مستخدمي موقع ريديت من الانخداع، إذ نقلت صحيفة واشنطن بوست قول أحد المستخدمين الذين كانوا من أبرز متابعي حساب كلوديا، إنه يشعر بأنه تم خداعه، لأنه لم يتوقع أن تكون الصور مزيفة.
احتيال بتسجيلات صوتية مفبركة
وفي إبريل/نيسان الفائت، وثّقت وكالة الأنباء سي إن إن حادثة احتيال وقعت مع عائلة من ولاية أريزونا الأميركية، إذ تلقت سيدة أميركية تدعى جينيفر ديستيفانو مكالمة مجهولة بينما كانت ابنتها البالغة من العمر 15 عامًا خارج المدينة لسباق تزلج، سمعت ديستيفانو صوت ابنتها ترد على الهاتف وهي مذعورة وتصرخ، ثم سرعان ما تبعها صوت رجل يهدد بتخدير وخطف الفتاة ما لم يتم إرسال مليون دولار إليه.
تمكّنت السيدة من الوصول إلى ابنتها بعد بضع دقائق وتأكدت أنها بخير، قبل أن تؤكد السلطات المعنية أن المكالمة هي مجرّد خدعة أجريت باستخدام تقنيات الذكاء الاصطناعي.
تنظيم استخدام تقنيات الذكاء الاصطناعي
إنّ تصاعد عمليات الاحتيال بالمواد المنشأة بتقنيات الذكاء الاصطناعي، يبرز الحاجة إلى تطبيق توصيات الخبراء بأسرع وقت، إذ يجب تقنين وتنظيم استخدام هذه التقنيات، عن طريق التعاون بين السلطات المعنية في الدول وشركات التكنولوجيا الكبرى القائمة على هذه التقنيات.
ومع تطوّر التكنولوجيا، يتوقع الخبراء أن تزيد صعوبة كشف الفبركات المنتجة بتقنيات الذكاء الاصطناعي، الأمر الذي يستدعي مباشرة الجهات المعنية بتطبيق حلول فاعلة تتصدى لعميات التضليل والاحتيال كأولوية قصوى، خاصة وأن العالم يرتقب الانتخابات الأميركية القادمة، والتي من المتوقع أن تشهد بعض حملاتها الانتخابية فبركات أنتجت بواسطة الذكاء الاصطناعي.
المصادر
اقرأ/ي أيضًا
تقرير: التزييف العميق يمثل تهديدًا متزايدًا ويمكن أن يؤثر في آراء الناس
كيف نحمي أنفسنا من الوقوع في فخ التزييف العميق؟