هذا المقال مُترجم بتصرف عن صحيفة ذا غارديان البريطانية
ديستوبيا مبتذلة حيث تكلفةُ صناعة المحتوى المتلاعِبِ رخيصةٌ، وإنتاجه بكمياتٍ هائلةٍ سهلٌ جدًا لدرجة أن يصبح رائجًا: ذلك هو المستقبل السياسي الذي يخشاه خبراء رقميون في عصر الذكاء الاصطناعي التوليدي (AI).
خلال الفترة التي سبقت رئاسيات 2016، كانت منصات التواصل الاجتماعي ناقلة التضليل المعلوماتي، إذ عمل نشطاء من أقصى اليمين، مع حملات تأثير خارجية، ومواقع أخبار زائفة على نشر معلومات زائفة وزيادة حدة الانقسامات. وبعدها بأربع سنوات، اجتاحت رئاسيات عام 2020 نظريات مؤامرة وادعاءات لا أساس لها عن تزوير أصوات الناخبين وجرى تضخيمها إلى الملايين، ما أذكى حركة معادية للديمقراطية حاولت إلغاء نتائج الانتخابات.
اليوم، ومع اقتراب رئاسيات عام 2024، يحذّر خبراء من قدرة التقدم في مجال الذكاء الاصطناعي على بعث الحياة في أساليب التضليل المغرِض القديمة.
لا يهدد التضليل المغرِض المولّد باستخدام الذكاء الاصطناعي، بخداع الجماهير فحسب، بل أيضًا بزعزعة بيئة معلومات مهزوزة أساسًا عبر إغراقها بالمغالطات والخداع، وفق خبراء.
ويقول بين وينترز، كبير مستشارين لدى مركز معلومات الخصوصية الإلكتروني، وهي منظمة غير ربحية تهتم بالبحث في مجال الخصوصية، "ستتراجع درجات الثقة وستصبح مهنة الصحافيين وغيرهم ممن يحاولون نشر معلومات حقيقية أصعب"، وأضاف “لن يكون لها أي تأثيرات إيجابية على بيئة المعلومات”.
أدوات جديدة لأساليب قديمة
ارتفع بشكل كبير هذا العام استخدام أدوات الذكاء الاصطناعي القادرة على إنشاء صورٍ واقعية، ومحاكاة الأصوات، وكتابة نصوصٍ تبدو بشرية إلى حد مقنع، تزامنًا مع إطلاق شركات على غرار OpenAI منتجاتها. وتُوَظَّفُ التكنولوجيا، التي هددت بالفعل بقلب عديد الصناعات وتعميق فروقات موجودة أساسًا، لإنشاء محتوى سياسي على نحو متزايد.
في الشهور الفائتة، تسببت صورة ولّدت بالذكاء الاصطناعي لانفجارٍ في البنتاغون في هبوط ظرفي في سوق الأسهم. وباتت تسجيلات صوتية ساخرة مولّدة بالذكاء الاصطناعي لرؤساء أميركيين يلعبون ألعاب الفيديو، صيحة متداولة. وعلى منصات التواصل الاجتماعي، انتشرت على نطاق واسع صورٌ تظهر دونالد ترامب يقاوم ضباط شرطة يحاولون اعتقاله. وأطلقت اللجنة الوطنية الجمهورية إعلانًا مولّدا بالكامل باستخدام الذكاء الاصطناعي، أظهر صورًا للعديد من الكوارث المتخيّلة التي ستحدث في حال انتُخب بايدن مرة ثانية، بينما حذرت الجمعية الأميركية للمستشارين السياسيين من أن فيديوهات التزييف العميق تمثل “تهديدًا للديمقراطية”.
بطرق ما، لا تختلف هذه الصور والإعلانات كثيرًا عن الصور والفيديوهات المتلاعب بها، الرسائل المضللة والمكالمات الآلية التي أضحت منذ سنوات إحدى ميزات المجتمع. غير أن حملات التضليل المغرض واجهت سابقًا عددًا من الحواجز اللوجستيكية – كان إنشاء رسائل متفرّدة لمواقع التواصل الاجتماعي يستهلك وقتًا طويلًا، وكذلك كان تعديل الصور والفيديوهات.
اليوم بالمقابل، جعل الذكاء الاصطناعي التوليدي إنشاء محتوى كهذا في متناول أي شخص حتى من له مهارات رقمية بسيطة، وسط غياب حواجز أو تنظيم فعال يكبح ذلك.
ويحذر خبراء من أن التأثير المحتمل هو نوع من دمقرطة وتسارع الدعاية، تحديدًا في الوقت الذي تدخل فيه العديد من البلدان سنوات انتخابات كبرى.
الذكاء الاصطناعي يخفض السقف للتضليل المُغرِض
تبدو أضرار الذكاء الاصطناعي المحتملة على الانتخابات، كأكبر مصدر قلق ومخاوف، من جملة التحديات المتعلقة بالتدخُّل في الانتخابات، خلال العقود الفائتة. فبمساعدة أدوات الذكاء الاصطناعي، باتت حسابات التواصل الاجتماعي الآلية التي تتظاهر أنها لناخبين حقيقيين، والفيديوهات أو الصور المتلاعب بها، وحتى المكالمات الآلية المخادعة جميعها، أسهل للإنتاج وأصعب للاكتشاف.
هناك أيضًا فرص جديدة للبلدان الأجنبية لمحاولة التأثير على الانتخابات الأميركية أو تقويض نزاهتها، مثلما حذّر مسؤولون فدراليون منذ وقت طويل من أن روسيا والصين تعملان على ذلك. كما أن حواجز اللغة أمام إنشاء محتوى مخادع تتلاشى شيئًا فشيئًا، والعلامات المنبهة من المحتالين أو حملات التضليل المغرض التي تستخدم تكرار الجمل أو خيارات كلمات غريبة تُستبدل اليوم بنصوص أكثر قابلية للتصديق.
قال جوش غولدستاين، زميل أبحاث في مركز جامعة جورج تاون للأمن والتكنولوجيا الناشئة، "إن كنت تجلس في مزرعة تصيّد في دولة أجنبية، أنت لم تعد بحاجة للطلاقة اللغوية كي تنتج مقالًا يبدو فصيحًا بلغة جمهورك المستهدف"، وأضاف "يمكنك ببساطة أن تجعل نموذج لغة ينشئ مقالًا وفق قواعد وبمصطلحات متحدث فصيح.
تكنولوجيا الذكاء الاصطناعي، قد تقوّي أيضًا من حملات قمع الناخبين لاستهداف المجتمعات المهمشة. إذ اعترف العام الفائت ناشطان من أقصى اليمين أنّهما أجريا أكثر من 67 ألف مكالمة آلية استهدفت ناخبين سود في الغرب الأوسط بمعلومات مضللة عن الانتخابات، ويشير خبراء مثل وينترز، إلى أن الذكاء الاصطناعي قد يُستخدم نظريًا لاستنساخ حملات كهذه على نطاق أوسع وبمعلومات ذات طابع شخصي أكثر. يمكن للمقاطع الصوتية التي تحاكي قادة منتخبين أو شخصيات موثوقة أن تنقل إلى مجموعات مختارة من الناخبين معلومات مضللة عن استطلاعات الرأي والانتخاب، أو أن تسبّب الارتباك العام.
يمكن لتوليد حملات كتابة الرسائل أو التفاعل الزائف أن يخلقا أيضًا نوعًا من الدوائر الانتخابية الزائفة، ما يجعل استجابة الناخبين الفعلية للقضايا غير واضحة.
وكجزء من تجربة بحثية نُشرت في وقت سابق من هذا العام، أرسل أُستاذان في جامعة كورنل سارة كريبس ودوغ كراينر، عشرات الآلاف من رسائل البريد الإلكتروني لأكثر من 7000 مُشرّع ولائي عبر البلاد. زعمت رسائل البريد الإلكتروني أنها من منتخبين قلقين، لكنها قُسّمت ما بين رسائل مولّدة بالذكاء الاصطناعي وأخرى كتبها شخص حقيقي. كانت الردود افتراضيًا ذاتها، إذ حصلت رسائل البريد الإلكتروني التي كتبها شخص حقيقي على معدل ردود أعلى باثنين في المئة فقط من تلك المولّدة بالذكاء الاصطناعي.
الحملات تجسُّ النبض
بدأت الحملات بالفعل في تجربة استخدام المحتوى المولّد بالذكاء الاصطناعي لأغراض سياسية. بعد إعلان محافظ فلوريدا، رون دي سانتيس ترشُّحه خلال بث مباشر على تويتر في شهر مايو/أيّار الفائت، سخر دونالد ترامب من خصمه بفيديو تضمّن الأصوات المولّدة بالذكاء الاصطناعي لكل من دي سانتيس، إيلون ماسك وآدولف هتلر. وخلال الشهر الفائت، شاركت حملة دي سانتيس صورًا مولّدة بالذكاء الاصطناعي لترامب وهو يعانق ويقبّل أنتوني فاوتشي.
خلال رئاسيات 2016 و2020، اعتمدت حملة ترامب بشكل كبير على الميمز والفيديوهات التي صنعها أنصاره – من بينها فيديوهات معدّلة بشكل مخادع، أظهرت بايدن يتلعثم أثناء الكلام أو يقول إنه لا يجب أن يكون رئيسًا. يحذر مراقبو الانتخابات من أن نسخة الذكاء الاصطناعي من تلك الاستراتيجية تتطور تدريجيًا، إذ شارك ترامب في مايو 2023، فيديو يستخدم تقنية التزييف العميق يظهر فيه مذيع قناة سي إن إن، أندرسون كوبر، وهو يقول للمتفرجين إنهم قد شاهدوا للتو "ترامب يسحق لنا وغدًا جديدًا هنا مباشرة على سي إن إن."
على بعد قرابة 16 شهرًا من الانتخابات الرئاسية، لا يزال استخدام الذكاء الاصطناعي التوليدي واسع الانتشار في بداياته، إنه سؤال مفتوح، "أيُّ دور سيلعبه الذكاء الاصطناعي في الاقتراع؟"، يقول باحثون إن إنشاء محتوى مضلّل مولّد بالذكاء الاصطناعي لا يعني وحده أنّه سيكون ذا تأثير على الانتخابات، وأن قياس تأثير حملات التضليل المغرض مهمة في غاية الصعوبة. إذ إن مراقبة التفاعل مع المواد الزائفة شيء، لكن قياس التأثيرات الجانبية لتلويث بيئة المعلومات لدرجة تجعل الأشخاص يفقدون الثقة بأي معلومة يستهلكونها على الإنترنت، يعد شيئًا آخر.
مع ذلك، هناك مؤشرات مقلقة. فمع زيادة استخدام الذكاء الاصطناعي التوليدي، شرعت العديد من منصات التواصل الاجتماعي، التي يعتمد عليها الفاعلون "السيّئون" لنشر التضليل المغرِض، في التراجع عن بعض إجراءات إدارة المحتوى. فقد ألغت يوتيوب سياستها الخاصة بنزاهة الانتخابات، وسمحت إنستغرام لمروّج نظريات المؤامرة ضد اللقاحات روبرت اف كينيدي جونيور باستخدام منصتها من جديد، وغادرت مسؤولة إدارة المحتوى لدى تويتر الشركة في شهر يونيو/حزيران، وسط تهاوٍ عام للمعايير تحت إدارة إيلون ماسك.
يقول باحثون إنه لا يزال علينا رؤية مدى فاعلية التربية الإعلامية والوسائل التقليدية لفحص الحقائق في مواجهة سيل من النصوص والصور مضللة، إذ يمثّل النطاق المحتمل للمحتوى المولّد تحديًّا جديدًا.
وأوضح غولدستاين، أنه "يمكن للصور والفيديوهات المولّدة بالذكاء الاصطناعي أن تُنشأ في وقت أسرع بكثير من ذلك الذي يحتاجه مدققو الحقائق لمراجعتها ودحضها"، مضيفًا أن الضجة المصاحبة للذكاء الاصطناعي يمكن أن تُضِرَّ أيضًا بالثقة، عبر جعل الجمهور يعتقد أن أي شيء قد يكون مولّدًا اصطناعيًا.
لدى بعض خدمات الذكاء الاصطناعي التوليدي، بما فيها تشات جي بي تي، سياسات وضمانات لمكافحة توليد التضليل المعلوماتي وتستطيع في بعض الحالات حظر استخدام الخدمة لذلك الغرض. لكن فاعلية تلك السياسات لا تزال غير واضحة، وتفتقر العديد من النماذج مفتوحة المصدر لسياسات وخاصيات كتلك.
وفق وينترز، "لن يكون هناك فعليًّا تحكّمٌ كافٍ في الانتشار، وليس هنالك نقص في أعداد المتصلين الآليين، مرسلو رسائل البريد الإلكتروني والرسائل النصية الآليين، ومنصات البريد الإلكتروني الجماهيرية. لا يوجد شيء يحدُّ استخدام ذلك”.
المصدر:
اقرأ/ى أيضًا:
الأمم المتحدة تدعو لتنظيم الذكاء الاصطناعي بسبب مخاطرة المحتملة
لجنة التجارة الفيدرالية تحقق في مخاطر وعدم دقّة تشات جي بي تي