` `

فيلم المعضلة الاجتماعية: عن بيع اليقين على مواقع التواصل الاجتماعي

نور حطيط نور حطيط
ثقافة وفن
27 مايو 2022
فيلم المعضلة الاجتماعية: عن بيع اليقين على مواقع التواصل الاجتماعي
عُرض الفيلم الوثائقي لأوّل مرة في مهرجان صاندانس (فيسبوك)

"المُعضلة الاجتماعية" فيلم ديكودراميّ  أميركي من إخراج "جيف أورلوفسكي"، يتحدثّ فيه عن الطريقة التّي يتم من خلالها تغيير سلوكنا وإدراكنا، على نحو شبه كامل في عالمٍ أصبح يتسم بثقافته الرَقمية، التي أحدثت اختلافًا جذريًا في الشكلّ التواصلي، وآثارًا عميقة في دماغنا. 
عُرض الفيلم الوثائقي لأوّل مرة، في مهرجان صاندانس السينمائي في الولايات المتحدة الأميركية، وتمّ إصداره على منصّة نتفليكس عام 2020. 

الرأسمالية المُراقبِة

تقول الجامعية الأميركية "شوشانا زوبوف"، في مقابلة يجريها المخرج جيف أورلوفسكي، “إنهم يبيعون اليقين ( the sell certainty) من أجل النجاح في ذلك العمل، يجب أن يحظوا بتوقعات كبيرة، تبدأ التوقعات الكبيرة بحتمية واحدة، تحتاجون إلى الكثير من البيانات: ”YOU NEED A LOT DATA".
يحيلنا كلام زوبوف إلى شكل الرأسمالية المُراقبة، والذي يتطابق مع عنوان كتابها ذائع الصيت "عصر رأسمالية المراقبة".
إذ تعتقد زوبوف بأنَّ رأسمالية المُراقبة، تتصيد البيانات الفردية، وتحوّل ما لديها من معلومات، إلى تنبؤات سلوكية، وتكهنات مستقبلية، لاستغلالها في سوقها الربحي الضخم.

وتقول في السياق نفسه: الرأسمالية تستفيد من التتبع اللانهائي لكلّ مكانٍ يذهب إليه الجميع من قبل شركات تكنولوجية كبيرة، جنت تريليونات الدولارات من السوق الجديد، واصفة إياه بأنه سوق يتاجر بالعقود الآجلة للبشر. وتتابع قولها عن تلك الشركات بأنها وبفعل سياساتها، قد أصبحت من أغنى الشركات في تاريخ البشرية.

الجدير بالذكر أنّه في مقابلة أجراها معها الفيسلوف الفرنسي مارتن لوغرو، والمنشورة في مؤسسة مؤمنون بلا حدود، توضح زوبوف، بقولها: إن المُراقبة لم تكن ضمن أجندة الثورة التكنولوجية، إلّا أنها ظهرت مع الإشهار أو الإعلان، لكنَّ الأخير لا يُمثل استعمالها الوحيد.
ففضيحة كامبريدج أناليتيكا le scandale Facebook - Cambridge analytical  هي المثال الأبرز الذي كشف أنَّه يمكن لأي فاعل استخدام خوارزميات المُراقبة، للتأثير على الجمهور. 
كما أنًّ تجربة عدوى العواطف، التي أجراها موقع فيسبوك عام 2012 عملت على تحويل المعرفة نحو السلطة، وبحسب قولها صار بالإمكان ضبط السلوكيات وتجنيدها لأداء أدوار بعينها وتعديلها، حتى تكون للتكهنات درجة أعلى من الموثوقية.

الخوارزميات

يطرح المشاركون في الوثائقي سؤالًا على شاكلة "ما الذي يفعلونه ببياناتنا الشخصية؟"، ويجيب في هذا الصدد، تريستان الخبير السابق لأخلاقيات التصميم لدى موقع غوغل، “في أنهم يبنون نموذجًا يتوقع أفعالنا، فكلّ تلك الأمور التي فعلناها، كل النقرات التي نقرناها، كل مقاطع الفيديو التي شاهدناها، كل الإعجابات، يُعاد استخدام كل ذلك لبناء نموذج دقيق جدًا. وبمجرد امتلاكهم للنموذج يمكنهم توقع ما سيفعله المرء”.

ويصفها جارون لانيي الذي عمل في مايكرسوفت كعالم متعدد التخصصات ولديه مؤلفات عديدة في المجال الرقمي، بأنها القدرة المُذهلة على "التلاعب". ويضيف بأنَّ العالم أصبح يعتمد بشكل كبير على الفضاء الرقمي، فالطريقة الوحيدة التي يستطيع فيها شخصان التواصل في هذا الفضاء، في أي وقت كان، هو عن طريق وسيط ثالث مستتر، ما يؤدي إلى التلاعب بهذين الأخيريْن. وبالتالي تصبح الثقافة ومعنى التواصل هو "التلاعب".

كما أنَّ هذه البيانات تصبح المصدر الأول للربح عند الشركات الكبرى ومالكي منصات التواصل الاجتماعي، وعلى الرغم من الآثار السلبية التي قد تنجم عن هذا التلاعب، إلّا أنَّ جميع بياناتنا الشخصية تكون بمثابة سلع تتداولها الأخيرة بهدف الحفاظ على أرباحها وضمان استمرارها.

كيف يمكننا استخدام كلّ ما نعرفه عن سيكولوجية ما يُقنع الناس، وتحويله إلى تكنولوجيا؟
تبين عالمة الرياضيات الأميركية كاثس أو نيل بأنَّ للخوارزميات دورًا مهمًا في تعديل السلوكيات، فهي كالآراء المتأصلة في رموز البرمجة، وهي نوع من التصميم المطبق عن عمد إلى أقصى حد. وتوضح بأنَّ الخوارزميات ليست موضوعية.
ويضيف أحد المشاركين في الوثائقيّ، أنه على سبيل المثال، حينَ يتصفح الفرد منصّة غوغل ويكتب: التغير المناخي هو..، سنلاحظ نتائج مختلفة، اعتمادًا على مكان العيش.
ففي بعض المدن ستظهر: التغير المناخي خدعة، وفي حالات أخرى: يتسبب التغير المناخي في خراب الطبيعة. مع العلم أنَّ الأخيرة ليس لها علاقة بالتغير المناخي، ولكنها ظهرت على خلفية مكان استخدام الفرد للبحث على غوغل، والأشياء التي يعرفها غوغل عنه. ويمكن ربط هذه العملية بمصطلح التعلم الآلي إضافة إلى نظام التوصيات.

وعطفًا عمّا سبق، يردف تريستان من موقعه كخبير سابق في أخلاقيات التصميم لدى موقع غوغل: “نريدهم أن يأخذوا ذلك الإجراء، نريدهم أن يواصلوا التمرير بإصبعهم. فإن سحبتم للأسفل لإعادة التحميل فسيكون هناك شيء جديد في الأعلى. اسحبوا للأسفل لإعادة التحميل، شيء جديد في كل مرة. وهو ما نسميه في علم النفس تعزيزًا مقطعيًا إيجابيًا، أي أنكم لا تعرفون متى ستحصلون على حاجة أو كنتم ستحصلون على شيء، مما يجعل الأمر يعمل كآلات القمار في فيغاس، لا يكفي استخدامكم للمنتج بوعي، بل أريد التوغل في جذع الدماغ، وأزرع في داخلكم عادة غير واعية، بحيث تُبرمجون على مستوى أعمق. لدرجة أنكم لا تدركون ذلك حتى". ويضيف "لقد انتقلنا من بيئة تكنولوجية قائمة على الأدوات، إلى بيئة تكنولوجية قائمة على الإدمان والتلاعب."

نظريات المؤامرة

توصي الخوارزميات مئات ملايين المرّات بنظرية المؤامرة، فمثلًا من السهل الاعتقاد بأنَّ عددًا قليلًا من الأشخاص، يؤمنون بنظرية الأرض المسطحة، لأنَّ ذكاء الخوارزمية تزداد كلّ يوم، لذا فهي تقنع عددًا كبيرًا من الأشخاص بهذه النظرية الخاطئة.

تسوق رينيه ديرستا، مديرة البحث التقني في مرصد ستانفورد للإنترنت، مثالًا آخر حول هذا الموضوع، فحادثة "بيتزاغيت" الشهيرة توضح جيدُا عمل الخوارزميات. إذ تقول: بدأ محرك التوصيات “فيسبوك” باقتراحها على المستخدمين العاديين لاستقطابهم إلى مجموعات بيتزاغيت. وعلى سبيل المثال إذا كان المستخدم ضد اللقاحات أو يؤمن بنظرية مؤامرة الكيمرتيل أو أعطى بطريقة ما لخوارزميات “فيسبوك” إشارة لكونه مؤمن بنظريات المؤامرة، فإنَّ محرك توصيات موقع فيسبوك، سيبدأ بتقديم مجموعات بيتزاغيت.
في نهاية المطاف، بلغ الأمر ذروته بعد ظهور رجل مسلح ( إدغار ماديسون ويلش) البالغ من العمر 28 عامًا، الذي قرر إطلاق 3 رصاصات أصابت مطعم كوميت الذي زعم أنّه يأوي أطفالًاـ  وأراد تحريرهم من قبو المطعم، مصدقًا ما عُرض على منصات التواصل من أخبار زائفة.

هذا مثال حول نظرية المؤامرة التي انتشرت في جميع شبكات التواصل الاجتماعي، فمحرك التوصيات الخاص بشبكات التواصل الاجتماعي يقدم هذا بشكل طوعي إلى الناس، الذين لم يبحثوا عن مصطلح بيتزاغيت في حياتهم قط.

التضليل بدافع الربح

يتهم ساندي باراكيلاس، مدير العمليات السابق لدى فايسبوك، شركات التكنولوجيا العملاقة أنها أنشأت نظامًا ينحاز إلى الأخبار الزائفة، ليس لأنهم يريدون ذلك، بل لأنَّ المعلومات الزائفة تجني لهذه الشركات أرباحًا طائلة مقارنة بالمعلومات الحقيقية التي يصفها بالمملة. ويذهب تريستان هاريس إلى تسميته بـ" نموذج عمل التضليل من أجل الربح".

ويقول في هذا السياق، “فيسبوك” يحوي على تريليونات المنشورات على صفحة آخر الأخبار. ولا يمكنهم معرفة الحقيقي من المزيّف.

يبين وثائقي “المعضلة الاجتماعية” بأنَّ سرعة انتشار المعلومات الزائفة المتعلقة بفايروس كوفيد-19، فاقت الفايروس نفسه ( فكرة شرب المزيد من المياه ستزيل فايروس كورونا من أجسادكم هي واحدة من عدة خرافات عن الفايروس انتشرت على مواقع التواصل الاجتماعيّ،/ السارس، وفايروسكورونا/ فايروس كورونا خدعة/ الحكومة الأميركية هي من بدأت بالوباء/ إنكار عوارض فايروس كورونا الخطيرة.. إلخ).
ويذكر الوثائقي أنَّ جميع المصادر التي نشرت معلومات زائفة حول فايروس كورونا، جمعت قرابة 52 مليون تفاعل. 
يُقال ما نراه هو نسخة متطرفة مما يحدث عبر النظام الإيكولوجي للمعلومات. وبأنَّ وسائل التواصل الاجتماعي تضخم الشائعات ونظريات المؤامرة بطريقة كبيرة، لدرجة يصعب تحديد الحقيقة والزائف من الأخبار.

الديمقراطية في خطر

يحذّر الوثائقي من استخدام الدكتاتور لسمة الإقناع الموجودة داخل خوارزميات “فيسبوك”، واستغلاله لها.
وتقول باحثة الإنترنت الأولى في هيومن رايتس ووتش (HRW)، سينثيا وانغ، إنَّ بعض الآثار الأكثر إثارة للقلق، من الحكومات والفاعلين السيئين الآخرين الذين يسلحون وسائل التواصل الاجتماعي، قد أدت إلى ضرر كبير، وأشهر مثال نال انتباه الصحافة هو ما حدث في ميانمار.
وقد منح "فيسبوك" المنصة الأكثر استخدامًا في ميانمار، الجيش والفاعلين السيئين الآخرين طريقة جديدة للتلاعب بالرأي العام، وللمساعدة في التحريض على العنف ضد مسلمي الروهينغا.
وبحسب رأيها أدى ذلك لقتل جماعي، وحرق قرى كاملة واغتصاب النساء وغيرها من الجرائم. عدا عن فرار 700 ألف روهينغي مسلم من الدولة.
ويؤكد أحد المشاركين، بأنَّ "صانعي الخوارزميات والسياسيين المتلاعبين صاروا خبراء في تعلم كيفية تحفيز الجمهور وفي صناعة الأخبار المضللة والترويج للشائعات التي تخدم بروباغندا السلطة الحاكمة”.

ويأتي السؤال الأبرز في الوثائقي والذي نختم به المقال، "هل نريد حقا بيع هذا النظام لأعلى مزاد؟ حيثُ نبيع الديمقراطية تمامًا ويصير من السهل بمكان الوصول إلى أي عقل في العالم، وتلفيق الكذب لهؤلاء القوم خصيصًا، والتسبب في حروب ثقافية؟".

الهوامش:

-تجربة عدوى العواطف: هي دراسة أجراها “فيسبوك”، لمدة أسبوع عام 2012، إذ قام “بتحريف اللوغريتمات التي تُستخدم لاختيار الموضوعات التي تُقترح على صفحات –نيوز فيد- لمستخدميه لدراسة تأثير تلك الموضوعات على حالتهم النفسية”، وبحسب ما أوردته BBC فإنَّ الدراسة أجراها باحثون تابعون لموقع فيسبوك، وباحثون من جامعة كورنيل وكاليفورنيا في سان فرانسيسكو في الطبعة الـ 17 من إصدار الأكاديمية الوطنية للعلوم لشهر يونيو/حزيران.

-التعلم الآلي: ابتكر العالم صاموئيل الذي كان يعمل في شركة IBM عبارة التعلم الآلي في عام 1952، إذ تشكل الخوارزميات جزًء من التعلم الآلي، لديها قدرة معرفية فائقة تشبه الإنسان.

-نظام التوصيات: Recommendation System "الطريقة الأمثل للشركات الربحية، التي تعمل على جمع بيانات الأفراد، اهتماماتهم، ونمط تفكيرهم للتنبؤ بسلع ترضي أذواقهم وتقديمها كتوصية. فتجذب الفرد لشرائها بغية الربح الأكثر".

المصادر والمراجع:

حوار مع شوشانا زوبوف: رأسمالية المراقبة تُحوِّل الحياة إلى مادّة أوليّة طَوْعَ مصالحها

فيسبوك "يتلاعب" بمشاعر مستخدميه في دراسة سرية

The social Dilemma

الأكثر قراءة