تُعد المنصات الرقمية هياكل دينامية وقابلة للتكيف، وهو ما يعني أن الواجهات الرقمية التي نتفاعل معها يتم تكوينها باستخدام المعلومات الخاصة بنا، وتستمر في التعرف علينا أثناء تفاعلنا معها، فهي قادرة على التعرف والتكيف مع كل مستخدم على حدة، واستخدام هذه المعرفة في محاولة التأثير على خياراتنا. وقد أثيرت مؤخرا أسئلة كانت مؤجلة لسنوات، حول حدود تأثير التكنولوجيا على توجهاتنا، وعقولنا، وتفضيلاتنا، ومستقبلنا بشكل عام، كما تم تسليط الضوء على دور علم النفس ودراسات السلوك البشري في الصياغة والتوجيه الخفي لسلوك المستخدمين، وذلك بعد أن أصبح الاعتماد على علماء النفس مألوفا إلى حد كبير في شركات التكنولوجيا الكبرى، ومتداخلا مع أنظمة الذكاء الاصطناعي. وقد طالت مساهمات علماء النفس ليس فقط التفاعل بين المستخدم والمنصات التكنولوجية، بل تصميمها الداخلي، والخارجي أيضا. جميع هذه المساهمات مصممة لإبقاء المستخدم متصلا وقابلا للتأثر بما يبث له من رسائل واعلانات.
أدى هذا التعاطي إلى ظهور مفاهيم مثل “تكنولوجيا الإقناع”، و”تكنولوجيا تعديل السلوك”، و”التلاعب عبر الإنترنت”، ومفاهيم أخرى تعكس ما حدث من تعاون وثيق بين علماء النفس وشركات التكنولوجيا. وفي الوقت الذي نجد فيه أن هناك بالفعل من يدافع دفاعا منطقيا عن هذا الدور استنادا إلى نجاح توظيفه في تعزيز السلوكيات الإيجابية، وتحسين مستوى الخدمات المقدمة، والتي صُممت لتتواءم مع رغبات المستخدمين واحتياجاتهم، إلا أن العديد من المخاوف في هذا الصدد تبدو مبررة، فلا توجد حتى الآن أية ضمانات لحدود استخدام الإنترنت ووسائل التواصل الاجتماعي في قراءة العقول وتوجيه سلوك المستخدمين، بالإضافة إلى أن هناك خيط رفيع للغاية يفصل بين استراتيجيات تكنولوجيا الإقناع والتلاعب.
بداية الانكشاف
تداولت وسائل الإعلام العالمية في عام ٢٠١٧ وثائق استراتيجية داخلية عن موقع “فيس بوك” توضح قيام الشركة بالتلاعب بالمحتوى الذي شاهده أكثر من ٦٠٠ ألف مستخدم في محاولة لمعرفة ما إذا كان بإمكانهم التأثير على حالتهم العاطفية. لقد قاموا بشكل أساسي بتشويه عدد العناصر الإيجابية أو السلبية في خلاصات أخبار المستخدمين العشوائية، ثم قاموا بتحليل المنشورات المستقبلية لهؤلاء الأشخاص، وهو ما أكد قدرة الشركة على التنبؤ بالمشاعر والأنماط السلوكية للمستخدمين. وعلى الرغم من ادعاء شركة “فيس بوك” أنها لم تستخدم هذه المعلومات مطلقًا، إلا أنها لم تنف أنها تستطيع ذلك.
برزت في عام ٢٠١٦ فضيحة شركة “كامبريدج أنالاتيكا” الشهيرة، والتي قامت بتصميم مجموعة من الإعلانات الجذابة زعمت أن هدفها القياس النفسي لسمات شخصيات المستجيبين لاختباراتها، وجمعت الشركة كما ضخما من البيانات حول استخدام الوسائط الاجتماعية ودمجتها مع ملفات التعريف الشخصية المستخرجة من الاختبارات التي قامت بنشرها عبر الإنترنت، بعدها تم اتهام الشركة باستغلال لوائح فيسبوك الفضفاضة والحد الأدنى من الرقابة لجمع كميات هائلة من بيانات المستخدمين لفهم الرسائل التي كان الناس عرضة لها أولاً، ثم استخدام تلك البيانات والمعلومات للتأثير على آراء الناس وسلوكهم الانتخابي، واستهدافهم بالدعاية السياسية و”الأخبار المضللة”.
منذ نشر التقرير أثيرت العديد من التساؤلات والمخاوف، وتم إجراء سلسلة من البحوث والدراسات والتحليلات التي تقيس وتتنبأ بمخاطر انفتاح البشر غير المشروط على مواقع التواصل الاجتماعي والإنترنت بشكل عام. من جهة أخرى، بدا بوضوح دور علم النفس في مساعدة شركات التكنولوجيا في صياغة المقاييس النفسية، وبناء نماذج التنبؤ بالسلوكيات، وتحليل العمليات العقلية وأنماط السلوك، وغيرها. وفي الوقت الذي دافع فيه الكثيرون عن دور علماء النفس كعاملين في شركات التكنولوجيا، في المساعدة على تصميم تطبيقات وتكنولوجيا تساعد على تحسين السلوك البشري، إلا أن صوت المخاوف من هذا التداخل كان أكثر تأثيرا خلال الفترة الماضية، في ظل عدم وجود أي مؤشرات تؤكد عدم ممارسة هذا التلاعب حاليا أو ضمانات تحول دون استخدامه مستقبلا.
كيف ساعد علماء النفس شركات التكنولوجيا؟
يدرس علماء النفس وعلماء الأعصاب لفترة طويلة إمكانية التأثير على سلوك المستخدمين بطريقة لا يمكن ملاحظتها، عن طريق ما يطلق عليه “الإشارات اللاشعورية”، فخلف ما نقبل عليه ونستخدمه من منصات إلكترونية هناك العديد من علماء النفس وخبراء العلوم السلوكية، الذين تم توظيفهم، بهدف التعرف على ميولنا، وأهدافنا، ونقاط قوتنا، وضعفنا، وتوجيهنا لمصالح المعلنين، حيث توظف العديد من شركات التكنولوجيا الآن مثل: تويتر، وفيس بوك، وآبل، وأمازون، وميكروسوفت خبراء في الصحة العقلية وتعديل السلوك لأداء هذه المهام. وفيما يلي أهم مجالات التعاون بين التكنولوجيا وأنظمة الذكاء الاصطناعي من ناحية، وعلم النفس من ناحية أخرى.
1- تكنولوجيا الإقناع وتغيير سلوك المستخدمين
تعرف “تكنولوجيا الإقناع” Persuasive Technology)) ببساطة بأنها مجالًا بحثيًا يركز على تصميم وتطوير التقنيات التي تهدف إلى تغيير مواقف المستخدمين أو سلوكياتهم من خلال التأثير النفسي والاجتماعي، ولكن ليس من خلال الإكراه أو الخداع. وتُعرف أيضا بأنها “أي نظام حوسبة تفاعلي مصمم لتغيير مواقف الناس أو سلوكهم”، وبالتالي فالهدف الرئيسي من تصميم وتنفيذ تقنيات الإقناع هو إعطاء الآلات القدرة على التأثير وتغيير سلوك المستخدمين؟ وقد جاءت بداية التأصيل لتكنولوجيا الإقناع على يد عالم النفس “بي جيه فوج” P.J. Fog والذي بدأ في دراسة استخدام سيكولوجيا الإقناع في مجال التكنولوجيا في التسعينيات عندما كان طالب دكتوراه في قسم علم النفس بجامعة ستانفورد. في عام ١٩٩٨، أسس “فوج” مختبر ستانفورد لتكنولوجيا الإقناع، وهو مركز نال شهرة واسعة في دراسة وتعزيز تكنولوجيا الإقناع.
وقد بدأ التطبيق الفعلي لتقنيات الإقناع عندما قررت شركات مثل “جوجل”، و”فيس بوك” استخدام الإعلانات كوسيلة لتحقيق الدخل والاستفادة من المعلومات الشخصية التي يجمعونها من مستخدمي الإنترنت. ومن هنا جاء تطوير ما أطلق عليه “تكنولوجيا الإقناع”، والتي جاءت كنتيجة طبيعية لـ”رقمنة التجارة” والتي أدت بدورها إلى التأثير على المستهلكين على المستوى الشخصي، ثارت في وقتها مخاوف حول سياسات الخصوصية والعديد من القضايا الأخلاقية المتعلقة بإمكانية إساءة استخدام البيانات، إلى أن أثيرت أزمة “كامبريدج أنالاتيكا”، فاتسع نطاق هذه المخاوف. وبدأ الكثيرون في إدراك حقيقة أن تهديد الإعلان المستهدف لا يقتصر على المجال التجاري، على سبيل المثال: من خلال تسخير منصات استهداف الإعلانات، مثل تلك التي تقدمها “فيس بوك”، و”يوتيوب” وغيرها من خدمات وسائل التواصل الاجتماعي، يمكن للحملات السياسية أن تمارس تأثيرًا كبيرا على صنع القرار وسلوك البشر بشكل عام.
في كتابها المهم “رأسمال المراقبة” الصادر في عام ٢٠١٩، تشير “شوشانا زوبوف جرس” إلى استخدام تكنولوجيا المعلومات لتفعيل ما أطلقت عليه “تعديل السلوك”، مشيرة إلى أن هذا الاستخدام أصبح منتشرا للغاية ومركزيا لعمل اقتصاد المعلومات الحديث. وترى أن الخبرة البشرية هي مادة خام مجانية للترجمة إلى بيانات سلوكية، يتم تغذيتها في عمليات التصنيع المتقدمة المعروفة باسم” ذكاء الآلة”، وتصنيعها في منتجات تنبؤ تتوقع ما سنفعله قبل أن نفعله. تقول الكاتبة إن هذه المنتجات الرأسمالية الجديدة “يتم تداولها في نوع جديد من الأسواق أطلقت عليها اسم أسواق “العقود المستقبلية السلوكية”، وغالبا ما تتم ممارسة هذه الاستراتيجيات بصورة غير واعية من خلال استراتيجيات “الإقناع الخفي” والتي تهدف إلى تغيير سلوك المستخدمين بطريقة لا يمكن ملاحظتها. وعلى الرغم من العمل المكثف الذي تناول الإقناع الخفي من إنسان إلى إنسان، لا يزال الإقناع الخفي من آلة إلى إنسان مجالًا جديدًا للدراسة.
2- كيف ومتى تتحول تكنولوجيا الإقناع إلى التلاعب؟
نحن في أمس الحاجة الآن إلى التمييز بين تكنولوجيا الإقناع والتلاعب، والحقيقة هي أن التلاعب ينطوي على استهداف الأشخاص بشكل متكرر بمعلومات مضللة مصممة لمناشدة تحيزاتهم حيال المواقف العامة، وإعطاء انطباع خاطئ بأن كل شخص آخر في شبكتنا الاجتماعية يتبنى آرائنا. يصف بريت فريشمان وإيفان سيلينجر في كتابهما “إعادة هندسة البشرية”، مجموعة واسعة من الظواهر ذات الصلة، والتي أطلقا عليها اسم “الهندسة التقنية الاجتماعية”Techno-social engineering، ويقصد بها “العمليات التي تجتمع فيها التقنيات التكنولوجية والقوى الاجتماعية للتأثير على طريقة تفكيرنا وإدراكنا وسلوكنا.
لقد كافح الفلاسفة والمنظرون السياسيون طويلًا لتعريف التلاعب، وتم التوصل إلى ثلاثة أبعاد رئيسية يمكن من خلالها التحديد الدقيق للمفهوم، وهي: التلاعب بوصفه تأثير غير عقلاني، أي التأثير على شخص ما من خلال التحايل على قدرات اتخاذ القرار العقلانية لديه، والتلاعب باعتباره شكلاً من أشكال الضغط، كما هو الحال في حالات الابتزاز، والفكرة هنا هي أن التلاعب ينطوي على قدر من القوة ولكن ليس بقدر القوة التي ترقى إلى مستوى الإكراه، والتلاعب بوصفه خداع، وبالتالي فالتلاعب يعني قيادة شخص ما وحمله على التصرف كما يريد المتلاعب، ومن هنا يمكن تعريف “التلاعب عبر الإنترنت” على أنه استخدام تكنولوجيا المعلومات للتأثير سراً على صنع القرار لدى شخص آخر، من خلال الاستهداف واستغلال نقاط الضعف، فهو التلاعب الذي تسهله تكنولوجيا المعلومات، ويطلق عليه أحيانا “التلاعب الرقمي” أو “التلاعب الآلي”.
وتوفر التكنولوجيا السبل المثالية للتلاعب، حيث تعرض المراقبة الرقمية المنتشرة نقاط الضعف في صنع القرار لدينا بشكل دائم. كما أشار علماء الخصوصية منذ فترة طويلة، فإن كل ما نقوم به تقريبًا يترك أثرًا رقميًا، ويقوم جامعو البيانات بتجميع تلك الآثار في ملفات تعريف مفصلة للغاية، تشتمل هذه الملفات الشخصية على معلومات حول التركيبة السكانية، والشؤون المالية، والتوظيف، وسلوك الشراء، والمشاركة في الخدمات والمؤسسات العامة، وما إلى ذلك، وغالبًا ما تتضمن آلاف نقاط البيانات حول كل فرد. ومن خلال تحليل الأنماط الكامنة في هذه البيانات، يتمكن المعلنون وغيرهم من المشاركين في الاستهداف السلوكي، أي اكتشاف متى وكيف يتدخلون من أجل التأثير علينا بشكل أكثر فعالية.
تتيح المراقبة الرقمية أيضا الكشف عن التحيزات المعرفية التي تحدد عملية صنع القرار لدى معظم الأشخاص إلى حد ما، فنحن نخضع لظروف معينة يمكن أن تؤثر على كيفية اختيارنا، كل منا عرضة لمخاوف وقلق وآمال ورغبات محددة، بالإضافة إلى الحقائق المادية والاقتصادية، والتي -إذا كانت معروفة- يمكن استخدامها لتوجيه قراراتنا، وإذا كان التلاعب تأثيرًا يتم ممارسته في الخفاء، فإن التقنيات الرقمية هي وسائل مثالية للتلاعب لأنها تقوم على الإخفاء. من جهة أخرى، فنحن غالبًا ما نفكر في التقنيات على أنها أشياء نحضرها ونستخدمها بتركيز واهتمام، إلا أن واقع الأمر عكس ذلك، حيث تعكس لغة تصميم التكنولوجيا أنه بمجرد اعتيادنا على تقنية معينة فإن الجهاز أو الواجهة نفسها تنحسر عن الانتباه الواعي، ونولي القليل من الاهتمام للأجهزة نفسها، أو حتى للطريقة التي يتم بها ترتيب مواقع الويب أو واجهات التطبيقات المألوفة بعد أن نتأقلم معها، ويشير الفلاسفة إلى هذا باسم “التأثير غير المرئي للتكنولوجيا” – أي حقيقة أننا نرى أو نسمع أو ندرك بطريقة أخرى من خلال التقنيات.
إجمالا يمكن القول إن المعضلة الخاصة باستخدام التكنولوجيا في التلاعب بعقول المستخدمين وتوجيه تفكيرهم وتغيير سلوكهم لا زالت قائمة، ولم يتم التوصل حتى الآن لحلول حاسمة لها، بينما تتصاعد المخاوف من خروجها عن السيطرة، في ظل التطور المتسارع في تقنيات معالجة البيانات التي تقوم بشكل آلي بسد الثغرات وتطوير ملفات شخصية دقيقة وتفصيلية للمستخدم. من جهة أخرى، لا زالت شركات التكنولوجيا فاقدة إلى حد ما للسيطرة على إمكانية إعادة توظيف هذا الكم الهائل من البيانات في التلاعب بعقول المستخدمين، وتعزيز التطرف، والعنف، والانغلاق، وغيرها. والحقيقة أن المعضلة لا زالت قائمة، وعلى الرغم من الاتفاق ضمنا على أنه “يجب ألا يسعى مبتكرو تكنولوجيا الإقناع أبدًا إلى إقناع أي شخص بشيء لا يريدون إقناع أنفسهم به”، إلا إنه لا توجد حتى الآن أية قواعد الزامية في هذا الصدد.
المصادر
– Ball, Kirstie. “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power.” Surveillance & Society, 17.1/2 (2019): 252-256.
– Fogg, Brian J. “Persuasive technology: using computers to change what we think and do.” Ubiquity 2002.December (2002): 2.
– Stanford University.Stanford Persuasive Technology Lab, available at: https://captology.stanford.edu/go/welcome?from=
– Sander van der Linden.Psychological Weapons of Mass Persuasion. Scientific American. April 10, 2018, available at: https://www.scientificamerican.com/article/psychological-weapons-of-mass-persuasion/