شهدت تقنيات الذكاء الاصطناعي تطورًا سريعًا في السنوات القليلة الماضية، حتى باتت ممكنة على المستوى العملي في غضون سنوات قليلة. وتُعد “الروبوتات المقاتلة” من أبرز التطبيقات العسكرية لتلك التقنيات، بل وتعد أيضًا شكلًا من أشكال أنظمة الأسلحة الفتاكة المستقلة. وهي أحد أنواع الأسلحة الآلية التي يصفها البعض بالثورة الثالثة في الحرب بعد البارود والأسلحة النووية، لما لها من قدرةٍ على تحديد وتدمير أهدافٍ مستقلة دون التدخل البشري المباشر. في هذا الإطار، تُثير تلك الروبوتات نقاشاتٍ حادة بين فريقين؛ يرى أولهما أهميتها للدفاع عن الأمن القومي للدول، في ظل التغيرات المتوقعة في طبيعة المعارك المستقبلية، وكذا سرعة التهديدات التي يجب مواجهتها من خلال دفاعاتٍ عالية التقنية من ناحية، وأهمية استخدامها في عمليات الاستهداف التلقائي، والتحليل الآلي للبيانات الاستخباراتية، وتحسين اللوجستيات، وغيرها، من ناحيةٍ أخرى. بينما يرى ثانيهما أن تلك الروبوتات من شأنها أن تفجر سباق تسلح بين الدول، في ظل غياب القواعد القانونية المنظِّمة لعملها في مناطق القتال، إلى حد المطالبة بحظرها.
الإمكانات المحتملة
لا يكمن التأثير الاستراتيجي الأساسي للأسلحة الفتاكة المستقلة بشكلٍ عام، والروبوتات المقاتلة بشكلٍ خاص، في التفوق القتالي بل في قابليتها للتطوير، بمعنى زيادة تأثيرها من خلال امتلاك الكثير منها. على سبيل المثال، يتزايد تأثير القنابل النووية بامتلاك أعدادٍ كبيرة منها، وهو ما يختلف بطبيعة الحال عن الكلاشينكوف، لأنه غير قابل للتطوير بنفس المعنى؛ فلا يمكن للملايين منه استهداف كثيرٍ من الأشخاص إذا تم استخدامه بواسطة مليون جندي، وهو ما يحتاج إلى مجمع صناعي عسكري ضخم.
ومن ناحيةٍ أخرى، لا تتطلب برمجة ملايين الروبوتات المقاتلة سوى عددٍ قليل من المبرمجين؛ أي إنها تشكل فئةً جديدةً من أسلحة الدمار الشامل القابلة للتطوير مع خصائص مماثلة للأسلحة البيولوجية؛ فهي تقلب ميزان القوى في مواجهة الإرهابيين، والمنظمات الإجرامية، ومختلف الفاعلين.
ومن شأن الروبوتات المقاتلة أن تُقلل من عدد المقاتلين في المهام المختلفة، ما يقلل من حجم الإصابات التي يتعرضون لها، حيث يعتقد بعض خبراء الروبوتات -مثل “رون آركين” على سبيل المثال- في قدرة الروبوتات المقاتلة على تقليل عدد مصابي الحرب بين المدنيين، بل وإنقاذ الأرواح. ومن شأنها أيضًا أن تسمح باتساع ميادين المعارك، بما يمكن من استهداف المناطق التي تعذر الوصول إليها مسبقًا. وبذلك، تقلل من الإصابات المحتملة جرّاء المهمات متزايدة المخاطر.
ولذا، تُعد الروبوتات المقاتلة أكثر ملاءمة من البشر للمهام “المملة” (مثل الطلعات الجوية طويلة الأمد) أو “القذرة” (كالتي تُعرض البشر لموادٍ إشعاعيةٍ) أو الخطيرة (للتخلص من الذخائر المتفجرة)، لما تتمتع به من إمكاناتٍ فريدة للعمل بسرعةٍ أكبر من البشر، حيث يتطلب الضغط البدني للمناورات العسكرية تركيزًا عقليًّا شديدًا ووعيًا يصيب الجيوش المقاتلة بالتعب والإرهاق، وهي القيود الفسيولوجية التي لا تخضع لها الروبوتات المقاتلة.
كما تقل تكلفة الروبوتات المقاتلة مقارنةً بالجيوش البشرية؛ فوفقًا لمقالٍ نشرته صحيفة “فاينانشال تايمز” في عام 2013، يكلف كلٌ جندي أمريكي في أفغانستان البنتاجون حوالي 850 ألف دولار سنويًّا، بينما يكلف تجهيز روبوت مثل تالون-روفر على سبيل المثال بالأسلحة 230 ألف دولار.
ومن المتوقع تزايد قدرة الروبوتات المقاتلة على التصرف بشكلٍ “إنساني” في ساحة المعركة مستقبلًا، بحيث تتمكن من معالجة المعلومات الحسية الواردة -مثلها في ذلك مثل البشر- دون تجاهلها أو إنكار وجودها. ولذا، يمكن الاعتماد على تلك الروبوتات في الإبلاغ عن المخالفات الأخلاقية التي يرتكبها البشر، والتي قد يتم غض النظر عنها من قِبَل الرتب العليا.
سباق تسلح؟
نظرًا للإمكانات السابقة، يطور عددٌ متزايد من الدول الكبرى روبوتاتٍ مقاتلة لتنفيذ عددٍ من المهام العسكرية، وهو ما يمكن الاستدلال عليه من خلال المساعي الدولية لامتلاك وتطوير تلك الروبوتات. فقد وجه البنتاجون الأمريكي بضرورة الإسراع بالاعتماد الأمريكي على الروبوتات المقاتلة كبديلٍ للجنود الأمريكيين. ومن المتوقع أن تمتلك الولايات المتحدة عددًا منها يفوق عدد الجنود البشريين بحلول عام 2025.
وتدّعي روسيا أنها اختبرت مؤخرًا نظامًا يحمل اسم “يونيكوم”، يعطي الآلات قدراتٍ عقلية لإنجاز مهماتٍ مدنية أو عسكرية بصفةٍ فرديةٍ أو جماعيةٍ دون الحاجة إلى التحكم البشري. وضمت روبوتات حربية إلى جيشها؛ فطورت الروبوت Ivan the Terminator” الذي يتم التحكم به على بعد أميال، ما يتيح للروبوت نسخ وتقليد تحركات الإنسان بدقة. وبثت وكالة “سبوتنيك” للأنباء فيديو تجريبيًّا للروبوت الروسي المقاتل في منتصف 2016.
وتقوم الشركات الحكومية الصينية حاليًّا بتطوير مجموعةٍ واسعة من الروبوتات المقاتلة. كما أدخلت إسرائيل عددًا من الروبوتات -التي طورتها شركاتٌ خاصة وأخرى ناشئة- إلى الخدمة. وتقيّم الهند حاجتها إلى تطوير أسلحة قائمة على الذكاء الاصطناعي للجيش، لتحديد الأهداف ومهاجمتها دون تدخل الإنسان. وعليه، شكلت الهند، في فبراير 2019، فرقة عمل مكونة من 17 عضوًا، تضم مسئولين من الجيش الهندي ووزارة الدفاع ومقاولي الأسلحة، لبحث مسألة التطبيقات العسكرية للذكاء الاصطناعي.
ولم تقتصر صناعات الروبوتات العسكرية على المصانع السرية للجيوش، وإنما اتجهت شركة سامسونج العالمية إلى توقيع اتفاق بينها وبين الكوريتين الشمالية والجنوبية في 2015، لتصنيع روبوتات حربية تحمي حدوديهما. وبناءً عليه، قامت شركة سامسونج بتطوير الروبوت النصف آلي “إس جي آر-آي1” الذي يتم التحكم فيه عن بعد، ويمكنه التعرف على الهدف على بعد ميلين، وحين يلاحظ وجود شخص ما يطالبه أوتوماتيكيًّا برفع يديه، وتمت برمجته لإطلاق النار بعد ثلاثين ثانية من رصد نشاط المتسللين على الحدود.
معارضة محتدمة
في اتجاهٍ معاكس للإمكانات السابقة، تتعالى أصوات منددة بالروبوتات المقاتلة لجملةٍ من الأسباب، يأتي في مقدمتها: القدرة على استهداف أهدافٍ مستقلة على المستوى النظري؛ فقد تُظهر الروبوتات المقاتلة -على صعيد الفضاء المدني أو العسكري- قدرًا من الاستقلال الذاتي دون إشرافٍ بشري في الممارسة العملية. فقد تصبح أنظمة الأسلحة المستقلة الفتاكة التي يمكنها تحديد مواقع البشر ومهاجمتهم دون تدخلٍ بشري حقيقة واقعية.
وقد تُسفر الروبوتات المقاتلة عن عدم الاستقرار الاستراتيجي، بفعل احتمالات تخريب البيانات المستخدمة بها. أي إن احتمالات فقدان السيطرة على أنظمة تسلحها في ساحات المعارك قد تؤدي إلى إشعال نيرانٍ صديقة أو فتيل الأعمال العدائية. وهو ما يعني ضمنًا إمكانية تغير التوازن الاستراتيجي بين الدول التي تملك روبوتات مقاتلة بين عشية وضحاها، ناهيك عن تداعيات تحديثات البرامج أو الهجمات السيبرانية غير المتوقعة.
وتنتهك الروبوتات المقاتلة مبدأ التمييز الذي يُعتبر أحد أهم قواعد النزاع المسلح، بمعنى صعوبة التمييز بين المدنيين والمقاتلين. إن السماح للروبوتات المقاتلة باتخاذ قرارات الاستهداف سيؤدي على الأرجح إلى إصابات في صفوف المدنيين، وهو ما يصعب معه تحديد المسئول عن مقتلهم طبقًا لأحكام القانون الدولي الإنساني. إن أي سلاح أو أي وسيلة تجعل من المستحيل تحديد المسئولية عن الإصابات التي تسببها لا تفي بمتطلبات قانون الحرب، وبالتالي لا ينبغي استخدامها.
ولا يمكن القول إن الروبوتات المقاتلة قادرة على اتباع قواعد الحرب بشكل أفضل من الجيوش المدربة على ذلك، وهو ما يثير التساؤل عن اتباع الدول المارقة، والديكتاتوريين، والجماعات الإرهابية لتلك القواعد كونها لم تستخدم الروبوتات على الإطلاق بطرقٍ تنتهك تلك القواعد.
وتتجلى إحدى أبرز الإشكاليات الأخلاقية في مسألة “الضمير العام”؛ فوفقًا لاتفاقيات جنيف يظل الإنسان تحت حماية مبادئ الإنسانية وإملاءات الضمير العام، وهو الأمر الذي رددته دولُ مثل ألمانيا، التي قالت إنها لن تقبل باتخاذ قرارات الحياة والموت بواسطة أنظمة مستقلة، وهو الأمر الذي من شأنه أن يؤجج إملاءات الضمير العام بمجرد ظهور فيديوهات تقتل فيها الروبوتات المدنيين العزل.
كما تساءل العديد من الخبراء عن امتثال الأسلحة الفتاكة المستقلة لقواعد القانون الدولي وقوانين الحرب. إذ يتطلب ذلك الامتثال أحكامًا شخصية تتجاوز بكثير المهام البسيطة نسبيًّا، والمتمثلة في استهداف مواقع بعينها، وتحديد أماكن القتال التي تبعًا لتقنيات الذكاء الاصطناعي قد تكون خارج الروبوتات. وهي الإشكالية التي تأخذها الدول التي تطور الأسلحة المستقلة في الاعتبار. ففي عام 2012، على سبيل المثال، أصدرت وزارة الدفاع الأمريكية توجيهًا ينص على وجوب تصميم تلك الأسلحة بطريقةٍ تتيح للمشغلين ممارسة مستويات مناسبة من الحكم الإنساني على استخدام القوة، بحيث يحظر الاختيار المستقل للأهداف البشرية.
حملات دولية
أسفرت الإشكاليات السابقة عن حملاتٍ دولية من قبل الدول والمنظمات غير الحكومية، لمناهضة الروبوتات المقاتلة، خشية خروجها عن السيطرة، وإن تمثل أبرزها في Campaign to Stop Killer Robots، حيث تختلف الروبوتات المقاتلة اختلافًا جذريًّا عن الأسلحة التي يتحكم فيها الإنسان، لأنها تتميز بدرجة من استقلال القرار الذي يتعلق في حالة الذكاء الاصطناعي العسكري بحفظ أرواحٍ بشرية أو إهدارها.
وتضم حملة إيقاف الروبوتات المقاتلة 89 منظمة غير حكومية من 49 دولة منتشرة في جميع أنحاء العالم. وتدعو 28 دولة إلى الحظر التام ليس فقط للروبوتات المقاتلة، ولكن الأسلحة المستقلة أيضًا، بينما تدعو أخرى إلى شكلٍ من أشكال التنظيم لضمان السيطرة الإنسانية على كافة أنظمة التسلح. أو بعبارةٍ أخرى، تتجلى المواقف الدولية من الروبوتات المقاتلة في مجموعتين؛ تطالب أولاهما بالحظر الرسمي القانوني لها، بينما تطالب ثانيتهما باتفاقات سياسية لتنظيم استخدامها.
وبالتوازي مع ذلك، تتعالى دعوات تعديل اتفاقية الأسلحة التقليدية كي تتضمن الأسلحة الفتاكة المستقلة. فالتقدم التكنولوجي في مجال الأسلحة يتجاوز بمراحل القانون الدولي. كما تدعو اللجنة الدولية للصليب الأحمر إلى إخضاع الأسلحة ذات الميزات المستقلة إلى مراجعة قانونية شاملة، وذلك بهدف التأكد من إمكانية استخدامها طبقًا لقواعد القانون الدولي الإنساني.
وفي يوليو 2018، وقّع أكثر من ثلاثة آلاف متخصص في أبحاث الذكاء الاصطناعي والروبوتات -بما في ذلك عدد من أعضاء مجلس الأجندة العالمي حول الذكاء الاصطناعي والروبوتات- رسالة مفتوحة تدعو إلى معاهدة لحظر الأسلحة المستقلة الفتاكة.
وختامًا، إن كافة الحملات الداعية إلى حظر الروبوتات المقاتلة لم تسفر بعد عن أي توافق، خاصة وأن التعريف الرسمي للأسلحة الفتاكة المستقلة لا يزال قيد المناقشة. وفي الوقت ذاته، يتزايد إنفاق عدد من الدول على تلك الروبوتات كالولايات المتحدة، وروسيا، والصين، وغيرها. وعلى الرغم من تأكيد تلك الدول على عدم دخول تلك الروبوتات للخدمة؛ إلا أن ذلك لا يعني أن ما تطوره بالفعل مجرد روبوتات تجريبية.