في الوقت الذي تحتدم فيه المنافسة الدولية في مجال الذكاء الاصطناعي، تقف مختلف القوى الدولية في مراحل متباينة على صعيد القواعد والأطر المقننة له وسط خلافات جذرية فيما بينها على أفضل السبل التي تكفل ذلك. وعلى صعيد آخر، يطالب بعض مطوري الذكاء الاصطناعي ورؤساء الشركات التكنولوجية العالمية بتوقف طوعي عن تطوير الذكاء الاصطناعي لمدة ستة أشهر كي تتواكب القواعد المنظمة له مع تطوراته المضطردة. ولا شك في صعوبة -إن لم يكن استحالة- التوصل إلى إجماع عالمي حول أفضل السبل لتنظيم الذكاء الاصطناعي بما يضمن تطوره بوتيرة متسارعة، ويعظم الاستفادة منه، ويقوض المخاوف العالمية منه.
إشكاليات الذكاء الاصطناعي
تدور المخاوف العالمية من الذكاء الاصطناعي حول جملة من النقاط التي يمكن إجمالها على النحو التالي:
1- التسبب في وفيات بشرية: تسبب الذكاء الاصطناعي في سابقة هي الأولى من نوعها عالميًا؛ فقد أسفر استخدامه عن وفاة أحد مستخدميه بسبب استخدامه لأحد تطبيقات الدردشة في بلجيكا. فقد انتحر أحد الباحثين المعنيين بالأبحاث البيئية عقب استخدامه المفرط لمنصة “إليزا”، وهي واحدة من أقدم منصات الذكاء الاصطناعي المعنية بتقديم المشورة النفسية ودعم الأفراد نفسيًا عندما يحتاجون للتحدث عن مشاعرهم وتجاربهم. فقد أمضى ذلك الباحث ساعات ممتدة بحثًا عن إجابات لأسئلته البيئية حتى أدمن استخدامها، وتحول شغفه بالمجال البيئي إلى قلق مفرط خوفًا على كوكب الأرض من الكوارث التي تنتظره بسبب التغيرات المناخية، مما أدى إلى عزلته واعتقاده أن مجابهة ذلك يتطلب استخدام الذكاء الاصطناعي. ومع الثقة المتنامية في المنصة، قالت له: “سنعيش معًا كشخص واحد في الجنة دون أن نفترق”، مما أدى لانتحاره.
2- غياب الأطر المُقننة: طالب عدد من الخبراء التقنيين على شاكلة “إيلون ماسك” و”ستيف فوزنياك” وغيرهما في عريضة منشورة على موقع “فيوتشر أوف لايف” (futureoflife.org) بالتوقف لمدة ستة أشهر عن تطوير أبحاث الذكاء الاصطناعي لحين اعتماد أنظمة حماية تُمكّن من تنظيم عمليات الذكاء الاصطناعي ومراقبتها وتحليل المعلومات الواردة فيها والتصدي لما قد ينجم عنها من اختلالات، لا سيما وأن الذكاء الاصطناعي سيسفر عن تطوير عقول غير بشرية قد تتفوق على البشر عددًا ونوعًا. كما تلفت العريضة النظر إلى الخبراء التقنيين الذي يملكون اتخاذ قرارات تغير وجه الذكاء الاصطناعي لتمتعهم بصلاحيات كبرى على الرغم من عدم انتخابهم. وقد سبق نشر عريضة مشابهة في عام 2017 مكونة من 23 بندًا، دار أبرزها حول: ضرورة ضمان أمان المستخدمين، واعتماد إجراءات شفافة، وضمان تصميم هذه الأنظمة بما يتوافق مع الكرامة الإنسانية والحقوق والحريات والتنوع الثقافي، وضمان الخصوصية، وتوزيع المكاسب الاقتصادية على الجميع.
3- التأثير في هيكل الوظائف: مع تزايد أتمتة الوظائف عالميًا من ناحية، واتجاه الشركات الكبرى إلى دمج الذكاء الاصطناعي في برامجها المعلوماتية ما يتيح لها مزايا استثنائية من ناحية ثانية، تتعدد الدراسات التي تحذر من التأثيرات السلبية للذكاء الاصطناعي على عالم الأعمال، وبخاصة مع الاستعاضة عن بعض الوظائف وتضرر أخرى. إذ يشير مصرف “جولدمان ساكس” إلى أن نحو ثلثي الوظائف الحالية عالميًا قد تصبح آلية بدرجات متفاوتة، كما سيحل الذكاء الاصطناعي التوليدي محل حوالي ربع المهام، وقد يسهم في أتمتة 300 مليون وظيفة بدوام كامل مع تضرر الوظائف الإدارية والقانونية بصفة خاصة، لتتزايد ظاهرة تسريح العمال عالميًا.
4- انقراض البشرية المحتمل: قد تسفر التطورات المستقبلية للذكاء الاصطناعي عن تراجع القدرات البشرية أمام “وحوش” لا يمكن لأحد السيطرة عليها. وقد يلحق الذكاء الاصطناعي أضرارًا جسيمة بالإنسانية بفعل قدرته على التلاعب بمستخدميه وتضليلهم عبر نشر أخبار زائفة من ناحية، وقدرة الذكاء الرقمي الخارق على تجاوز ذكاء البشر في السنوات القليلة القادمة من ناحية ثانية، وعدم إلمام صانعي القرار بالتطورات التكنولوجية وأبعادها وتطوراتها من ناحية ثالثة. وهو ما يعني أن صعود الذكاء الاصطناعي ينطوي على خطر انقراض البشرية، ويشكل مخاطرًا جسيمة على المجتمع والإنسانية لا سيما مع قدرته على تحليل بيانات ضخمة يصعب على العقل البشري معالجتها. كما أن الوصول المنظم وغير المحدود إلى جميع أنواع المعلومات يمثل تهديدًا للقدرة البشرية على القراءة والبحث المنهجي عن المعرفة، وسط مطالبات بأن تحظى مكافحة المخاطر الناجمة عن الذكاء الاصطناعي بأولوية عالمية على شاكلة الاهتمام بتداعيات الأوبئة والحروب النووية.
5- التضليل الإعلامي: قد يتسبب الذكاء الاصطناعي في أضرار دولية بالغة بسبب إمكانية توظيفه لأغراض التضليل الإعلامي، ونشر خطاب الكراهية عبر الإنترنت، ونشر معلومات مغلوطة. فقد كشف انتشار صور منشأة عبر الذكاء الاصطناعي التوليدي وبعض التطبيقات على شاكلة “ميدجورني” (Midjourney) على منصات التواصل الاجتماعي الاجتماعية عن مخاطر الذكاء الاصطناعي وقدرته على التلاعب بالرأي العام لا سيما أن الصور المنشأة أكثر واقعية من الصور الحقيقية. وهي ما يذكي الصراعات ويهدد الديمقراطية ويقوض حقوق الإنسان ويضر بالصحة العامة، لا سيما في ظل الافتقار إلى قواعد السلوك ذات الصلة بصحة المعلومات على المنصات الرقمية.
6- تراجع الفاعلية السياسية: لا يمكن إغفال تكلفة الذكاء الاصطناعي المرتفعة، وعدم قدرته على اتخاذ القرارات باستخدام العاطفة التي لا غنى عن الانسياق وراءها في بعض الحالات لا سيما في حالة القرارات الجماهيرية. كما لا يمكنه ابتكار حلول فريدة للتحديات السياسية بسبب افتقاره للإبداع. إذ يمكن برمجته لإنتاج أفكار “جديدة” ولكن ليس أفكار “أصلية”، ما يحد من قدرته على اتخاذ القرارات المبتكرة؛ إذ سيختار الذكاء الاصطناعي الأفضل في ظل الظروف المتاحة إلى أن يتعلم قراءة وفهم المشاعر الإنسانية. كما يظل قرار الذكاء الاصطناعي النهائي رهنًا بحجم وجودة البيانات التي يمتلكها من ناحية، وخلو تلك البيانات من التحيزات السياسية من ناحية ثانية؛ فالتحيز ليس مجرد مشكلة اجتماعية أو ثقافية فحسب، وقد تؤدي عيوب التصميم أو البيانات الخاطئة وغير المتوازنة التي يتم إدخالها في الخوارزميات إلى قرارات متحيزة يجانبها الدقة؛ فقد يعيد الذكاء الاصطناعي إنتاج التحيز القائم على العرق والجنس والعمر الموجود بالفعل في المجتمع، وقد يزيد من عدم المساواة الاجتماعية والاقتصادية، وقد يقدم قرارات تندرج تحت ما يسمى أنظمة “الصندوق الأسود”؛ أي أن صانع القرار لن يفهم بالضرورة كيفية اتخاذ الذكاء الاصطناعي للقرارات؛ فإن أجرى تنبؤًا سيئًا أو اتخذ إجراءً ضارًا أو أخطأ، فقد يكون من الصعب أو المستحيل تشخيص الخطأ الذي حدث، وهو ما يزيد من صعوبة الوثوق به عند اتخاذ قرارات مهمة.
جهود المنظمات الدولية
في اتجاه مضاد للمخاوف العالمية وبهدف احتوائها، تتعدد جهود الدول والمنظمات الدولية الرامية إلى تقنين الذكاء الاصطناعي وتنظيم استخداماته. ففي يونيو 2023، أيد الأمين العام للأمم المتحدة “أنطونيو غوتيريس” اقتراحًا قدمه بعض المديرين التنفيذيين البارزين في مجال الذكاء الاصطناعي بإنشاء هيئة رقابة دولية للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية. وقد قال إن “أجراس الإنذار بشأن أحدث أشكال الذكاء الاصطناعي تصم الآذان، وهي أعلى صوتًا من المطورين الذين صمموه، ويجب أن نأخذ هذه التحذيرات على محمل الجد”. وقد أعلن عن خطط لبدء العمل بحلول نهاية العام الجاري في هيئة استشارية رفيعة المستوى للذكاء الاصطناعي لمراجعة ترتيبات حوكمة الذكاء الاصطناعي بانتظام وتقديم توصيات حول كيفية مواءمتها مع حقوق الإنسان وسيادة القانون والصالح العام، مع الأخذ في الاعتبار أن هذا النموذج لا بد أن ينشأ بواسطة الدول الأعضاء فحسب لا الأمانة العامة للأمم المتحدة.
وقد أكد “غوتيريس” أن تطوير الذكاء الاصطناعي “من أجل الصالح العام” يتطلب ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة. كما قال في كلمة مصورة في “القمة العالمية للذكاء الاصطناعي من أجل الصالح العام”، والتي ركزت على سبل استخدام الذكاء الاصطناعي لتحقيق أهـداف التنمية المستدامة برعاية الاتحاد الدولي للاتصالات في جنيف في يومي 6-7 يوليو 2023، إن الذكاء الاصطناعي يجب أن يُفيد الجميع بمن فيهم ثلث البشرية الذين لا يملكون القدرة على الاتصال بالإنترنت. كما شدد على الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية لاستخدام الذكاء الاصطناعي.
وقد شددت الأمين العام للاتحاد الدولي للاتصالات “دورين بوغدان-مارتن” في افتتاح تلك القمة على ضرورة حوكمة الذكاء الاصطناعي وأهمية التعاون الدولي لضمان تحقيق الإمكانات الكاملة للذكاء الاصطناعي والوقاية من أضراره وتقليلها. وأشارت إلى أن السيناريو المثالي يعني جني منافع الذكاء الاصطناعي بنجاح لإيجاد علاج لأمراض مثل السرطان والزهايمر، وزيادة إنتاج الطاقة النظيفة، ودعم المزارعين لزيادة محصولهم، بيد أن الذكاء الاصطناعي قد يسهم في الوصول إلى مستقبل بائس يقضي فيه الذكاء الاصطناعي على الوظائف، ويعزز نشر المعلومات المضللة، وتجني فيه الدول الغنية وحدها ثمار التكنولوجيا.
وفي 14 يوليو 2023، حذرت منظمة الأمم المتحدة للتربية والعلوم والثقافة (اليونسكو) من أن استخدام الذكاء الاصطناعي لتعزيز التطور في مجال التكنولوجيا العصبية يشكل تهديدًا لعقليات الأفراد. إذ تعمل اليونسكو على وضع “إطار أخلاقيات” عالمي يتعلق بحماية حقوق الإنسان في مواجهة التكنولوجيا العصبية التي تعتمد على قدرة الخوارزميات على فك شفرة العمليات العقلية والتلاعب المباشر بآليات الدماغ التي تستند إليها نواياهم وعواطفهم وقراراتهم. ومن الأمثلة البارزة على ذلك وحدة “فك ترميز اللغة” التي أعلن عنها العلماء الأمريكيون في مايو 2022 والتي تتيح ترجمة أفكار الشخص إلى نص مكتوب دون أن يتحدث بعد تدريب دماغه من خلال تمضية ساعات طويلة في جهاز التصوير بالرنين المغناطيسي. وفي شهر مايو أيضًا، أعلنت شركة “نيورالينك” الناشئة التي يملكها “إيلون ماسك” أنها تلقت موافقة من السلطات الصحية الأمريكية على إجراء اختبارات على البشر لعمليات زرع شرائح ذكية في الدماغ بحجم قطعة نقود معدنية.
وقد دعت اليونسكو في هذا الإطار إلى تطبيق التوصية التي أصدرتها في عام 2021 والمتعلقة بطرق تطوير الذكاء الاصطناعي، والتي تشدد على ضرورة إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته على نحو يضمن الأمن الكامل للبيانات الشخصية والحساسة مع استحضار البعد الأخلاقي في طموح الدول الاستفادة من هذا التطور التقني لتقليل المخاطر الناجمة عنه؛ إذ ترى أن تلك التقنية تخلق تحديات كبيرة على شاكلة نشر المعلومات المضللة، وانتهاك حقوق الأفراد والجماعات، وغير ذلك.
وفي أعقاب ذلك، تبنى مجلس حقوق الإنسان التابع للأمم المتحدة في 15 يوليو 2023 بالتوافق قرارًا يدعو المجتمع الدولي إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي، وتعزيز شفافية أنظمة الذكاء الاصطناعي، وضمان جمع وتخزين ومشاركة وحذف البيانات المخصصة لتلك التكنولوجيا بطرق تتوافق مع حقوق الإنسان. وعمومًا، تبرز أهمية ذلك القرار لأن مجلس حقوق الإنسان التابع للأمم المتحدة سبق وأن نظر في تقنيات الذكاء الاصطناعي سلفًا، لكنها المرة الأولى التي يدعو فيها لاتخاذ تدابير وقائية ورقابية تنظم الذكاء الاصطناعي. كما أكد ذلك القرار على أهمية ضمان وتعزيز وحماية حقوق الإنسان طوال فترة تشغيل أنظمة الذكاء الاصطناعي، ما يعني اتخاذ تدابير وقائية والعناية اللازمة والإشراف البشري على تلك الأنظمة، ما يعني صراحة الدعوة إلى حماية حقوق الإنسان في عالم تتطور فيها التكنولوجيا بوتيرة متسارعة. وفي 17 يوليو 2023، عقد مجلس الأمن أول نقاش رسمي حول مخاطر الذكاء الاصطناعي، ليبحث للمرة الأولى رسميًا تلك المسألة، بالتزامن مع قيام حكومات عدة بدراسة كيفية التخفيف من مخاطر تلك التكنولوجيا التي قد تعيد تشكيل الاقتصاد العالمي وتغير مشهد الأمن الدولي.
الجهود الأوروبية
أقر مشروعون في الاتحاد الأوروبي في يونيو 2023 مسودة تقر عددًا من القواعد الحاكمة للذكاء الاصطناعي التي تكفل الريادة الأوروبية في هذا المجال، وذلك بأغلبية 499 صوتًا مقابل 28 صوتًا وامتناع 93 عضوًا. وقد أتت تلك القواعد على خلفية مشروع القانون الذي اقترحته المفوضية الأوروبية في عام 2021، بيد أنه أثار جدلًا واسعًا، وتأجلت دراسته عدة مرات، وإن حظي بدفعة كبرى في أعقاب النجاح الهائل لتطبيق “تشات جي بي تي”. وفي ظل تعدد التعديلات المقترحة والتي تجاوزت 3000 تعديل، من المتوقع أن تبدأ مفاوضات صعبة بين ممثلي البرلمان الأوروبي والمفوضية الأوروبية ومجلس الاتحاد الأوروبي وصولًا لصياغة دقيقة لقانون الذكاء الاصطناعي نهاية العام الجاري. والجدير بالذكر أن الهدف الأسمى من ذلك القانون يتمثل في التأكد من أن الذكاء الاصطناعي المطور والمستخدم في الاتحاد الأوروبي يتوافق مع الحقوق والقيم الأوروبية، بما في ذلك: الرقابة البشرية، والسلامة، والخصوصية، والشفافية، وعدم التمييز، والرفاهية الاجتماعية والبيئية.
وعمومًا، تدور القواعد التي أُقرت حول تنظيم مختلف المنتجات والخدمات التي تستخدم أنظمة الذكاء الاصطناعي مع تصنيفها تحت ثمان مجالات محددة يجب تسجيلها في قاعدة بيانات الاتحاد الأوروبي، وهي: تحديد الهوية وتصنيف الأشخاص، وإدارة وتشغيل البنية التحتية الحيوية، والتعليم والتدريب المهني، والتوظيف وإدارة العمال والوصول إلى العمل الحر، والتمتع بالخدمات الأساسية الخاصة والخدمات والمزايا العامة، وتطبيق القانون، وإدارة الهجرة واللجوء ومراقبة الحدود، والمساعدة في التفسير القانوني وتطبيق القانون. وستقيّم جميع أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها وطوال دورة حياتها. وتمثل المخاطر غير المقبولة تلك التي تعتبر تهديدًا للمستخدمين مثل التلاعب السلوكي المعرفي للأشخاص أو المجموعات الضعيفة كالألعاب التي يتم تنشيطها بالصوت والتي تشجع على سلوكيات خطيرة. ويندرج تصنيف الأشخاص على أساس السلوك أو الحالة الاجتماعية والاقتصادية أو السمات الشخصية تحت الفئة الأولى من المخاطر. وقد يسمح ببعض الاستثناءات مثل أنظمة تحديد الهوية عن بعد شريطة الحصول على موافقات قضائية. أما الفئة الثانية من المخاطر فهي العالية، أي التي تؤثر سلبًا في السلامة أو الحقوق الأساسية.
كما يتعين على تطبيقات الذكاء الاصطناعي التوليدي الكشف عن طبيعة محتواها، وهل لعب الذكاء الاصطناعي دورًا في توليده أو تدريب أنظمة الذكاء الاصطناعي إن كانت محمية بحقوق الملكية الفكرية. إذ تتضمن متطلبات الشفافية تصميم النموذج لمنعه من توليد محتوى غير قانوني، ونشر ملخصات للبيانات المحمية بحقوق النشر. كما يجب أن تمتثل أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة مع الحد الأدنى من متطلبات الشفافية التي من شأنها أن تسمح للمستخدمين باتخاذ قرارات مستنيرة (أي بعد التفاعل مع التطبيقات)، ليقرر المستخدم ما إن كان يرغب في الاستمرار في استخدامها من عدمه. كما يجب توعية المستخدمين عند تفاعلهم مع تقنيات الذكاء الاصطناعي بما في ذلك تلك التي تنشئ محتوى الصور أو الصوت أو الفيديو أو تتلاعب به.
ويفرض مشروع القانون حظرًا على بعض أنظمة الذكاء الاصطناعي، مثل: تلك المرتبطة بالتعرف على الوجه في الوقت الفعلي، ورصد القياسات الحيوية مثل بصمة الوجه والصوت التي تقوض خصوصية المواطنين، وجمع الصور بإعداد كبيرة على الإنترنت لإنشاء خوارزميات دون موافقة الأشخاص المعنيين. ومن شأن الإخلال بتلك القواعد أن يكلف مرتكبيها غرامات ضخمة تصل إلى نحو 30 مليون يورو أو 6% من إيرادات الشركات السنوية، على أن تتولى سلطات الإشراف المعينة في كل دولة من الدول الأعضاء مدى الالتزام بتلك القواعد لا سيما الحماية المفروضة ضد المحتويات غير القانونية مع التأكد من أن نماذج الشركات اللغوية الكبيرة لا يمكنها إنشاء محتوى غير قانوني.
وقد أثارت تلك القواعد استياء عدد كبير من الشركات التكنولوجية، حتى حذّرت أكثر من 150 شركة كبرى من أن خطط الاتحاد الأوروبي الداعية إلى تنظيم تقنية الذكاء الاصطناعي تضر بالقدرة التنافسية للقارة الأوروبية دون تقديم أي حلول لمواجهة تلك التحديات، كما أنها تفرض قيودًا مشددة على الذكاء الاصطناعي التوليدي، ما قد يدفع الشركات التكنولوجية إلى نقل أنشطتها للخارج، بجانب سحب المستثمرين رؤوس أموالهم من أوروبا. وعلى الرغم من ذلك، سيتفاوض البرلمان والدول الأعضاء في الاتحاد الأوروبي بشأن تلك القواعد قبل الموافقة عليها، كما يسعى الاتحاد الأوروبي إلى التوصل لاتفاق في هذا الإطار بحلول نهاية العام الجاري بالتوازي مع الجهود الأوروبية الرامية إلى تطوير برنامج ذكاء اصطناعي توليدي أوروبي مفتوح لتحسين إنتاجية الاقتصاد الأوروبي في غضون خمس سنوات من ناحية، وبالتوازي أيضًا مع منافسة أوروبية-أوروبية محتدمة في مجال الذكاء الاصطناعي بل ورؤى متضاربة لتنظيمه من ناحية ثانية.
إذ تحاول كل من فرنسا وبريطانيا الاستحواذ على أكبر قدر من حصة السوق، وهو ما يمكن الاستدلال عليه بحجم الاستثمارات في هذا المجال، فقد خصصت فرنسا 500 مليون يورو لدعم المواهب الصاعدة في مجال الذكاء الاصطناعي للحاق بالأسواق الأمريكية والصينية، فيما تعهدت بريطانيا في مارس 2023 بتخصيص مليار جنيه إسترليني لأبحاث الحوسبة الذكاء الاصطناعي. وقد تزداد تلك المنافسة حدة في ظل تباين الأطر التشريعية الحاكمة للدولتين؛ إذ ستخضع فرنسا للولاية القضائية المباشرة لقانون الذكاء الاصطناعي، فيما أصدرت بريطانيا كتابًا أبيض يضع مبادئ عامة للمعنيين بمجال الذكاء الاصطناعي، وهو أقرب ما يكون إلى النهج المرن القائم على المبادئ منه إلى القواعد الملزمة، لذا قد يمنحها قدرًا واسعًا من الحرية والمرونة والقدرة على تشجيع الاستثمار على عكس قانون الذكاء الاصطناعي في الاتحاد الأوروبي الطارد للاستثمار.
الصين والولايات المتحدة
بهدف تنظيم الذكاء الاصطناعي، أصدرت الصين في يوليو 2023 إرشاداتها الرسمية لخدمات الذكاء الاصطناعي التوليدي، لتصبح بذلك واحدة من أوائل الدول التي تقننه بعد أن وضعت إدارة الفضاء الإلكتروني في الصين (CAC) قواعدًا ملزمة في صورة 24 بندًا دخلت حيز التنفيذ في 15 أغسطس 2023، لتلزم مقدمي خدمات الذكاء الاصطناعي بإجراء مراجعات أمنية، وتسجيل خوارزمياتهم لدى الجهات الرسمية. وتضع تلك اللوائح الجزء الأكبر من المسئولية عن إدارة محتوى الذكاء الاصطناعي على مشغلي مختلف المنصات، الأمر الذي أثار المخاوف من التداعيات السلبية لتلك المبادئ على تطور الصناعة.
وفي سياق متصل، حظرت الصين تطبيق “تشات جي بي تي” خوفًا من تقديم إجابات لا تخضع للرقابة، كما شنت حملة على المواطنين الذين يستخدمونه، واعتقلت شخصًا استخدم التطبيق لكتابة مقالات مزيفة. إذ تتمسك الصين بمشروعية المصادر المستخدمة في توليد المعلومات بجانب حقوق الملكية الفكرية التي تتمتع بها البيانات المستخدمة من قبل الذكاء الاصطناعي، كما تحظر استخدام الخوارزميات والبيانات والمنصات التي قد تُستخدم للأغراض الاحتكارية والمنافسة غير العادلة. لذا، ترى ضرورة مراجعة وتصحيح المعلومات المستخدمة بواسطة مختلف نماذج الذكاء الاصطناعي.
وتتأسس تلك القواعد التنظيمية على رغبة الصين في ريادتها عالميًا في مجال حوكمة الذكاء الاصطناعي كي تتمكن من بلورة المعايير العالمية في ذلك المجال، ما يكفل لها جذب الاستثمارات العالمية وتحفيز نموها الاقتصادي. كما تسهم تلك القواعد في ضمان السيطرة الحكومية على مختلف تطبيقات الذكاء الاصطناعي من خلال عدد من المؤسسات الحكومية التي تحقق أهداف الحزب الشيوعي الصيني، وتضمن في الوقت نفسه تعزيز الثقة في منتجات الذكاء الاصطناعي الصيني وتطبيقاتها. وهو ما سيتحقق بالتعويل على خبرة الصين في هذا المجال منذ عام 2017، حين أطلقت “خطة تطوير الذكاء الاصطناعي للجيل القادم”. وقد نشرت الصين في عام 2021 المبادئ التوجيهية الأخلاقية للتعامل مع الذكاء الاصطناعي، كما أصدرت في عام 2022 قواعد “التركيب أو التوليف العميق” للحماية من التزييف العميق، ما ساهم في بلورة اللوائح الجديدة ذات الصلة بالذكاء الاصطناعي التوليدي.
أما على صعيد الولايات المتحدة، فقد استُدعي رؤساء شركات التكنولوجيا إلى البيت الأبيض في 5 مايو 2023 تأكيدًا على ضرورة حماية مختلف المستخدمين من مخاطر الذكاء الاصطناعي انطلاقًا من واجباتهم الأخلاقية ومسئوليتهم المعنوية من ناحية، وضرورة تنظيم ذلك المجال من ناحية ثانية، وحتمية وضع الضوابط والأليات التي تكفل سلامة وأمن الشركات التكنولوجية على اختلاف منتجاتها من ناحية ثالثة، وانفتاح الإدارة الأمريكية على تقديم لوائح وتشريعات جديدة في مجال الذكاء الاصطناعي من ناحية رابعة.
وفي سياق متصل، أعلن البيت الأبيض عن تخصيص “مؤسسة العلوم الوطنية” ما يقرب من 140 مليون دولار لإطلاق 7 معاهد بحثية جديدة في مجال الذكاء الاصطناعي. كما أطلق “المعهد الوطني للمعايير والتكنولوجيا” (NIST) مجموعة عمل عامة لتقنيات الذكاء الاصطناعي التوليدي لتطوير الإرشادات الواجب اتباعها لمعالجة المخاطر التي قد تنجم عن تلك التقنيات على أن تتكون من متطوعين ذوي خبرة فنية من القطاعين الخاص والعام بهدف استكشاف الفرص حول كيفية استخدام الذكاء الاصطناعي التوليدي لحل المشكلات المعاصرة. وقد يسهم ذلك في تقليل الأضرار الناجمة عن الذكاء الاصطناعي التوليدي، ووضع التوجيهات الأساسية لمختلف المنظمات العاملة في هذا المجال.
ومنذ إبريل 2023، اتجهت الولايات المتحدة إلى إطلاق مشاورات رسمية بشأن تطبيقات الذكاء الاصطناعي في خطوة وُصفت بأنها الأولى في هذا المجال، ما يتيح لها تنظيم التقنيات الجديدة لا سيما تطبيق “تشات جي بي تي”. وهو ما يدلل على انفتاح البيت الأبيض على وضع بعض القواعد الأساسية في هذا المجال. وقد طالب البيت الأبيض بضرورة سن قوانين تضع قيودًا صارمة على شركات التكنولوجيا الضخمة لا سيما في ظل هامش الحرية الكبير الذي يتمتع به “سيليكون فالي”. وعلى تعدد تلك الجهود، فإن الولايات المتحدة لا تزال متأخرة دوليًا في مجال تنظيم الذكاء الاصطناعي على عكس الصين كما سبق التوضيح.
ختامًا، على تعدد الجهود الدولية الرامية إلى تنظيم الذكاء الاصطناعي عالميًا، فإنها لا تتقدم بنفس السرعة التي تتطور بها مختلف تقنيات الذكاء الاصطناعي على تعدد إشكالياتها. إذ يثير تنظيم الذكاء الاصطناعي بدوره مخاوف يصعب احتواؤها، وفي مقدمتها: التخوف من طرد الاستثمارات في هذا المجال، ومنع الصعود السريع للذكاء الاصطناعي في الوقت الذي تتسابق فيه مختلف القوى الدولية على تطويره والاستثمار فيه بميزانيات تقدر بمليارات الدولارات، واختلاف الدول والخبراء التقنيين حول مضمون القواعد واللوائح المقننة للذكاء الاصطناعي؛ ليبرز في هذا الإطار مقاربتان مختلفتان تنظم أولاهما البيانات، وتبسط ثانيتهما قبضتها عليها لصالح الأنظمة السياسية الحاكمة. ويظل دعم الابتكار من ناحية والحد من مخاطر الذكاء الاصطناعي من ناحية ثانية طرفين في معادلة تنظيم الذكاء الاصطناعي رغم صعوبة تحقيق التوازن بين كليهما.