أصبح الذكاء الاصطناعي (AI) اليوم جزءًا أساسيًا من حياتنا اليومية، حيث يتم تطبيقه في مجموعة واسعة من المجالات مثل الصحة، التعليم، الأمن، والاقتصاد. ولكن مع التقدم السريع في تطوير تقنيات الذكاء الاصطناعي، والتوسع في الاعتماد عليه بلا حدود أو معايير واضحة، ظهرت بعض المخاوف من استخدام تلك التقنيات بشكل خاطئ أو مضر مما قد يتسبب في انتهاك الخصوصية وعدم احترام سرية البيانات، بالإضافة إلى مخاوف تزييف الصور والفيديوهات والوثائق بشكل أعمق.
تلك المخاوف وغيرها دفعت الدول والمنظمات الدولية إلى تنظيم هذا المجال من خلال وضع ضوابط تحفظ الحقوق والخصوصية، وتحاول تجنب أضرار الذكاء الاصطناعي المحتملة. في هذا المقال، سنستعرض جهود تنظيم الذكاء الاصطناعي عالميًا وفي مصر بشكل خاص، مع التركيز على آثار وفاعلية تلك الجهود، إضافة إلى أمثلة تفصيلية عن المخاطر وكيفية مواجهتها.
أولا: أمثلة لمخاطر الذكاء الاصطناعي
التحيز الخوارزمي
المقصود بهذا المصطلح هو برمجة بعض أنظمة الذكاء الاصطناعي من خلال خوارزميات غير محايدة قد تؤدي إلى قرارات غير عادلة. على سبيل المثال، خوارزميات التوظيف التي كانت تستخدم من قبل شركة أمازون أظهرت تحيزًا ضد النساء، مما دفع الشركة إلى إيقاف استخدامها في 2018. وتطوير أدوات تقييم أكثر فاعلية لتحديد وإزالة التحيزات في الخوارزميات.
الأمن السيبراني
مع تطور الذكاء الاصطناعي، تزداد المخاطر المرتبطة بعمليات القرصنة والاختراقات السيبرانية. في عام 2021، تم استغلال نظام ذكاء اصطناعي لاختراق بيانات ملايين المستخدمين في الولايات المتحدة. وللتصدي لهذه المشكلة، يتم تطوير أنظمة ذكاء اصطناعي مضادة تُستخدم لاكتشاف ومنع الاختراقات بشكل أسرع.
التزييف العميق (Deepfake)
تكنولوجيا التزييف العميق تُستخدم بشكل متزايد لنشر معلومات مضللة. على سبيل المثال، تم استخدام فيديو مزيف للرئيس الأمريكي السابق باراك أوباما لنشر تصريحات لم يقم بها. للحد من هذه المخاطر، تعمل الشركات على تطوير أدوات مثل DeepFake Detector، التي حققت دقة بنسبة 90% في اكتشاف الفيديوهات المزيفة.
ثانيًا: الجهود العالمية لتنظيم الذكاء الاصطناعي
الاتحاد الأوروبي
يُعتبر الاتحاد الأوروبي من الرواد في مجال تنظيم الذكاء الاصطناعي. في عام 2021، اقترحت المفوضية الأوروبية “القانون الأوروبي للذكاء الاصطناعي”، الذي يهدف إلى ضمان أن تكون تطبيقات الذكاء الاصطناعي آمنة وتحترم الحقوق الأساسية للمواطنين. يُصنِّف هذا القانون أنظمة الذكاء الاصطناعي إلى أربعة مستويات بناءً على المخاطر:
- مخاطر غير مقبولة: مثل تطبيقات التعرف على الوجه في الأماكن العامة دون إذن.
- مخاطر عالية: مثل أنظمة التوظيف والتقييم التعليمي التي تنحاز إلى فئة على حساب فئة.
- مخاطر محدودة: مثل الأنظمة التي تستغل البيانات الشخصية دون إفصاح أو شفافية.
- مخاطر منخفضة: مثل تطبيقات الصور التي تتيح التلاعب في الوسائط الرقمية.
وفقًا لتقرير صادر عن البرلمان الأوروبي في عام 2023، يتوقع أن يتم تطبيق هذا القانون في بدايات عام 2025 بحيث تكون الشركات الأوروبية العاملة في مجال تطوير أنظمة الذكاء الاصطناعي خاضعة له، وملتزمة بالقواعد التنظيمية المفروضة وإلا تتعرض لعقوبات وغرامات صارمة. هذا القانون المقترح ليس الأول من نوعه في أوروبا، حيث سبق وتم تغريم شركة Clearview AI من قبل الحكومة الفرنسية مبلغ 20 مليون يورو في عام 2022 لانتهاكها قوانين الخصوصية عبر جمع صور المستخدمين دون موافقتهم. استندت السلطات الفرنسية في هذا الحكم إلى تشريعات خاصة بمعالجة البيانات الشخصية وحقوق الأفراد.
الولايات المتحدة
في الولايات المتحدة، لا يوجد قانون موحد لتنظيم الذكاء الاصطناعي، ولكن هناك توجيهات وإرشادات من وكالات مثل “اللجنة الوطنية للذكاء الاصطناعي”. في عام 2023، وضعت الإدارة الأمريكية “خطة إدارة المخاطر للذكاء الاصطناعي”، التي تقدم إطارًا اختياريًا للشركات لتقليل مخاطر استخدام الذكاء الاصطناعي مثل استخدام الخوارزميات التنبؤية في قطاع العدالة الجنائية، حيث كشفت دراسة أن أنظمة مثل COMPAS تُظهر تحيزًا ضد الأقليات بنسبة 45%.
بالإضافة لذلك، تم تطوير نظام “Stop AI Bias” الذي يُستخدم حاليًا في أكثر من 50 شركة لتقييم التحيز في الذكاء الاصطناعي.
الصين
تسعى الصين إلى تحقيق التوازن بين التوسع في تطوير الذكاء الاصطناعي وبين تنظيمه. في عام 2022، أصدرت إدارة الفضاء الإلكتروني في الصين لوائح لتنظيم الخوارزميات المستخدمة في التطبيقات التجارية. تركز هذه اللوائح على الشفافية ومنع التحيز، مع فرض غرامات تصل إلى مليون يوان للشركات التي تنتهك القواعد. على سبيل المثال، تم تعديل خوارزميات تطبيق Douyin (تيك توك الصيني) لضمان عدم استغلالها لنشر محتوى ضار للأطفال.
الأمم المتحدة
على الصعيد الدولي، تقود منظمة اليونسكو الجهود لتنظيم الذكاء الاصطناعي. في عام 2021، اعتمدت الدول الأعضاء “التوصية بشأن أخلاقيات الذكاء الاصطناعي”، التي تركز على حماية حقوق الإنسان وتعزيز الشفافية والمساءلة.
ثالثًا: الجهود المصرية لتنظيم الذكاء الاصطناعي
الاستراتيجية الوطنية للذكاء الاصطناعي
في عام 2021، أطلقت مصر “الاستراتيجية الوطنية للذكاء الاصطناعي” بالتعاون مع وزارة الاتصالات وتكنولوجيا المعلومات. تهدف الاستراتيجية إلى تعزيز استخدام الذكاء الاصطناعي في المجالات الحيوية مثل التعليم والصحة، مع ضمان تنظيمه بشكل فعال.
القوانين والتشريعات
رغم عدم وجود قانون خاص بالذكاء الاصطناعي في مصر، فإن قوانين مثل قانون حماية البيانات الشخصية (2020) تلعب دورًا هامًا في تنظيم استخدام الذكاء الاصطناعي. ينص القانون على فرض غرامات تصل إلى 5 ملايين جنيه مصري على انتهاكات الخصوصية. في عام 2023، تم تغريم شركة تقنية مصرية ناشئة مبلغ 2 مليون جنيه بسبب إساءة استخدام بيانات العملاء عبر أنظمة الذكاء الاصطناعي.
الشراكات والتعاون الدولي
وقَّعت مصر عدة اتفاقيات تعاون مع دول مثل فرنسا وألمانيا لتعزيز تبادل الخبرات في مجال تنظيم الذكاء الاصطناعي. كما تستضيف مصر فعاليات دولية مثل “قمة الذكاء الاصطناعي والابتكار”، التي تجمع خبراء ومشرعين لمناقشة أفضل الممارسات.
رابعًا: آثار تنظيم الذكاء الاصطناعي
الفوائد
- تعزيز الأمان والخصوصية: تُقلل القوانين من مخاطر الاختراقات وانتهاكات الخصوصية.
- تشجيع الابتكار: تخلق الأطر القانونية بيئة مستقرة تشجع الشركات على الاستثمار.
- تقليل التحيز: تساعد اللوائح في تقليل التحيز العرقي أو الجنسي في الخوارزميات.
التحديات
- ارتفاع التكاليف: قد تكون تكلفة الامتثال للضوابط التنظيمية مرتفعة، خاصة للشركات الصغيرة.
- البطء في التنفيذ: حيث تتطلب اللوائح وقتًا طويلًا لتطويرها وتطبيقها.
- التأثير على التنافسية: قد تؤدي اللوائح الصارمة إلى تقليل قدرة الشركات على المنافسة عالميًا.
فاعلية الجهود
رغم أن الجهود العالمية والمصرية لتنظيم الذكاء الاصطناعي تُظهر تقدمًا، إلا أن فاعليتها تعتمد على عوامل متعددة:
- التنسيق الدولي: لا تزال هناك حاجة إلى مزيدٍ من التنسيق بين الدول لتجنب التضارب في القوانين.
- التوعية: يلزم زيادة التوعية لدى الشركات والمستخدمين حول أهمية وضع حدود للتطوير والاستخدام.
- التكيف مع التطورات: تحتاج القوانين إلى التحديث المستمر لمواكبة التطورات التكنولوجية المستمرة والتي لا تتوقف.
يمثل تنظيم الذكاء الاصطناعي خطوة ضرورية لضمان استخدامه بشكل آمن وأخلاقي. الجهود المبذولة عالميًا وفي مصر تظهر تقدمًا كبيرًا، لكنها تواجه تحديات تتطلب حلولًا مبتكرة وتعاونًا دوليًا. من خلال الاستمرار في تطوير الأطر التنظيمية وزيادة التوعية، يمكن تحقيق التوازن بين الاستفادة من إمكانيات الذكاء الاصطناعي والحد من مخاطره.