في خطوة استراتيجية تعكس الوعي المتنامي بأهمية الثورة التكنولوجية، شارك المركز المصري للفكر والدراسات الاستراتيجية ومثله دكتورة/ دلال محمود (مدير برنامج الأمن والدفاع) وأستاذ/ محمد مرعي (رئيس وحدة دراسات الإعلام والرأي العام) وبعض باحثي المركز، في حضور “الملتقى السنوي الثالث لمراكز الفكر”، الذي استضافته جامعة الدول العربية تحت سقفها نخبة من العقول والخبرات العربية. وحمل الملتقى هذا العام شعار “دور مراكز الفكر في توظيف الذكاء الاصطناعي لتعزيز صنع القرار المستنير”. إن نظرة فاحصة على جدول أعمال الملتقى على مدار يومي 23 و24 نوفمبر 2025، تكشف عن رؤية منهجية عميقة وخارطة طريق طموحة، لا تهدف فقط إلى مواكبة التطورات، بل إلى توجيهها لخدمة الأهداف الاستراتيجية العربية.
يشهد المشهد البحثي في العالم العربي لحظة مفصلية تتجاوز مجرد مواكبة التقنية إلى إعادة تعريف وظيفة “مراكز الفكر” من الأساس. فبالنظر إلى الخارطة الموضوعية التي طرحتها النخب البحثية والأكاديمية في هذا التجمع الإقليمي، يتضح أننا لم نعد أمام ترف فكري يناقش ماهية الذكاء الاصطناعي، بل أمام ورشة عمل استراتيجية تفكك بجرأة سؤال: كيف يمكن لهذه التقنيات أن تعيد صياغة العلاقة بين الباحث وصانع القرار؟
يبدأ التحليل العميق لمسار هذه النقاشات من نقطة ارتكاز جوهرية تتمثل في “البنية التحتية للمعرفة”. فقد أظهرت المداولات توجهًا واضحًا نحو نقل العمل البحثي من الاعتماد الكلي على الحدس والتحليل النوعي التقليدي، إلى تبني منهجيات قائمة على البيانات الضخمة. هذا التحول لا يهدف فقط إلى تسريع وتيرة الإنتاج البحثي، بل يسعى إلى سد الفجوة الزمنية بين وقوع الحدث وتفسيره وتقييمه. إن التركيز على الأدوات والتقنيات يكشف عن وعي بأن “السيادة المعرفية” اليوم لم تعد لمن يملك المعلومة فحسب، بل لمن يمتلك خوارزميات تحليلها، واستخلاص الأنماط الخفية منها التي لا يمكن للعقل البشري المجرد رصدها بالسرعة الكافية.

ومع التعمق في مسارات النقاش، تبرز قضية “رشادة القرار” كأحد أهم المخرجات المرجوة. فالطرح هنا يتجاوز مجرد استخدام تطبيقات الذكاء الاصطناعي، ويمتد لجوهر البحث وقضايا المجتمع المختلفة. لقد أفرزت النقاشات جدلية دقيقة حول قدرة الذكاء الاصطناعي على العمل كنظام “إنذار مبكر”؛ حيث يتم توظيف النمذجة التنبؤية لاستشراف الأزمات قبل وقوعها، سواء كانت تقلبات اقتصادية، اضطرابات اجتماعية، أو تهديدات أمنية. هذا الانتقال من “رد الفعل” إلى “الاستباقية” يمثل القيمة المضافة الحقيقية التي تحاول مراكز الفكر تقديمها للمؤسسات المشاركة في صنع القرار؛ مما يجعل من التقنية أداة مساعدة.
غير أن هذه النظرة التفاؤلية لم تخلُ من نقد ذاتي وموضوعي صارم؛ حيث اتجهت بوصلة الحوار نحو المناطق الرمادية والمخاطر الكامنة. لقد برز وعي حاد بأن الاعتماد المفرط على التقنية يحمل في طياته تهديدات وجودية لطبيعة العمل البحثي. فمن جهة، هناك خطر “التحيز الخوارزمي” الذي قد يعيد إنتاج الصور النمطية أو يقدم قراءات مشوهة للواقع إذا ما تم تغذية النماذج ببيانات غير دقيقة. ومن جهة أخرى، نوقشت بشفافية عالية مخاطر زيادة الاعتماد على تطبيقات الذكاء الاصطناعي؛ مما يفقد التحليل عمقه الإنساني والسياقي الذي لا غنى عنه في فهم الخصوصية التاريخية والثقافية والمجتمعية للمنطقة العربية.

وفي سياق متصل، أخذ البعد الأخلاقي والقانوني حيزًا كبيرًا من الاهتمام؛ مما يعكس نضجًا مؤسسيًا في التعامل مع التقنية. فالحديث عن “ميثاق شرف” لاستخدام الذكاء الاصطناعي في مراكز البحوث العربية يشير إلى رغبة في توطين هذه التقنيات ضمن ضوابط أخلاقية تحترم الخصوصية وتراعي السياقات المجتمعية المحلية. كما تم التطرق بحذر إلى التحديات الأمنية، خاصة فيما يتعلق بآليات مكافحة التطرف والإرهاب؛ حيث يصبح الذكاء الاصطناعي سلاحًا ذا حدين، أداة للرصد والمواجهة من جهة، ومجالًا جديدًا للصراع السيبراني من جهة أخرى.

ختامًا، يمكن القول إن المحصلة النهائية لهذه المداولات الفكرية تصب في خانة “الذكاء المعزز” لا “الذكاء البديل”. فالرؤية التي تبلورت تشير إلى مستقبل تكاملي، تظل فيه “الحكمة البشرية” هي الضابط والموجه، بينما تقوم الآلة بمعالجة الكم الهائل من البيانات. إن النتيجة الأساسية الذي انتهت إليها النقاشات هي أهمية أن يكون هناك “نموذج عربي للذكاء الاصطناعي” يمكن اعتماده على البيانات العربية للحفاظ على الهوية والخصوصية الأخلاقية لتحقيق “السيادة الرقمية العربية”، ولضمان أن يظل القرار العربي مستنيرًا، مستقلًا، ومدعومًا بأفضل ما توصلت إليه التكنولوجيا الحديثة.






























