لا شك أن الذكاء الاصطناعي قد غيّر شكل العالم كله، وليس فقط الأمن القومي للدول؛ وهو ما يلمسه المستخدم أو الشخص العادي، وليس بالضرورة الباحث أو المتخصص في هذا المجال. ومع ذلك، ولكي يستطيع المجتمع الأكاديمي إدراك حجم التأثير المستمر والمتصاعد للذكاء الاصطناعي في مختلف جوانب الحياة، يجب عليه ابتداءً بناء معارف حول أساسيات الذكاء الاصطناعي. وفي هذا الإطار استضاف مركز المستقبل للأبحاث والدراسات المتقدمة، يوم الأربعاء 16 يوليو 2025، الدكتور عادل عبد المنعم، الخبير الدولي في مجال أمن المعلومات، لتناول مجالات تأثير الذكاء الاصطناعي في قضايا الأمن القومي.
مقدمة في الذكاء الاصطناعي وقضايا الأمن:
أصبح الذكاء الاصطناعي (AI) عنصراً أساسياً في صياغة استراتيجيات الأمن العالمية. بدءاً من التحليلات التنبؤية ووصولاً إلى الأنظمة ذاتية التشغيل. ويُعد الذكاء الاصطناعي أداةً فعّالة وتهديداً محتملاً في آنٍ واحد.
ويمكن القول إن أنظمة الذكاء الاصطناعي التي تتعلم من خلال التجربة والخطأ تختلف اختلافاً جوهرياً عن الأدوات الآلية التي تتبع ببساطة تعليماتٍ مُعدّة مسبقاً؛ ففي حين أن العديد من التقنيات الحالية تعمل بشكل مستقل، إلا أنها لا تُصنّف بالضرورة كذكاء اصطناعي حقيقي.
ومع ازدياد تكامل الأنظمة القادرة على التعلم في الدفاع والأمن؛ فإنها تُقدّم فرصاً ومخاطر كبيرة في آنٍ واحد، لا سيما فيما يتعلق بإمكانية اتخاذ الآلات قرارات مصيرية دون إشراف بشري. ويتطلب هذا التحول تعريفات دقيقة، ووضع سياسات دقيقة، وتعاوناً دولياً لضمان الاستخدام المسؤول لهذه التقنيات القوية.
الذكاء الاصطناعي وأنظمة المراقبة:
تمكّن العلماء، باستخدام الذكاء الاصطناعي، من تطوير تقنيات مراقبة متقدمة، بما في ذلك التعرف على الوجوه وتحليلات السلوك. ورغم فعاليتها في إنفاذ القانون؛ فإن هذه الأدوات تُهدد أيضاً الحريات المدنية والخصوصية.
يمكن القول إن الذكاء الاصطناعي يُحسّن أنظمة المراقبة، سواء من حيث السرعة أم الدقة أم القدرة على مراقبة أعداد كبيرة من السكان في الوقت الفعلي. ويُمكن للذكاء الاصطناعي تحليل مقاطع الفيديو، والتعرف على الوجوه، واكتشاف السلوكيات غير العادية، والتنبؤ بالتهديدات المحتملة باستخدام كميات هائلة من البيانات.
تُقدّم هذه التطورات فوائد مثل تحسين السلامة العامة وتبسيط العمليات الأمنية. ومع ذلك، فإنها تُثير أيضاً مخاوف جدية بشأن الخصوصية، وسوء الاستخدام، وانعدام المُساءلة، خاصة عند استخدامها دون رقابة واضحة. وتُعد الضمانات القوية واللوائح الشفافة ضرورية لضمان عدم تقويض هذه التقنيات للحريات المدنية.
التزييف العميق والتضليل:
يمكن للتزييف العميق المُولّد بالذكاء الاصطناعي أن يُنتج مقاطع فيديو مزيفة واقعية؛ مما يُسهم في نشر معلومات مضللة وعدم استقرار سياسي. وقد تُسخّر الدول القومية التزييف العميق للتأثير في الانتخابات أو القرارات السياسية.
وقد أفادت هيئة الإذاعة البريطانية (BBC) بأن شركة “جوجل” دمجت الذكاء الاصطناعي التوليدي في محرك بحثها الأساسي من خلال تجربة البحث التوليدية (SGE)؛ مما يُمكّن المستخدمين من تلقي ردود سردية وحوارية على استفسارات مُعقدة بدلاً من مجرد روابط للمصادر. وتعتمد هذه الملخصات المُدعّمة بالذكاء الاصطناعي على صفحات ويب متعددة لتقديم إجابات مُتماسكة ومُستنيرة؛ مما يُحسّن كفاءة المستخدم.
ومع ذلك، كشف الإطلاق المُبكر عن بعض الأخطاء الملحوظة – مثل النصيحة الغريبة بتناول الغراء أو البيتزا بإضافات غير مألوفة- مما دفع جوجل إلى تحسين الميزة وتقييد استخدامها في عمليات البحث المتعلقة بالصحة. ومع اشتداد المنافسة مع محرك بحث “مايكروسوفت” المُحسّن بالذكاء الاصطناعي، تُسرّع “جوجل” من خارطة طريق الذكاء الاصطناعي الخاصة بها، بما في ذلك إطلاق أوسع لميزات البحث المُعتمدة على الذكاء الاصطناعي في عام 2025.
الذكاء الاصطناعي في مكافحة الإرهاب:
تُحلل أدوات الذكاء الاصطناعي الاتصالات والسلوك والشبكات للكشف عن الأنشطة الإرهابية ومنعها. ورغم فعاليتها؛ فإنها تُخاطر بتنميط الأفراد وانتهاك الخصوصية إذا لم تُدر بشكل صحيح.
يتزايد استخدام تقنيات الذكاء الاصطناعي لمراقبة الاتصالات والأنماط السلوكية وشبكات التواصل الاجتماعي لتحديد التهديدات الإرهابية المحتملة ومنعها. وتستطيع هذه الأدوات معالجة كميات هائلة من البيانات آنياً؛ مما يُشير إلى الأنشطة المشبوهة ويساعد السلطات على الاستجابة بسرعة أكبر.
ومع ذلك، فمن دون رقابة صارمة وإرشادات أخلاقية، تُخاطر هذه الأنظمة باستهداف الأفراد بشكل غير عادل بناءً على خوارزميات متحيزة أو معلومات ناقصة. وهذا يُثير مخاوف جدية بشأن التنميط وإساءة استخدام البيانات الشخصية وانتهاك الحريات المدنية. وتُعد الحوكمة المسؤولة أمراً أساسياً لتحقيق التوازن بين الاحتياجات الأمنية والحقوق الأساسية.
الذكاء الاصطناعي والتهديدات النووية:
يُعزز الذكاء الاصطناعي الكشف المبكر عن أنشطة الانتشار النووي من خلال صور الأقمار الاصطناعية واكتشاف الشذوذ. ومع ذلك فقد أشارت العديد من الدراسات مؤخراً إلى وجود أوجه تداخل بين الذكاء الاصطناعي – وخاصةً التعلم الآلي- وأنظمة الأسلحة النووية، وقد استكشفت تلك الدراسات سيناريوهات يُمكن من خلالها أن يُفاقم الذكاء الاصطناعي المخاطر النووية، كما هو الحال في أنظمة الإنذار المبكر، وتخطيط الأهداف الاستراتيجية، أو استخدام الخصوم للذكاء الاصطناعي لتحقيق مزايا غير متكافئة.
واستناداً إلى هذه السيناريوهات، اقترحت الدراسات خمسة مبادئ توجيهية، تشمل:
1. الحفاظ على سيطرة بشرية فعّالة على القرارات الرئيسية.
2. تقييم الذكاء الاصطناعي ضمن السياق الأوسع للوضع النووي للدولة.
3. إدراك أن القيود الدولية على الذكاء الاصطناعي النووي غير قابلة للتحقق إلى حد كبير.
4. تطبيق قيود ذاتية؛ بحيث يتم تفضيل استخدام الذكاء الاصطناعي منخفض المخاطر، والقابل للاختبار ضمن نطاق آمن.
5. الاستفادة من الذكاء الاصطناعي لتعزيز الرقابة البشرية بدلاً من إزالتها، وذلك للاستفادة من مكاسب الكفاءة، كما هو الحال في الصيانة والتخطيط التنبؤي، دون المساس بالحكم السليم أو تفاقم المخاطر النووية الكارثية.
الذكاء الاصطناعي وأمن الانتخابات:
يحمي الذكاء الاصطناعي الأنظمة الانتخابية من التدخل؛ ولكنه قد يُستخدم أيضاً للتلاعب بالناخبين من خلال الاستهداف النفسي والتزييف العميق. وقد رسمت بعض الدراسات سيناريوهات مرعبة، تشرح كيف يمكن أن تنتشر عمليات التزييف العميق المُولّدة بواسطة الذكاء الاصطناعي، من خلال تزوير أعداد الناخبين أو التلاعب بأوراق الاقتراع.
كذلك هناك دراسات ترى أن خطورة الذكاء الاصطناعي في هذا الصدد تكمن في قدرة الخصم على زرع الفوضى في مراحل ما بعد الانتخابات، بدلاً من تغيير الأصوات بشكل مباشر. ويقر مسؤولو الانتخابات في العديد من دول العالم، بعدم استعدادهم لعمليات التزييف الواقعية سريعة الانتشار التي قد يستغرق دحضها أسابيع، وعندها قد تتضرر الشرعية وثقة الجمهور بشدة.
هذا الأمر يدعو إلى اتخاذ تدابير عاجلة تشمل حملات توعية عامة، واعتماد أدوات مصادقة المحتوى، ومعايير تنظيمية، وتعاوناً أوثق بين المسؤولين ومنصات التواصل الاجتماعي لحماية نزاهة الانتخابات قبل التصويت.
تهديدات الذكاء الاصطناعي للأمن الاقتصادي:
يؤثر الذكاء الاصطناعي في أسواق العمل، والأنظمة المالية، وقنوات الابتكار، ويمكن أن تُزعزع الصدمات الاقتصادية الناجمة عن الذكاء الاصطناعي استقرار الأمن الوطني. كذلك يحمل الذكاء الاصطناعي في طياته مخاطر متزايدة على الأمن الاقتصادي الوطني من خلال تسريع وتيرة فقدان الوظائف، لا سيما في قطاعي الأعمال المكتبية والخدمات؛ فمع أتمتة أنظمة الذكاء الاصطناعي لمهام كانت تُعد في السابق آمنة من الاضطراب التكنولوجي، قد تواجه قطاعات كاملة من القوى العاملة حالة من عدم الاستقرار؛ مما قد يُفاقم التفاوت الاقتصادي ويُقلل من ثقة المستهلك.
كذلك يُمكن أن يُسبب هذا التحول السريع ضغوطاً على المؤسسات العامة، ويُضعِف قنوات الابتكار، ويخلق نقاط ضعف في الأنظمة المالية. ومن دون استجابات سياسية استباقية – مثل الاستثمار في التعليم وإعادة التدريب وتقوية شبكات الأمان- قد تجد الدول أن أُسسها الاقتصادية قد تآكلت؛ مما قد يُهدد بدوره الأمن الوطني الأوسع.