أخبار المركز
  • د. أمل عبدالله الهدابي تكتب: (اليوم الوطني الـ53 للإمارات.. الانطلاق للمستقبل بقوة الاتحاد)
  • معالي نبيل فهمي يكتب: (التحرك العربي ضد الفوضى في المنطقة.. ما العمل؟)
  • هالة الحفناوي تكتب: (ما مستقبل البشر في عالم ما بعد الإنسانية؟)
  • مركز المستقبل يصدر ثلاث دراسات حول مستقبل الإعلام في عصر الذكاء الاصطناعي
  • حلقة نقاشية لمركز المستقبل عن (اقتصاد العملات الإلكترونية)

"الحروب الخوارزمية":

الآثار الاستراتيجية للاستخدام العسكري للذكاء الاصطناعي

23 نوفمبر، 2024


عرض: نشوى عبد النبي

يترك تطوير الذكاء الاصطناعي وتكامله واستخدامه للأغراض العسكرية آثاراً عميقة على مستقبل الحرب وأيضاً على السلام والأمن الدوليين بشكلٍ عام، فذلك التطوير قد يمثل فرصاً ومخاطر سواء على المستويات التكتيكية أو العملياتية أو الاستراتيجية؛ وهو ما دفع إلى دمج الذكاء الاصطناعي في تحليل الاستخبارات والقيادة والتحكم والاستهداف والنيران والتدريب، والمحاكاة، ومراقبة المعدات، واللوجستيات. 

ونتجت عن ذلك مناقشات واسعة حول تأثيرات الحروب الخوارزمية، المعروفة باسم "الحروب المستقلة" والمسارات المحتملة لها، فضلاً عن آثارها العسكرية والأخلاقية والقانونية الفورية. وفي الوقت نفسه، هناك اعتراف متزايد بالآثار الاستراتيجية الأوسع نطاقاً للذكاء الاصطناعي على المنافسة بين الدول أو تصعيد الصراع، وصولاً إلى خطر الحرب النووية. 

وفي هذا السياق، نشرت مؤسسة راند في سبتمبر 2024 دراسة لكل من إيملي بينسون وكاثرين مورديان وآخرين حول "التنافس الاستراتيجي في عصر الذكاء الاصطناعي: المخاطر والفرص الناشئة عن الاستخدام العسكري للذكاء الاصطناعي". وحاولت الدراسة التعرف على مدى اعتماد الجيوش الحكومية، والمجموعات المسلحة غير الحكومية على الذكاء الاصطناعي والتغيرات التي طرأت على طبيعة المنافسة والصراع. 

آثار استراتيجية:

تطرقت الدراسة إلى الحاجة إلى وضع نهج متعدد التخصصات لتخطيط المخاطر والفرص الاستراتيجية المحتملة الناشئة عن الاستخدام العسكري للذكاء الاصطناعي، مع الوضع في الاعتبار أن هناك فجوات كبيرة في الفهم النظري والبيانات التجريبية الخاصة بتلك الفوائد والمخاطر المحتملة للاستخدام. ودفع ذلك إلى مناقشات حماسية قد تصل إلى التشدد الأيديولوجي في بعض الأحيان بين خبراء الذكاء الاصطناعي، وكذلك الحال بين صناع السياسات الذين في بعض الأحيان قد يتصارعون مع مستويات عالية من عدم اليقين بشأن الوتيرة المحتملة واتجاه التطورات المستقبلية الخاصة باستخدامات الذكاء الاصطناعي. 

وللتعرف على مدى الآثار المحتملة للذكاء الاصطناعي، فلا يكفي النظر إليها من منظور تقني بحت؛ بل يجب إدراكها كنظام اجتماعي تقني معقد يتأثر بعوامل بشرية وتنظيمية وثقافية، هذا التعقيد ينعكس بشكلٍ خاص في تطبيقاته العسكرية، حيث لا تحدد التكنولوجيا وحدها شكل هذه التطبيقات؛ بل تتفاعل مع السياقات المختلفة التي تنشأ فيها؛ ومع ذلك، ورغم نقص الأدلة؛ فإن صانعي السياسات لا يستطيعون التسويف في اتخاذ قرارات بشأن نشر الذكاء الاصطناعي وحوكمة استخدامه، وهو ما دفع الدراسة لتناول الآثار الاستراتيجية للذكاء الاصطناعي العسكري وفقاً لمجموعة مستويات وهي:

- المستوى الوطني: تتعلق تلك الآثار بالمخاطر والفرص التي يطرحها الذكاء الاصطناعي على مستوى الجهات الفاعلة الاستراتيجية، ولاسيما الدول القومية. فبالتركيز على التطبيقات العسكرية للذكاء الاصطناعي بدلاً من التطبيقات المدنية، يتم تأطير النقاش من خلال عدسة المنافسة المستمرة بين الجهات الفاعلة من أجل الميزة الاستراتيجية، وهذا بدوره يؤثر في توازن القوى ودرجة السلام والاستقرار على المستوى الدولي، حيث يمكن أن يقود الذكاء الاصطناعي لتغيرات اقتصادية واسعة النطاق أو استخدامه كسلاح لشن حرب اقتصادية وكذلك استخدامه من أجل التسوية المالية للدفاع، وإمكانية استخدامه للتلاعب بالمعلومات (مثل مقاطع الفيديو المزيفة المتطورة للغاية)، بالإضافة إلى إمكانات الذكاء الاصطناعي في تحويل إنتاجية المؤسسة الدفاعية ودعم تطوير وتسليح القدرات العسكرية بكتلة متزايدة.

ثم انتقلت الدراسة إلى تحليل كيفية تأثير الذكاء الاصطناعي على قدرة الأفراد على استغلال الفرص وتحويلها إلى نتائج ملموسة، وكيف يمكن للأفراد الاستفادة من قدراتهم والموارد المتاحة لديهم لتحقيق أهدافهم الاستراتيجية، حيث يمكن للذكاء الاصطناعي أن يؤدي دوراً محورياً في كل مراحل دورة الاستراتيجية، بدءاً من جمع وتحليل البيانات الضخمة، مروراً بدعم عملية اتخاذ القرار، وصولاً إلى تقييم الخيارات البديلة. 

وعلى الرغم من الإمكانات الواعدة للذكاء الاصطناعي، فهناك حاجة إلى مزيد من البحث والتطوير لفهم كيفية الاستفادة منه بشكلٍ فعَّال، حيث تشير الدراسات إلى وجود مخاوف بشأن التحيز، والاعتماد المفرط على هذه الأنظمة، كما تسلط الضوء على الحاجة إلى تحقيق التوازن بين قدرات البشر والآلات، مع الأخذ في الاعتبار القيود والتحديات التي تواجه أنظمة الذكاء الاصطناعي، خاصةً في المجال العسكري.

- المستوى الدولي: تناولت الدراسة كيف يمكن للذكاء الاصطناعي العسكري أن يحوِّل مفهوم القوة في العلاقات الدولية، وذلك من خلال تحليله لكيفية تأثير الذكاء الاصطناعي في التنافس بين الدول سواء في تطوير هذه التكنولوجيا نفسها أم في كيفية استخدامها لتحقيق أهداف استراتيجية. فمن خلال تحليل كيفية تأثير الذكاء الاصطناعي في ديناميكيات القوة والتنافس، يمكن فهم كيف يمكن أن تؤدي هذه التكنولوجيا إلى نتائج غير متوقعة تهدد الاستقرار العالمي.

- طبيعة المنافسة: تدعو الدراسة إلى ضرورة تجاوز النقاشات الحالية التي تركز على أمثلة محددة لاستخدامات الذكاء الاصطناعي في المجال العسكري، كالضربات الجوية أو الأسلحة النووية؛ إلى فهم أوسع وكامل لكيفية تأثير الذكاء الاصطناعي على جميع جوانب المنافسة والصراع، ومن الأمثلة البارزة في هذا الصدد مواجهة أو إجراء العمليات تحت الحد الأدنى من مستويات الحرب المفتوحة، وديناميات التصعيد وفعالية الردع في عالم متعدد الأقطاب، وقد يشكِّل الذكاء الاصطناعي تهديداً مباشراً لأنظمة القيادة والسيطرة والاتصالات النووية؛ مما قد يؤدي إلى زيادة خطر نشوب صراعات نووية غير مقصودة أو تصعيد الصراعات القائمة.

- نوع الفاعل: هنا يتم التركيز على المخاطر والفرص المختلفة التي قد يقدمها الذكاء الاصطناعي لفئات مختلفة من الفاعلين، بناءً على: الحجم أو القوة النسبية، والتي قد تشمل: القوى العظمى والقوى المتوسطة والدول الصغيرة، ونوع الحوكمة المتمثلة في: الديمقراطيات، والأنظمة الاستبدادية، والجهات الفاعلة غير الحكومية، والشركات الخاصة، والمنظمات المتطرفة العنيفة، وغيرها.

وتختلف المخاطر والفرص المرتبطة بالذكاء الاصطناعي باختلاف الدول، فبينما تحتل الولايات المتحدة والصين الصدارة في مجال الاستثمار والتكنولوجيا، إلا أن دولاً أخرى تسعى جاهدة للحاق بهما، ومع ذلك، فإن قدرة هذه الدول على التأثير في مسار تطوير الذكاء الاصطناعي العسكري محدودة، خاصةً عند المقارنة بقدرة الشركات الكبرى والدول الكبرى الأخرى.

ومن المحتمل أن يؤدي الذكاء الاصطناعي إلى تكثيف المنافسة الاستراتيجية والتكنولوجية والعسكرية بين القوى العظمى (الولايات المتحدة والصين) مما يضر بالاستقرار الدولي، ومن غير المرجح أن تعمل المبادرات متعددة الأطراف لإزالة مخاطر الذكاء الاصطناعي العسكري أو تستمر دون موافقة القوتين العظميين؛ مما يعني أن الدول الأخرى سترغب في التأثير في كليهما، كما أن للذكاء الاصطناعي القدرة على إضعاف مصداقية الحوكمة والمؤسسات المرتبطة بها مثل الأمم المتحدة التي دعمت منذ فترة طويلة السلام والازدهار والاستقرار العالمي.

دروس مستفادة: 

يمكن للحكومات الاستفادة من التجارب السابقة في إدارة التقنيات المزعزعة للاستقرار، مثل الذكاء الاصطناعي من خلال تحليل النجاحات والفشل في مجالات أخرى، وذلك تمهيداً لتحديد آليات وأدوات تضمن الاستخدام الأخلاقي للذكاء الاصطناعي مع مجهولية استخدامه المستقبلي في المجال العسكري؛ لذلك استعرضت الدراسة هذه التجارب وتحديد الدروس المستفادة منها، حيث تم استخلاص مجموعة من الأدوات والآليات التي يمكن للمؤسسات الدفاعية والحكومات الاستعانة بها للتصدي للمخاطر الناشئة عن الذكاء الاصطناعي العسكري، وتحقيق الاستفادة القصوى من فرصه.

واقترحت الدراسة مجموعة من الإجراءات العملية التي يمكن من خلالها توجيه تطوير الذكاء الاصطناعي العسكري عالمياً، من أبرزها:

- تسريع وتوسيع نطاق الاستثمار في الذكاء الاصطناعي على مستوى الدفاع والحكومة والمجتمع ككل، مع التركيز على تعزيز المرونة الوطنية والاستعداد لمواجهة التهديدات المحتملة الناشئة عن الاستخدام الخاطئ للذكاء الاصطناعي.

- اتخاذ إجراءات وقائية لمنع أو إعاقة أو زيادة تكلفة استخدام الجهات غير الحكومية والإرهابية والدول المعادية للذكاء الاصطناعي في الأغراض العسكرية.

- رفع الوعي وتحديد التحديات وتبادل الخبرات حول مخاطر الذكاء الاصطناعي في المجال العسكري.

- تعزيز نهج شامل تشاركي لبناء توافق عالمي ناشئ حول قواعد السلوك المسؤول حول الذكاء الاصطناعي العسكري، كمقدمة لاتفاقات أكثر صلابة في المستقبل.

- دعم تطوير آليات متعددة الأطراف مرنة وسريعة التكيف للحد من المخاطر النووية والبيولوجية المرتبطة بالذكاء الاصطناعي، وذلك من خلال منصات حوار أصغر حجماً وأكثر تخصصاً.

ختاماً، أوضحت الدراسة أن تطوير وتبني الذكاء الاصطناعي من قبل الجيوش والحركات المسلحة أصبح يُشكل تحولاً جذرياً في طبيعة الصراع والتنافس؛ مما يمهد لعصر جديد من الحروب يتميز بقدرات غير مسبوقة، كما أشارت إلى أن النتائج الواردة في هذا البحث هي أولية وبحاجة إلى مزيد من التحقق والتعمق؛ وهو ما يتطلب رسم خرائط الأنظمة التي تسهل الحصول على رؤية شاملة لكيفية تداخل المخاطر والفرص المتعلقة بالذكاء الاصطناعي وذلك بتجميع وجهات نظر خبراء مختلفين. 

كما يتطلب أيضاً استخدام تقنيات متقدمة مثل: تحليل التجمعات الهرمية، والتنبؤ بالاتجاهات المستقبلية، والتي تساعد على استكشاف مجموعة متنوعة من السيناريوهات المحتملة لتطور الذكاء الاصطناعي العسكري وحوكمة هذا المجال، وتحديد التداعيات المحتملة لكل سيناريو، ويمكن استخدام تقنية ألعاب الحرب لمحاكاة سيناريوهات مختلفة حول استخدام الذكاء الاصطناعي في الصراعات المستقبلية وتقييم استجابات الحكومات والدول الأخرى، سواء أكانت حليفة أم معادية.

المصدر:

RAND Corporation, Strategic competition in the age of AI: Emerging risks and opportunities from military use of artificial intelligence, Rand Europe, (2024).