أخبار المركز
  • أسماء الخولي تكتب: (حمائية ترامب: لماذا تتحول الصين نحو سياسة نقدية "متساهلة" في 2025؟)
  • بهاء محمود يكتب: (ضغوط ترامب: كيف يُعمق عدم استقرار حكومتي ألمانيا وفرنسا المأزق الأوروبي؟)
  • د. أحمد أمل يكتب: (تهدئة مؤقتة أم ممتدة؟ فرص وتحديات نجاح اتفاق إنهاء الخلاف الصومالي الإثيوبي برعاية تركيا)
  • سعيد عكاشة يكتب: (كوابح التصعيد: هل يصمد اتفاق وقف النار بين إسرائيل ولبنان بعد رحيل الأسد؟)
  • نشوى عبد النبي تكتب: (السفن التجارية "النووية": الجهود الصينية والكورية الجنوبية لتطوير سفن حاويات صديقة للبيئة)

أتمتة الحروب:

تأثير الذكاء الاصطناعي في سباق التسلح العالمي

15 سبتمبر، 2019


عرض: سارة عبدالعزيز سالم - باحثة في العلوم السياسية

أسهمت الجهود المتواترة من جانب الباحثين خلال العقد الماضي في إحداث تطورات بارزة في مجال الذكاء الاصطناعي، والتقنيات التكنولوجية المرتبطة به (الحوسبة الكمية، والبيانات الضخمة، وإنترنت الأشياء، والروبوتات، والأنظمة ذاتية التشغيل)، حيث أمكن الوصول بها خلال فترات زمنية قصيرة إلى مستويات فاقت توقعات الخبراء والمتخصصين. 

وحقيقة الأمر أن ذلك التطور المتسارع قد جاء مدفوعًا بمجموعة من العوامل المحفزة، التي تشمل التطور الهائل في استخدام البرمجيات وكفاءة أدائها، والتوسع في اعتماد قواعد البيانات الضخمة، وكذلك التقدم الملحوظ في تطبيقات التعلم الآلي (Machine Learning)، وإعداد الخوارزميات. وقد اجتذب ذلك كله الاهتمام من قبل القطاع التجاري، وهو ما أسهم في التوسع في عمليات إنتاج وتطبيق تلك التقنيات، وفتح باب الاستثمار في تكنولوجيات الذكاء الاصطناعي.

وتزامنًا مع اختراق الذكاء الاصطناعي لكافة مجالات الحياة؛ فإن المجال العسكري يأتي في مقدمة تلك المجالات التي من المتوقع أن تشهد إحداث نقلة نوعية كبيرة في استخدام الحلول المعرفية والأتمتة لتعزيز القدرات والاستراتيجيات العسكرية على المستويين التكتيكي والتشغيلي. وقد حذر "جيمس جونسون" (الأستاذ بجامعة لستر في بريطانيا، والمتخصص في الدراسات الأمنية) في دراسة بعنوان "الذكاء الاصطناعي وحرب المستقبل: الآثار المترتبة على الأمن الدولي" نُشرت في العدد (35) من مجلة (Defence & Security Analysis) في أبريل 2019، من التهديدات الأمنية العالمية التي ينطوي عليها استخدام الذكاء الاصطناعي في المجال العسكري، وانعكاساته على إعادة ترتيب موازين القوى.

ويناقش "جونسون" في دراسته المنافسة الجيوسياسية بين الصين والولايات المتحدة الأمريكية، ومدى تأثرها بالسباق الحالي للابتكار في مجال الذكاء الاصطناعي.

الذكاء الاصطناعي في المجال العسكري 

تشير الدراسة في بدايتها إلى الدور الواسع الذي يمكن أن يلعبه الذكاء الاصطناعي في تعزيز القدرات العسكرية التقليدية والمتطورة، سواء من الناحية التشغيلية أو على المستوى التكتيكي. حيث إنه يلعب دورًا يفوق كونه "سلاحًا" في حد ذاته. فعلى المستوى التشغيلي، يعزز الذكاء الاصطناعي من القدرات العسكرية من خلال إمكانات (الاستشعار عن بعد، والإدراك اللحظي للمتغيرات، والمناورة، واتخاذ القرار تحت ضغط).

أما على المستوى الاستراتيجي التكتيكي في صنع القرار العسكري، فستتمكن أنظمة القيادة المعززة بتكنولوجيا الذكاء الاصطناعي من تجنب العديد من أوجه القصور الملازمة لعملية اتخاذ القرارات الاستراتيجية التقليدية، حيث ستكتسب القدرة على اتخاذ القرار السريع -بل والتلقائي- بناءً على المعلومات المعززة، وهو الأمر الذي يُجنّبها الأخطاء البشرية، ويُكسبها ميزةً تنافسيةً مقارنةً بأنظمة اتخاذ القرار التقليدية.

وبناءً عليه، فإن إدماج الذكاء الاصطناعي في المجال العسكري سيؤدي إلى إدخال متغير جديد في المعادلة العسكرية، لن تتساوى فيه الجيوش التي تستخدم تلك التكنولوجيا الجديدة مع غيرها، ومن ثم سيحدث مجموعة من الآثار الاستراتيجية التي من المحتمل أن تزعزع الاستقرار الأمني إلى حد كبير، وتؤثر على ديناميكيات الصراع والتصعيد العسكري في المستقبل.

ولتأكيد وجهة النظر السابقة، أضاف كاتب الدراسة أن التهديدات الأمنية المحتملة والمترتبة على التوسع في استخدام الذكاء الاصطناعي في المجال العسكري، تشمل الأمن بمفهومه الواسع الذي يتضمن الأمن الرقمي (مثل: التصيد الموجه، واختلاق الخطاب أو التصنيع الصوتي، وانتحال الهوية، والتسلل الآلي والتطفل على البيانات)؛ والأمن المادي (مثل الهجمات المنفذة من أسراب الطائرات بدون طيار)؛ وأخيرًا الأمن السياسي (مثل عمليات المراقبة والخداع والإكراه).

مستقبل الحروب

وفي حين تم توصيف تكنولوجيا الروبوتات ونظم الأسلحة ذاتية التشغيل، إلى جانب ابتكارات أخرى، على أنها تمثل "الثورة الثالثة في الحروب"، وفي سياق آخر على أنها أحد مخرجات "الثورة الصناعية الرابعة"؛ فإن إدماج الذكاء الاصطناعي معها من المتوقع أن يُحدث آثارًا تحولية في مستقبل الحروب والتوازن العسكري عالميًّا، حيث سيضيف إليها تقنيات تُعزز من قدراتها مثل الإدراك البصري والتعرف على الصوت والوجه، وكذلك استخدام الخوارزميات في صنع القرار لتنفيذ مجموعة من العمليات (الجوية والبرية والبحرية)، وذلك بشكل مستقل عن الإشراف والتدخل البشري.

وبناءً عليه، ستتمكن تلك الأنظمة المعززة من التوسع في مجموعة المهام التالية: الاستطلاع ودقة تنفيذ الضربات، واختراق الدفاعات الجوية المتطورة متعددة المستويات، مما يؤثر على كفاءة قيامها بوظيفة الردع. كما ستقدم تلك الأسلحة المدعومة بالذكاء الاصطناعي للدول خيارات إضافية غير متماثلة -خاصة في المجال البحري- لإبراز القوة العسكرية داخل المناطق المتنازع عليها وغير المسموح لها باختراقها. بالإضافة إلى مجموعة من المهام المحددة التي يمكن القيام بها والتي تشمل: إزالة وزرع الألغام، ونشر وجمع البيانات من شبكات الاستشعار البحرية المضادة للغواصات، ومهام الاستخبارات والمراقبة والاستطلاع، وشن الحرب الإلكترونية، والعمليات غير القتالية (مثل مكافحة الإرهاب والدفاع عن الحدود)، والدعم التوجيهي للصواريخ لدقة عمليات الاستهداف.

والتوسع حاليًّا كبير في استخدام أنظمة الأسلحة المعززة بالذكاء الاصطناعي، والتي تقوم بتنفيذ مهامها بالكامل دون تدخل بشري مثل إسقاط ذخيرة الهجوم (LAMs) على الأهداف (سواء رادارات العدو أو السفن أو الدبابات)، بناءً على معايير الاستهداف المبرمجة مسبقًا، حيث يتم تدمير الهدف تلقائيًّا عند استكشاف أجهزة الاستشعار لرادارات الدفاع الجوي للعدو.

ومن أبرز الأمثلة على ذلك النوع من الأنظمة هي أنظمة الطائرات بدون طيار الإسرائيلية (Harop). إلا أن هناك سعيًا حثيثًا من جانب عدد كبير من الدول لتطوير أنظمة كاملة من الأسلحة ذاتية التشغيل، مثل: الصين، وألمانيا، والهند، وإسرائيل، وكوريا الشمالية، وروسيا، وبريطانيا.

وتشير الدراسة إلى أن إدماج الذكاء الاصطناعي في نظم الأسلحة ذاتية التشغيل والروبوتات سيؤدي إلى التوسع في استخدامها في مجالي الدفاع والهجوم، وهو ما سيؤدي إلى الحد من قدرات أنظمة الردع الحالية متعددة المستويات. 

وعلى الجانب الآخر، فإن إدماج التكنولوجيا نفسها في أنظمة الإنذار المبكر، وإن كان سيؤدي إلى تقليل وقت عملية اتخاذ القرار، وإتاحة إمكانية المواجهة المباشرة والتلقائية مع أي هجوم؛ إلا أنه سيؤثر على استقرار الأمن العالمي من خلال تقليص فرص تسوية الأزمات بوسائل أخرى سلمية وغيرها، والتوجه نحو التصعيد المباشر، الأمر الذي قد يتطور إلى مستوى الحرب النووية.

وإلى جانب الأنظمة العسكرية التقليدية، فقد أشار التقرير إلى أن تعزيز المجال السيبراني بالذكاء الاصطناعي سيُعزز من قدراتها، سواء من حيث الدفاع أو الهجوم. فمن حيث الهجوم، سيسهم الذكاء الاصطناعي في صعوبة تحديد منفذي الهجمات السيبرانية، أو التنبؤ بها، وكذلك دقة تحديد الأهداف المراد الهجوم عليها.

أما من حيث الدفاع السيبراني، فقد يعزز الذكاء الاصطناعي من تقليل مخاطر الهجمات السيبرانية من خلال تحسين عمليات مراقبة الشبكات، وتحديد التهديدات بسرعة، والدفاع عنها تلقائيًّا.

وفي إطار زيادة التداخل بين المجالين المادي والافتراضي؛ فإن الهجمات السيبرانية المعززة بتكنولوجيا الذكاء الاصطناعي سيتضاعف تأثيرها في المجالين معًا بشكل يصعب تحديد الآثار المترتبة عليه، والتي تمثل (Black Box)، وكذلك اتساع المدى المستهدف من جانب تلك الهجمات. كما أنه يحفز الهجمات التي تستهدف التحكم في أنظمة الروبوتات والأسلحة ذاتية التشغيل، وهو ما يمكن تسميته بـ"برمجيات التسليح" (Weaponized Software).

تهديدات الأمن العالمي

حدد الباحث في دراسته أسباب تهديد الأنظمة المعززة بالذكاء الاصطناعي للأمن العالمي، والتي تتمثل فيما يلي: 

أولًا- سيادة حالة من اليقين بالقدرات الكاملة لتلك الأنظمة، في ظل عدم معرفة معدلات الخطأ الواردة بها، حيث إنها لم تخضع للاختبارات الجادة بعد، الأمر الذي قد تترتب عليه تهديدات خطيرة غير محسوبة العواقب.

ثانيًا- الدفع نحو التصعيد بشكل مباشر نتيجة للثقة المطلقة في القدرات العسكرية المعززة بالذكاء الاصطناعي على المواجهة وردع الأعداء. ومن ثم، تجنب الوسائل السلمية في حل الأزمات. بل قد يدفع ذلك الدول نحو الضرب الاستباقي لتحقيق الردع.

ثالثًا- إمكانية التوسع في الاعتماد عليها نتيجة انخفاض التكلفة، واستخداماتها التجارية، وثنائية ذلك الاستخدام من جانب الفاعلين من الدول وغير الدول، وهو ما يضيف المزيد من التعقيد في البيئة الأمنية من حيث صعوبة تحديد وتوقع الهجمات. وتعد هجمات أسراب الطائرات بدون طيار من أبرز الأمثلة على ذلك. 

رابعًا- التوجه نحو استخدام الأنظمة المعززة بالذكاء الاصطناعي بشكل متواتر لاختبار قدرات الآخرين، وتقييم المستوى التقني الذي تم الوصول إليه لتطوير القدرات.

ولمواجهة التهديدات السابقة، أشارت الدراسة إلى الجهود التي تم بذلها من جانب الباحثين لتطوير تكنولوجيات مواجهة الذكاء الاصطناعي (Counter AI)، إلا أنها ما زالت في مراحلها الأولية، فضلًا عن أنها ما زالت تقتصر على الجهود البحثية من جانب الأجهزة التابعة للدول، وبصفة خاصة الدوائر العسكرية بخلاف تكنولوجيات الذكاء الاصطناعي الأخرى التي تشهد طفرات مستمرة واهتمامًا من جانب دوائر واسعة عسكرية وتجارية.

وفي حين يواجه ذلك القطاع نموًّا بطيئًا؛ إلا أنه من المتوقع أن يلعب دورًا محوريًّا في معادلات الأمن القومي والحسابات الاستراتيجية للدول، وهو ما ينعكس على توازن القوى وهيكل التنافس الاستراتيجي بينها.

سباق التسلح بالذكاء الاصطناعي 

أضحت كل من المحددات الجيوسياسية والتطورات التكنولوجية عوامل محورية في إعادة تشكيل البيئة الأمنية، وهو ما ينعكس في تحديد شكل وحجم التنافس الاستراتيجي بين كلٍّ من الولايات المتحدة الأمريكية والصين.

وحقيقة الأمر، فإنه من الصعوبة بمكان تحديد مدى إسهام الذكاء الاصطناعي في بلورة ذلك التنافس، إذ ما تزال الفجوة قائمة بين التطور الحادث في مستوى الابتكارات المتحققة، وعملية تحويلها إلى أوامر تنفيذية وإدماجها في المنظومة والاستراتيجيات العسكرية، حيث لا توجد دلائل واضحة على قيام الولايات المتحدة أو الصين بذلك.

وقد نبهت الدراسة إلى أنه في ظل التنافس بين كل من الولايات المتحدة الأمريكية والصين على توطين الابتكارات في مجال الذكاء الاصطناعي بشكل مختلف عن الآخر؛ فإن إدماج تلك الابتكارات في المنظومة الاستراتيجية العسكرية من المتوقع أن يختلف فيما بينها، وهو الأمر الذي يفاقم من حالة عدم اليقين بين الدولتين، ويلقي بظلاله على استقرار الأمن العالمي والتوازن الاستراتيجي بين الدول.

وتتوقع الدراسة أن الصين ستكون لها الأسبقية في مجال إدماج الذكاء الاصطناعي ضمن المنظومة والاستراتيجية العسكرية من خلال تطوير القواعد التقنية وآليات حوكمة الذكاء الاصطناعي لتعزيز تنافسية ومستوى القدرات العسكرية الصينية. كما أنها ستتبع في ذلك المنهجية المركزية لجيش التحرير الشعبي الصيني (PLA) من حيث تضمينها في كافة الوحدات والعمليات.

أما عن مكامن القوة الصينية، فقد أشارت الدراسة إلى أنها ستستفيد في هذا السياق من مجموعة من المزايا لعل من أهمها الطاقة الاستيعابية الكبيرة لأسواقها، وهو ما يمكنها من طرح الابتكارات واختبارها وتطويرها، ومن ثم الاستفادة منها مدنيًّا وعسكريًّا. أيضًا، مكنت الكثافة السكانية الهائلة للدولة من إعداد قواعد البيانات الضخمة، حيث تشير الدراسات إلى أنها ستتمكن بحلول عام 2020 من السيطرة على حوالي (20%) من بيانات العالم، و(30%) بحلول عام 2030. وتعد تلك البيانات الضخمة ثروة هائلة في مجال تطوير الذكاء الاصطناعي والتعلم الآلي حيث تشكل نواة تطوير تلك الابتكارات.

وفي حين تتمتع الصين بأفضلية تحقيق ذلك التكامل المدني-العسكري، فإن الولايات المتحدة الأمريكية ما زالت تواجه العديد من التحديات مع شركات وادي السيليكون، حيث أعلنت شركة جوجل مؤخرًا عن إيقافها التعاون مع البنتاجون ضمن مشروع (MAVEN) للابتكار في مجال الذكاء الاصطناعي. كما أنها ما زالت تتخذ خطوات حذرة في الاعتماد الكامل وتضمين الذكاء الاصطناعي في المنظومة العسكرية. 

وفي ختام الدراسة، يقارن الباحث بين توجه كل من الصين وروسيا نحو التضمين والاعتماد الكامل لتكنولوجيات الذكاء الاصطناعي في المنظومة العسكرية الخاصة بها، حيث توجد شواهد على إلحاق الصواريخ النووية والباليستية الخاصة بهما بمعززات الذكاء الاصطناعي، وهو ما يجعلها قابلة للانطلاق وتدمير الأهداف المحددة مسبقًا في حالة استشعارها بوجود أي خطر أو هجوم عليها. وهو الأمر الذي ينطوي على آثار تدميرية تمس البشرية جمعاء. إلا أنه -في المقابل- يرى أن الولايات المتحدة تسلك منحى آخر يراه الكاتب أخلاقيًّا في المقام الأول، حيث إن إخراج العنصر البشري من المنظومة قد يضاعف من تداعيات أي أزمة مستقبلية، ويخرجها عن السيطرة لتتصاعد لمستويات لا يمكن التحكم فيها. 

وخلُصت الدراسة إلى أن التطورات المتسارعة في مجال الذكاء الاصطناعي، والتي ستقترن في المدى القريب بانتشارها والتوسع في استخدامها في المجال العسكري؛ سيترتب عليها إحداث العديد من التداعيات الأمنية، والتي ستنعكس بشكل أو بآخر على زعزعة استقرار الأمن العالمي، وإطلاق سباق تسلح جديد، إلا أنه في هذه المرة سيكون لامتلاك الأسلحة المعززة بتكنولوجيا الذكاء الاصطناعي.

ونبهت إلى أنه في ظل غياب القواعد والسياسات الضابطة لاستخدام تلك التكنولوجيا في المجال العسكري فستتمثل أهم التداعيات على الأمن العالمي في شيوع حالة من عدم اليقين، وتعدد التهديدات في المجالين المادي الواقعي والافتراضي. هذا بالإضافة إلى إحداث العديد من التحولات في طبيعة وخصائص التهديدات الأمنية، بل وطرح أشكال جديدة من التهديدات على الساحة الأمنية.

المصدر: 

James Johnson, "Artificial intelligence & future warfare: Implications for International Security", Defense & Security Analysis, Vol. 35, no. 2, (2019), PP. 147-169.