أخبار المركز
  • أسماء الخولي تكتب: (حمائية ترامب: لماذا تتحول الصين نحو سياسة نقدية "متساهلة" في 2025؟)
  • بهاء محمود يكتب: (ضغوط ترامب: كيف يُعمق عدم استقرار حكومتي ألمانيا وفرنسا المأزق الأوروبي؟)
  • د. أحمد أمل يكتب: (تهدئة مؤقتة أم ممتدة؟ فرص وتحديات نجاح اتفاق إنهاء الخلاف الصومالي الإثيوبي برعاية تركيا)
  • سعيد عكاشة يكتب: (كوابح التصعيد: هل يصمد اتفاق وقف النار بين إسرائيل ولبنان بعد رحيل الأسد؟)
  • نشوى عبد النبي تكتب: (السفن التجارية "النووية": الجهود الصينية والكورية الجنوبية لتطوير سفن حاويات صديقة للبيئة)

AI Militarization:

كيف يُدير الذكاء الاصطناعي دفَّة الحروب الحديثة؟

20 مايو، 2024


أثار استخدام تقنيات الذكاء الاصطناعي في عدد من ساحات الصراع المسلح القائمة مثل: الحرب الروسية الأوكرانية، والحرب الإسرائيلية في غزة، العديد من النقاشات المتتالية حول ماهية تلك الاستخدامات ومخاطرها على الأمن الدولي والإقليمي واستدامة الصراع؛ إذ أظهرت تلك التجارب أن الأسلحة المدعومة بالذكاء الاصطناعي يمكن أن تكون أكثر دقة من الأسلحة الموجهة بالبشر؛ مما قد يُقلل من الأضرار الجانبية مثل: الضحايا المدنيين والأضرار التي تلحق بالمناطق السكنية وأعداد الجنود الذين يقتلون أو يشوهون، بينما تساعد الدول والمجموعات الضعيفة على الدفاع عن نفسها، في حين قد تؤدي في ذات السياق إلى ارتكاب العديد من الأخطاء الكارثية.

استخدامات مُركّبة:

تتنوع استخدامات الذكاء الاصطناعي خلال الحروب، وتشمل مجموعة واسعة من التطبيقات التي تسهم في تعزيز القدرات العسكرية وتحسين الأداء الاستراتيجي في فترة الحرب وما بعدها، إذ يعمل الذكاء الاصطناعي في الحرب كعامل تمكين تحليلي ومُعطّل ومُضاعف للقوة؛ مما يؤثر في الأمن الدولي من خلال تحويل ميزان الدفاع الهجومي نحو الهجوم، ولعل من أكثر تلك الاستخدامات شيوعاً ما يلي:

1- تعزيز القدرات الاستخباراتية والمعلوماتية: يمكن توظيف تقنيات الذكاء الاصطناعي في عمليات التشخيص والتحليل الاستراتيجي من خلال تحليل البيانات الضخمة لفهم الأنماط والاتجاهات العسكرية، وتطوير قدرات الاستطلاع والاستشعار عن بعد من خلال جمع المعلومات والبيانات من البر والبحر والجو، وكذلك تطوير قدرات التشفير والأمان السيبراني؛ مما يحمي البيانات والمعلومات الحساسة من الاختراق.

2-  قياسات الرأي العام إزاء الحرب: يستخدم الذكاء الاصطناعي لمراقبة وتحليل منصات التواصل الاجتماعي لفهم آراء ومشاعر الجمهور تجاه الحرب والأحداث ذات الصلة، فيما يمكن أن يستخدم في تحليل النصوص والمقالات الإخبارية والصور والفيديوهات المتعلقة بالحرب واستخلاص المعلومات الرئيسية وأبرز الاتجاهات منها؛ مما يُساعد على فهم تأثير الأحداث العسكرية على الرأي العام، وكذا تحليل البيانات التاريخية للحروب والصراعات السابقة، واستخلاص دروس وتوقعات حول كيفية تطور ردود الأفعال العامة في حالات مُماثلة في المستقبل.

3- تقييم المخاطر واتخاذ القرارات: يستخدم الذكاء الاصطناعي في تحليل المخاطر، وتقدير الأضرار المحتملة للقرارات العسكرية؛ مما يساعد على اتخاذ القرارات الاستراتيجية بناءً على معرفة أكبر بالتأثيرات المحتملة لأي من هذه القرارات.

4- المشاركة في العمليات الميدانية والقتالية: يتم استخدام الذكاء الاصطناعي في تطوير وتحسين أنظمة الأسلحة الموجهة مثل: الطائرات من دون طيار والصواريخ الذكية؛ مما يزيد من دقتها وفاعليتها ويقلل من الخسائر البشرية والمدنية، ويستخدم أيضاً في عمليات تحديد الأهداف وتصنيف المقاتلين، كما يُسهم في تحسين عمليات التواصل والتنسيق بين القوات المختلفة؛ مما يزيد من فعالية العمليات العسكرية ويقلل من الفوضى والارتباك، وكذلك هناك تطوير للروبوتات القاتلة والأسلحة ذاتية التشغيل التي قد تُشارك في العمليات القتالية الميدانية، بالإضافة إلى توظيف الذخائر ذاتية التحكم في العمليات العسكرية الدقيقة.

5- جهود إعادة الإعمار في مرحلة ما بعد الحرب: يمكن أن يؤدي الذكاء الاصطناعي دوراً مهماً في جهود تحقيق الاستقرار بعد الحرب؛ إذ يسهم في تقييم الأضرار وتحديد الأولويات في عمليات إعادة الإعمار من خلال تحليل صور وفيديوهات الأضرار الناجمة عن الحرب، وكذلك تعزيز جهود تنسيق العمليات الإنسانية عبر تحليل البيانات المتعلقة بالنازحين واللاجئين، وتحديد احتياجاتهم، وتعزيز الإصلاحات والمصالحة، وذلك من خلال تحليل البيانات السياسية والاجتماعية لتقديم التوجيهات والمقترحات لعمليات المصالحة بين الأطراف المتنازعة.

تطبيق عملي:

يمكن الإشارة إلى تطبيق لأنظمة الذكاء الاصطناعي بشكل عملي في الحروب التي اندلعت في الفترة الأخيرة، على النحو التالي:

1- الحرب الأوكرانية: تعتمد أوكرانيا، بشكل مُتزايد على الذكاء الاصطناعي لتحقيق قدر من التفوق الميداني؛ إذ تسعى للتفوق في مجال الاستخبارات الجغرافية المكانية؛ إذ تستخدم أوكرانيا برنامج شركة "Palantir" لتحليل صور الأقمار الاصطناعية، والبيانات مفتوحة المصدر، ولقطات الطائرات من دون طيار، والتقارير من الأرض لتزويد القادة بالخيارات العسكرية، وهو يُعد البرنامج "المسؤول عن معظم الاستهدافات في أوكرانيا".

وفي الوقت ذاته؛ استخدمت أوكرانيا بيانات الشركة في مشروعات تتجاوز بكثير الاستخبارات في ساحة المعركة، بما في ذلك جمع الأدلة على جرائم الحرب، وإزالة الألغام الأرضية، وإعادة توطين اللاجئين النازحين، كما أسهمت شركات التكنولوجيا الرئيسية مثل: "مايكروسوفت"، و"أمازون"، و"جوجل"، و"ستارلينك" في حماية أوكرانيا من الهجمات الإلكترونية الروسية، وترحيل البيانات الحكومية المهمة إلى الخوادم السحابية للحفاظ عليها، وإبقاء البلاد على اتصال، وفي المقابل؛ زُعم أن موسكو نشرت ذخيرة من نوع كلاشينكوف "ZALA Aero KUB-BLA" التي تعمل بالذكاء الاصطناعي، في حين استخدمت كييف طائرات من دون طيار من طراز"Bayraktar TB2" تركية الصنع، والتي تتمتع ببعض القدرات المستقلة.

2- حرب غزة: أشارت تقديرات متعددة إلى أن إسرائيل سعت إلى أتمتة حربها الدائرة على غزة؛ إذ تستخدم نظام ذكاء اصطناعي يطلق عليه اسم "لافندر" في عملياتها العسكرية داخل غزة؛ وهو نظام يقوم على تحديد الأهداف المحتملة، فقد شارك "لافندر" في تحديد 37 ألف هدف خلال الأسابيع الأولى من الحرب، ويستكمل برنامج "لافندر" برنامجين آخرين هما: "أين هو أبي؟" والذي يستخدم لتعقب الأفراد الذين تم تحديدهم كأهداف وقصفهم عندما يكونون في المنزل، وبرنامج الإنجيل، الذي يهدف إلى تحديد المباني والهياكل.

مخاطر مُتزايدة:

رغم التطورات الهائلة في مجال الذكاء الاصطناعي، والتوسع في استخدامه أثناء الحروب المعاصرة، فإنه ما زالت هناك بعض المخاطر والتبعات الناجمة عن هذا التوظيف في وقت الحرب، ومن بين هذه المخاطر:

1- الضرر العرضي: قد يتسبب الاعتماد على تقنيات الذكاء الاصطناعي في وقوع أخطاء فنية أو ضرر عرضي، خاصة في حالة استخدام الأسلحة المتحكمة بشكل آلي دون وجود رقابة بشرية كافية، وهو ما قد ينتج عنه قتل للمدنيين والأبرياء، ولاسيما في حالة الأخطاء المتكررة في تحديد الأهداف العسكرية والمسلحة، أو تدمير بنية تحتية وخدمية حيوية لا ترتبط بنشاط عسكري.

2- الخروج عن السيطرة: نتيجة ضعف التفاعل البشري الآلي، ففي بعض الحالات، قد يكون التفاعل بين أنظمة الذكاء الاصطناعي والقادة البشريين غير فعّال؛ مما يمكن أن يؤدي إلى سوء التفاهم أو اتخاذ قرارات غير فعّالة، وقد ينتج عنه تطبيق قرارات آلية دون تدخل بشري؛ مما يثير مخاوف بشأن فقدان السيطرة الإنسانية على الآلة، وما قد ينتج عنه من سلوكيات ضارة بالمجتمعات.

3- انتهاكات حقوقية: قد يواجه استخدام الذكاء الاصطناعي في الحروب تحديات أخلاقية وقانونية، خاصة فيما يتعلق بالقضايا المتعلقة بالقتل الآلي وحقوق الإنسان؛ إذ قد يتسبب الاعتماد المفرط على التكنولوجيا في ارتكاب أخطاء قاتلة أو في مسائل تتعارض مع القوانين الدولية الإنسانية.

4- عدم الاعتمادية والثقة الكافية: قد تواجه التطبيقات العسكرية للذكاء الاصطناعي تحديات فيما يتعلق بالاعتمادية والثقة؛ إذ قد تواجه مشكلات تقنية تؤدي إلى عطل في الأنظمة أو تحول دون أداء مهامها المخططة.

5- تعزيز الاضطرابات الدولية والصراعات: قد يزيد استخدام الذكاء الاصطناعي في الحروب من الفجوة بين الدول المتقدمة تقنياً، وتلك التي تفتقر إلى القدرات التكنولوجية المتطورة؛ مما يزيد من عدم المساواة ويعزز الاضطرابات الدولية.

وتُشير تجربة الحرب الإسرائيلية في غزة إلى أن توظيف الذكاء الاصطناعي في الحروب ينطوي على مخاطر شديدة الخطورة ومدمرة منها:

• الإخفاق في توقع هجوم 7 أكتوبر: رغم تعزيز إسرائيل قدراتها الذكية، ولاسيما في مجال الاستخبارات فقد فشلت في توقع أو رصد مخططات كتائب القسام، الجناح العسكري لحركة حماس، لتنفيذ هجومها على غلاف غزة.

• الإضرار بعمال الإغاثة والصحفيين: فقد أثار مقتل سبعة عمال إغاثة أجانب في غزة القلق المتزايد من توظيف تقنيات الذكاء الاصطناعي في تحديد الأهداف المسلحة؛ إذ كشف ارتفاع مخاطر استهداف المدنيين، في ضوء تراجع قدرة برامج التعرف على التمييز بين عمال الإغاثة والمسلحين.

• تضاعف عدد القتلى من المدنيين: أشارت العديد من التقديرات إلى أن توظيف إسرائيل لتقنيات وأسلحة الذكاء الاصطناعي أدى إلى وقوع عشرات الآلاف من المدنيين الأبرياء، ولاسيما بين الأطفال والنساء، إذ إن استهداف شخص ما يحتمل أنه عسكري بناءً على توصية من برامج التحقق الذكية؛ قد يترتب عليه مقتل العشرات من المحيطين به دون تمييز؛ وهو ما يثير العديد من التبعات القانونية والأخلاقية بشكل عام إزاء العمليات العسكرية الإسرائيلية في غزة.

• تدمير الآلاف من المنازل والبنية التحتية الحيوية: إذ إن تحديد أماكن اختباء الأشخاص المستهدفين قد ينتج عنه تدمير منازل وأبنية بكاملها، نتيجة سوء تقدير الأهداف والتحقق من وجود عناصر أو قيادات محتملة.

• عدم إنجاز مهمة تحديد شبكة الأنفاق العسكرية: بالرغم من نجاح إسرائيل في تدمير عدد من الأنفاق الرئيسية داخل غزة، فإنه وفقاً للتقارير الإسرائيلية ذاتها، ما زالت معظم أنفاق حماس قائمة ويتم اكتشافها، وفي هذا الشأن يشار إلى أن الذي أسهم في اكتشاف تلك الأنفاق هو السيطرة الميدانية للقوات الإسرائيلية، وليست أدوات الذكاء الاصطناعي، كما تظهر فيديوهات كتائب القسام أن عناصرها يقومون بتفخيخ أنفاق وكمائن معدة لم تكتشفها أدوات البحث والاستشعار الإسرائيلية رغم هيمنتها العسكرية في العديد من مناطق القطاع.

• عدم قدرة الذكاء الاصطناعي على حسم المعركة بل تفاقمها: رغم توظيف كافة القدرات الممكنة مثل: الأسلحة والذخائر الموجهة والطائرات من دون طيار وأدوات الاستشعار، لم تستطع إسرائيل بعد مرور 200 يوم على حربها في غزة، تحقيق أي من الأهداف المتمثلة في القضاء على قادة حماس داخل غزة أو تدمير كافة الأنفاق واكتشافها أو تحديد أماكن الأسرى، بل زاد توظيف تلك التقنيات من تحقيق ما قد يكون "إبادة جماعية" ضد المواطنين في غزة، وزيادة أعداد القتلى وتدمير البنية التحتية؛ وهو ما يعزز وجود دوافع لاستمرار تصلب موقف حركة حماس من المفاوضات الجارية بشأن الإفراج عن الرهائن. وهو الأمر المماثل في أوكرانيا؛ إذ أن استخدام أوكرانيا تقنيات الذكاء الاصطناعي لضرب بعض المنشآت الروسية الحيوية أدى إلى تصعيد روسي مقابل، وإغلاق العديد من مساحات التفاوض، ولم يحقق أي تقدم في اتجاه حسم المعركة.

• الإخفاق في توجيه الرأي العام العالمي إزاء الحرب: على الرغم من استغلال إسرائيل صفقاتها مع الشركات العملاقة بهدف حذف وتحجيم المحتوى الافتراضي المناهض لإسرائيل، فإنه مع مرور 200 يوم على الحرب الإسرائيلية في غزة ما زال المحتوى المناهض للتحركات الإسرائيلية في تزايد، كما أن رهان إسرائيل على كسب الرأي العام العالمي لم يتحقق، إذ تتزايد معدلات الاعتصامات والتحركات الشعبية ضد إسرائيل في العديد من عواصم الدول الغربية.

وفي التقدير، يمكن القول إن التعامل مع هذه المخاطر يتطلب تطوير إطار تنظيمي دولي يضمن استخدام تقنيات الذكاء الاصطناعي في الحروب بشكل مسؤول وأخلاقي، بالإضافة إلى التركيز على تطوير آليات للمراقبة والرقابة البشرية على عمليات القرار الآلي في الميدان العسكري، كما يتطلب ذلك من المجتمع الدولي العمل وضع قوانين دولية تنظم استخدام الذكاء الاصطناعي في الحروب، بما يضمن احترام حقوق الإنسان والقانون الدولي الإنساني، كما أن هناك ضرورة لتعزيز الشفافية والمساءلة بشأن استخدام الذكاء الاصطناعي في الحروب، من خلال إجراء تقارير دورية وتقييمات مستقلة لتقييم تأثير هذه التقنيات في الحرب والسلام.