أخبار المركز
  • مركز "المستقبل" يستضيف الدكتور محمود محيي الدين في حلقة نقاشية
  • مُتاح عدد جديد من سلسلة "ملفات المستقبل" بعنوان: (هاريس أم ترامب؟ الانتخابات الأمريكية 2024.. القضايا والمسارات المُحتملة)
  • د. أحمد سيد حسين يكتب: (ما بعد "قازان": ما الذي يحتاجه "بريكس" ليصبح قوة عالمية مؤثرة؟)
  • أ.د. ماجد عثمان يكتب: (العلاقة بين العمل الإحصائي والعمل السياسي)
  • أ. د. علي الدين هلال يكتب: (بين هاريس وترامب: القضايا الآسيوية الكبرى في انتخابات الرئاسة الأمريكية 2024)

سباق الابتكار:

اتجاهات خفض مخاطر الاستخدام العسكري للذكاء الاصطناعي

10 مايو، 2022


عرض: محمود إبراهيم

أعادت الحرب الأوكرانية - الروسية إلى الواجهة النقاش حول استخدامات الذكاء الاصطناعي في الابتكار العسكري والدفاعي، إذ لجأ الطرفان إلى استخدام الخوارزميات لتحليل مجموعة كبيرة من البيانات مفتوحة المصدر القادمة من وسائل التواصل الاجتماعي وساحة المعركة، مما يسمح لهما بتقدير هجماتهما بشكلٍ أفضل. 

كذلك، استخدمت موسكو الذكاء الاصطناعي لتصوير مقاطع فيديو مزيفة ونشر معلومات مضللة حول غزوها أوكرانيا، فيما وظفته الصين وألمانيا والولايات المتحدة لإنشاء تصورات فعلية لساحات المعارك.

وعلى الرغم من أن كبار قادة الجيش الأمريكي أمضوا عقوداً في الحديث عن أهمية التقنيات العسكرية الحديثة، بما في ذلك الذكاء الاصطناعي والأنظمة ذاتية التشغيل، فإن العمل على أرض الواقع كان بطيئاً بشكل كبير رغم أن الذكاء الاصطناعي سيلعب في المستقبل دوراً رئيسياً في كيفية قيام الجيوش بتجنيد الأفراد وتدريبهم، وكيفية نشر القوات، وأساليب القتال.

في هذا الإطار، نشرت مجلة الفورين أفيرز في عدد مايو/ يونيو 2022 تحليلاً لمجموعة من الخبراء يطرحون فيه مقاربة لتخفيض مخاطر استخدام الذكاء الاصطناعي في الابتكار العسكري، وذلك لمواجهة حالة البطء الأمريكي في هذا المجال، وبما يفتح الطريق أمام مواجهة واشنطن الصعود المتنامي للصين وروسيا في التكنولوجيات العسكرية. 

تقدم بطيء:

تشير مجلة الفورين أفيرز إلى معضلة التقدم البطيء للولايات المتحدة في استخدام الذكاء الاصطناعي في الابتكار العسكري، وهو ما اعتبرته تناقضاً صارخاً مع سلوك الصين، المنافس الجيوسياسي الأقوى لواشنطن. فعلى مدى السنوات القليلة الماضية، استثمرت بكين تقريباً المبلغ نفسه الذي استثمرته الولايات المتحدة في البحث والتطوير في مجال الذكاء الاصطناعي، لكنها تدمج التكنولوجيا بقوة أكبر في استراتيجيتها العسكرية وتخطيطها وأنظمتها، فيما تعمل روسيا أيضاً على تطوير تقنية عسكرية مدعومة بالذكاء الاصطناعي يمكن أن تهدد القوات المعادية والبنية التحتية الحيوية.

ويضرب الخبراء في تحليلهم مثالاً على ذلك بأن جهود القوات الجوية والبحرية الأمريكية تضافرت بدءاً من عام 2003؛ لإنشاء النماذج الأولية «X-45» و«X-47A»، وهي طائرات مسيرة شبه ذاتية التحكم، ويمكنها التخفي والقيام بعمليات المراقبة والضربات العسكرية، لكن العديد من القادة العسكريين اعتبروها تمثل تهديداً قد يؤثر على الطائرة المقاتلة «F-35»، وانسحبت القوات الجوية من البرنامج. 

ثم قامت البحرية الأمريكية بتمويل نموذج أولي أكثر إثارة للإعجاب، وهو مسيرة «X-47B»، القادرة على الطيران بدقة الطائرة نفسها التي يقودها الإنسان، لكن البحرية اعتبرت أيضاً هذه النماذج بمنزلة تهديد للطائرات المأهولة، وتراجعت في النهاية، وبدلاً من ذلك، اختارت المضي قدماً في مشروع طائرة مسيرة غير مسلحة وذات قدرات محدودة للغاية.

إلا أن تصاعد السباق على التكنولوجيا العسكرية مع الصين، دفع إدارة بايدن إلى اتخاذ خطوات إيجابية نحو تعزيز الاستفادة العسكرية من الذكاء الاصطناعي، فقد أنشأت فرقة العمل الوطنية لموارد أبحاث الذكاء الاصطناعي، والمكلفة بنشر الوصول إلى أدوات البحث التي ستساعد في تعزيز ابتكارات الذكاء الاصطناعي، كما أنشأت منصب كبير مسؤولي الذكاء الرقمي والاصطناعي في وزارة الدفاع، وتتركز مهمته في ضمان قيام البنتاجون بتوسيع نطاق جهود الذكاء الاصطناعي وتسريعها.

عواقب الفشل:

لطالما كان الابتكار التكنولوجي حاسماً في النجاح العسكري للولايات المتحدة، فخلال الحرب الأهلية الأمريكية، استخدم الرئيس الأمريكي آنذاك إبراهام لنكولن نظام التلغراف في الشمال للتواصل مع القادة العسكريين وتنسيق الخطط وتحريك القوات، مما ساعد ولايات الاتحاد الشمالية على هزيمة الولايات الجنوبية الكونفدرالية، وفي أوائل التسعينيات، استخدمت واشنطن ذخائر جديدة دقيقة التوجيه في حرب الخليج لطرد العراق من الكويت.

لكن اليوم، يبدو أن وزارة الدفاع الأمريكية منحازة – كما تشير الفورين أفيرز- لصالح القدرات المجربة والحقيقية أكثر من الأدوات الجديدة، وفي بعض الأحيان، يبدو أن البنتاجون يتباطأ فيما يخص الذكاء الاصطناعي والأنظمة ذاتية التحكم؛ لأنه يخشى أن اعتماد هذه التقنيات قد يتطلب تغييرات جذرية من شأنها أن تهدد الأقسام الحالية الناجحة من القوات المسلحة.

وإذا فشلت الولايات المتحدة في تطوير الذكاء الاصطناعي بشكلٍ فعَّال، فقد تجد نفسها تحت رحمة خصوم يتطورون بشكلٍ متزايد. فعلى سبيل المثال، تستخدم الصين الذكاء الاصطناعي بالفعل في تحديد سيناريوهات أي نزاع مستقبلي حول تايوان، وكذلك جعل الهجوم البرمائي على تايوان أكثر قابلية للنجاح، إضافة إلى تتبع المركبات تحت البحر وسفن البحرية الأمريكية، وتطوير القدرة على شن هجمات حربية بطائرات منخفضة التكلفة وكثيرة العدد. وإذا كانت الولايات المتحدة تفتقر إلى قدرات الذكاء الاصطناعي المتقدمة فستكون أقل قدرة على مساعدة تايوان في مقاومة الغزو.

حوادث خطيرة:

يخشى العديد من المحللين أنه إذا تحرَّك الجيش الأمريكي بسرعة كبيرة أثناء تطويره أسلحة الذكاء الاصطناعي. فقد يتعرض العالم لحوادث خطيرة، وربما كارثية. وينبع خطر الذكاء الاصطناعي من استخدام أنظمة خوارزمية في ساحة المعركة وخارجها بطريقة قد تؤدي إلى وقوع حوادث أو أعطال أو حتى تصعيد غير مقصود، فقد تم تصميم الخوارزميات لتكون سريعة وحاسمة، لذلك يمكن أن تسبب أخطاء في المواقف التي تتطلب دراسة متأنية.

فعلى سبيل المثال، أخطأ النظام الآلي لصاروخ باتريوت «MIM-104» أرض - جو في عام 2003 في التعرف على طائرة صديقة وحددها كخصم، مما أدى إلى وفاة طيار أمريكي بنيران صديقة، وتظهر الأبحاث أنه كلما كان الموقف أكثر صعوبة وإجهاداً من الناحية المعرفية زاد خضوع الناس لأحكام الذكاء الاصطناعي؛ ما يعني أنه في بيئة ميدان المعركة حيث يتم تشغيل العديد من الأنظمة العسكرية آلياً، يمكن أن تتضاعف هذه الأنواع من الحوادث.

بالطبع يرتكب البشر أخطاء فادحة أيضاً، ولكن حتى خوارزميات الذكاء الاصطناعي الجيدة يمكن أن تكون أكثر عرضة للحوادث من البشر، حيث يمكن للأشخاص التفكير في الفروق الدقيقة والسياق عند اتخاذ القرارات، في حين يتم تدريب خوارزميات الذكاء الاصطناعي على إصدار أحكام واضحة والعمل في ظل مجموعات محددة من الظروف، وإذا تم تكليف أنظمة الذكاء الاصطناعي بإطلاق صواريخ أو استخدام أنظمة دفاع جوي خارج معايير التشغيل العادية، فقد تتعطل هذه الأنظمة بشكل مدمر وتطلق ضربات غير مقصودة.

ومن غير المحتمل أن تُمنح الآلات التي تدعم الذكاء الاصطناعي القدرة على شن هجمات نووية فعلياً، لكن الخوارزميات يمكن أن تقدم في النهاية توصيات إلى صانعي السياسة حول ما إذا كان سيتم إطلاق سلاح استجابة لتنبيه من نظام دفاع جوي للإنذار المبكر. وإذا أعطى الذكاء الاصطناعي الضوء الأخضر، فقد لا يتمكن الجنود الذين يشرفون على هذه الآلات من التأكد من مخرجاتها بشكلٍ مناسب ومراقبة الآلات بحثاً عن الأخطاء المحتملة في بيانات الإدخال، خاصةً إذا كان الموقف يتحرك بسرعة كبيرة.

مراعاة الأمان:

تواجه الولايات المتحدة مخاطر متباينة تتعلق بالذكاء الاصطناعي، فإذا تحركت ببطء شديد، فقد يتفوق عليها منافسوها، مما يُعرِّض الأمن القومي للخطر، وإذا تحركت بسرعة كبيرة، فقد تتنازل عن معايير السلامة وتتبنى أنظمة ذكاء اصطناعي تتسبب في وقوع حوادث خطيرة، وعلى الرغم من أن الحالة الأولى تمثل خطراً أكبر من الأخيرة، فمن الأهمية بمكان أن تأخذ الولايات المتحدة المخاوف بشأن معايير السلامة على محمل الجد.

يمكن لواشنطن – كما يشير الخبراء في الفورين أفيرز- أن تبدأ بالتفكير في التطور التكنولوجي للذكاء الاصطناعي من خلال ثلاث مراحل، وهي الاختراع، والحضانة، والتنفيذ، على أن يتم التحرك بسرعات مختلفة مناسبة لكل مرحلة. فمثلاً، هناك ضرر ضئيل من التحرك بسرعة في المرحلتين الأوليين، وينبغي للجيش الأمريكي أن يطور بسرعة ويجرب التقنيات الجديدة والمفاهيم التشغيلية، لكنها ستحتاج إلى معالجة مخاوف السلامة والموثوقية بدقة أثناء التنفيذ.

لتحقيق هذا التوازن، سيحتاج الجيش الأمريكي إلى التأكد من أن أفراده يتعاملون بشكلٍ أفضل مع جميع بيانات وزارة الدفاع، كما سيحتاج البنتاجون إلى البناء على جهوده المستمرة لإنشاء بنية تحتية مشتركة للبيانات، وينبغي الإشارة هنا إلى أهمية الخطوة التي يتخذها البنتاجون من خلال دمج مسؤولياته المتعلقة بالبيانات والذكاء الاصطناعي تحت رعاية كبير مسؤولي الذكاء الرقمي والاصطناعي، لكن إعادة التنظيم تلك لن تنجح ما لم يتمتع المسؤول الجديد بالسلطة التي تمكنه من التغلب على الحواجز البيروقراطية التي تحول دون اعتماد الذكاء الاصطناعي في كل من الخدمات العسكرية وأقسام أخرى من البنتاجون.

يساعد تقديم بيانات أفضل للباحثين أيضاً في ضمان خضوع كل خوارزمية لاختبارات أمان صارمة، ويمكن للمفتشين، على سبيل المثال، إدخال مجموعة واسعة من المعلومات المعقدة أو غير الصحيحة تماماً في نظام ذكاء اصطناعي عن عمد لمعرفة ما إذا كان ينتج عنه ناتج خاطئ مثل، التوجيه لضرب طائرة صديقة، وسيساعد هذا الاختبار في التوصل لفكرة أساسية عن مدى موثوقية ودقة أنظمة الذكاء الاصطناعي، ووضع هامش خطأ يمكن للمشغلين النهائيين أخذه في الاعتبار.

وسيتطلب التصنيع المبتكر والآمن للذكاء الاصطناعي أيضًا اتصالاً أوثق بين قسم شؤون الأبحاث والهندسة وبقية أقسام البنتاجون. فمن الناحية النظرية، يعتبر قسم شؤون الأبحاث والهندسة مسؤولاً عن الابتكار التكنولوجي داخل الوزارة، ولكن وفقاً لتقرير صادر عن ميليسا فلاج وجاك كوريجان، من مركز الأمن والتكنولوجيا الناشئة، فإن جهود البنتاجون للابتكار غير منظمة، حيث تجري عبر 28 منظمة على الأقل داخل الوزارة، وبالطبع ستستفيد كل هذه الجهود من مزيد من التنسيق، وهو ما يمكن أن يوفره قسم شؤون الأبحاث والهندسة. وأحد العوامل الباعثة على التفاؤل هنا هو أن قسم شؤون الأبحاث والهندسة أنشأ مؤخرًا "احتياطي التجارب الدفاعية السريعة"، وهي مبادرة ستسمح للبنتاجون بإنشاء نماذج أولية بسرعة أكبر، وتجربة التقنيات الحديثة في الأقسام الأكثر احتياجاً داخل الجيش، ومن شأنها زيادة التنسيق وتسريع الاعتماد.

لكن البنتاجون لا يستطيع تحفيز المزيد من الابتكار الفعَّال من خلال الإصلاحات الهيكلية فقط، بل سيحتاج أيضاً إلى الأشخاص المناسبين، فالأمر يتطلب المزيد من المواهب في مجالات العلوم والتكنولوجيا والهندسة والرياضيات إذا كانت الولايات المتحدة تريد أن تضمن الانتصار في أي حرب مستقبلية؛ وهذا يعني أن وزارة الدفاع يجب أن توظف المزيد من الأفراد الذين يدرسون الذكاء الاصطناعي، ويعني أيضاً أنه يجب عليها تقديم دورات تدريبية في الترميز وتحليل البيانات للموظفين الحاليين، ومنح نقوداً إضافية أو مزيداً من أوقات الراحة للموظفين المسجلين في هذه الدورات، تماماً كما هي الحال بالنسبة للموظفين الذين يدرسون اللغات الأجنبية.

ثقافة الابتكار:

وكجزء من إصلاحها، ستحتاج وزارة الدفاع أيضاً إلى تغيير ثقافتها، ففي الوقت الحالي، غالباً ما يتباطأ مسؤولو وزارة الدفاع أو يتجنبون المبادرات الخطرة لتجنب الإضرار بالسمعة المصاحب للفشل، ويتم دفن المشاريع الواعدة في هذه العملية، رغم أن التجربة والخطأ جزء لا يتجزأ من الابتكار، ولذلك يرى الخبراء في تحليلهم أنه يجب أن يكافئ كبار القادة في البنتاجون مديري البرامج والباحثين على العدد الإجمالي للتجارب والمفاهيم التشغيلية التي يختبرونها بدلاً من النسبة المئوية للتجارب الناجحة.

وحتى التجارب غير الناجحة، يمكن أن تكون مفيدة من الناحية الاستراتيجية، فعلى سبيل المثال يولي الجيش الصيني اهتماماً وثيقاً للقدرات العسكرية والتخطيط الأمريكيين، مما قد يسمح للولايات المتحدة بتعطيل خطط بكين من خلال الكشف الانتقائي عن النماذج الأولية، بما في ذلك التي لم تنجح، فذلك قد يؤدي إلى تتبع الصين للنماذج الأمريكية المعيبة في بعض الأحيان، بينما تكون غير متأكدة مما ستنشره الولايات المتحدة أو تطوره بعد ذلك.

وفي الأخير، فإن القوة العسكرية تتعلق في نهاية المطاف بالأشخاص والمنظمات أكثر من الأدوات، ويظهر التاريخ أنه حتى الجيوش الأكثر نجاحاً تحتاج إلى دمج قدرات جديدة في خططها إذا أرادت الفوز في ساحة المعركة، ومع عودة الحرب التقليدية كما في أوكرانيا، ستحتاج الولايات المتحدة إلى التكيف وإعادة هيكلة جيشها من أجل المستقبل.

المصدر:

Michael C. Horowitz, Lauren Kahn, and Laura Resnick Samotin, A Force for the Future:  A HighReward, LowRisk Approach to AI Military Innovation, foreign affairs, Volume 101, Number 3, MAY/JUNE 2022, p – p: 157 – 164.