أخبار المركز
  • مركز "المستقبل" يشارك في "الشارقة الدولي للكتاب" بـ16 إصداراً جديداً
  • صدور دراسة جديدة بعنوان: (تأمين المصالح الاستراتيجية: تحولات وأبعاد السياسة الخارجية الألمانية تجاه جمهوريات آسيا الوسطى)
  • مركز "المستقبل" يستضيف الدكتور محمود محيي الدين في حلقة نقاشية

المصري اليوم:

شروط التعايش: مخاطر تمرد «الروبوتات القاتلة» فى المجتمعات الحديثة

20 فبراير، 2023


لطالما صُممت الآلات الذكية لمساعدة البشر في نواحٍ مختلفة، إلا أنه في الآونة الأخيرة أصبحت خوارزميات الذكاء الاصطناعى لديها القدرة على تغيير هذا الواقع، فلم تعد الآلات الذكية رهن مساعدة البشر وحسب.

ففى العقدين السابقين، تم تطوير العديد من الأسلحة الروبوتية المستقلة تمامًا، والتى من شأنها تحديد الأهداف وتنفيذها من دون سيطرة بشرية، والتى تُعرف أيضًا باسم «الروبوتات القاتلة»، وتتمتع هذه الأسلحة بالقدرة على اتخاذ قرارات تتعلق بالحياة والموت، وهى قوة كانت سابقًا حصرية للبشر.

وهذا ما يثير مجموعة من المخاوف الأخلاقية والقانونية حول خطورة الاعتماد المفرط على تلك الروبوتات القاتلة.

ففى الوقت الحالى، أصبح الذكاء الاصطناعى يتجاوز رغبات مصمميه ويبتعد عن سيطرتهم أو يتحرك على نحو يتنافس فيه مع العقل البشرى. وهذا ما يؤدى إلى تحديات تتطلب فهمًا أعمق لطبيعة الاعتماد على الروبوتات والآلات الذكية وما سينتج عنها من مشكلات على مستوى العلاقات الإنسانية بشكل عام.

وتراجع كل ما هو متعلق بمفاهيم القوة التقليدية للمجتمعات والدول، الأمر الذي يُفترض فيه تمرد الآلة وتفردها في تحديد أنماط ذاتية الحكم على أمورٍ، سواء كانت في مساحات تقديرية يومية أم مساحات أكثر خطورة وحرجة متعلقة بالحروب ومعطيات السلم الإنسانى.

* التعايش مع الآلات

لم تعد الكتابة عن الروبوتات والذكاء الاصطناعى ضمن الخيال العلمى.. فبدءًا من منتصف القرن العشرين، حددت العديد من الكتابات التصور عن طبيعة التعايش البشرى في المستقبل مع الآلات، وكيف يمكن الدمج بين الخلايا البشرية وتقنيات البرمجة وعناصر ميكانيكية وعضوية معقدة.

فمثلًا وجه إسحاق أسيموف مسار آلاف الفلاسفة والساسة ومحللى العلاقات الدولية والدراسات الأمنية النقدية وغيرهم من المهتمين إلى استكشاف الأخلاق المتعلقة بالروبوتات في الحياة الواقعية حول مشروعية استخدام الأنظمة الروبوتية في المجالات العسكرية والأمنية.

وقد بلورت كتابات نيل ستيفنسون بعض المفاهيم الكامنة وراء مبادرات «ميتافيرس» اليوم، واحتمالية تفاقم استغلال الروبوتات والذكاء الاصطناعى للبيانات المادية والرقمية للنسخ الافتراضية للبشر.

كما وصفت دوريس ليسينج، الحائزة على جائزة نوبل، الخيال العلمى والذكاء الاصطناعى بـ«ديالكتيك العصر». ونصت دونا هاراواى في بيان السايبورغ A Manifesto for Cyborgs على أن الخيال العلمى المعاصر ملىء بما يسمى بـ«السايبورغات» أو «كائن السايبورغ».

وهى مخلوقات تتكون من مزيج من مكونات عضوية وبيو- ميكاترونية قائمة على الدمج في آن واحد بين الحيوانات والآلة/ الخلايا البشرية والآلة، وهذا ما يفرض تناقضات عدة على الهياكل الاجتماعية البشرية المعاصرة التي باتت تشمل الروبوتات داخل حدود سيادات دول وهياكل قوانين دولية.

قد نعيش الآن مع الذكاء الاصطناعى، الروبوتات، وكائن السايبورغ ككائن افتراضى تمتد قدراته الجسدية إلى ما وراء الحدود البشرية العادية بواسطة عناصر ميكانيكية مدمجة في الجسم.

والتى يعتبرها الكثير من المشتغلين بمراقبة المجال الأخلاقى لدى الآلات ومصمميها «بالمخيفة» و«الزاحفة» على العنصر البشرى لسنوات عديدة مقبلة. فالخوف الناتج عن خطر تطور الذكاء الاصطناعى مرتبط بقرارات مخترعيه المفرطة في التصميم على الولوج لمرحلة التطور العاطفى لدى الآلة وجعلها على قدر كبير من الاستقلالية والتطوير الذاتى وذات ردود أفعال انتقائية.

فوصول الذكاء الاصطناعى لهذه المرحلة ستنتج عنه تصورات وسلوكيات من شأنها أن تنحى العنصر البشرى جانبًا ويصعب عليه فهمها أو التنبؤ بها.

وفى كثيرٍ من الأحيان يتم تعديل الروبوتات لأغراض غير أخلاقية وجعلها متاحة قانونًا، لتصبح روبوتًا مخيفًا وضارًا قد يستخدم من قبل نشطاء غير قانونيين. وهذا ما حذر منه كلود شانون، أحد رواد العصر الرقمى الذي اخترع بعض مفاهيمه الأساسية عن الروبوتات والتأصيل الآلاتى.

وتقوم تلك المفاهيم على احتمالية أن تشكل الأنظمة الروبوتية خطرًا خارج حدود السيطرة البشرية، وخلق مجتمع تكون للبشر فيه مكانة اجتماعية منخفضة، مع انتهاء التفوق البشرى بطرق جوهرية، وهذا يؤدى إلى مشاكل أخلاقية واجتماعية واقتصادية خطرة للبشرية بطرق مارقة وغير قابلة للتوقع.

وهنا نبهت جو آن أورافيك، أستاذة في كلية الأعمال والاقتصاد بجامعة ويسكونسن في قسم تكنولوجيا المعلومات، إلى احتمالات حدوث «تمرد ضد الروبوتات» من حكومات وشعوب كنوع من «الغضب ضد الآلة».

ففى المستقبل القريب، ستثير تلك الظواهر جدالات واسعة إلى جانب أشكال مختلفة من الجدالات الأخلاقية المعتادة عن التنمر والتلاعب وسوء المعاملة بين البشر.

وهذا ما أشار إليه قديمًا عالم النفس، إريك فروم، في كتابه المجتمع العاقل عن مخاطر تحول الأفراد نحو الاعتماد غير العاقل على الروبوتات، مقارنًا هذه المكانة بمثيلات العبيد البشريين للآلة.

قد يبدو مصطلح عبيد الآلة قاسيًا بعض الشىء ولكن غالبًا ما يبدو مناسبًا لتوصيف كيفية تأثير الروبوتات وهيمنة الذكاء الاصطناعى على المجتمعات الحديثة من حيث القضايا الأمنية والسياسية والاقتصادية وكذلك الحياة اليومية الإنسانية وما تفرضه من مخاطر وهلاك للمستقبل البشرى.

حيث تكشف الطريقة التي ننظر بها إلى الروبوتات والذكاء الاصطناعى ودمجها في مجتمعاتنا الكثير عن أنفسنا كبشر متعطشين لمزيد من القدرات العقلية والجسدية الماورائية للحدود البشرية العادية.

* تطور الأنظمة الروبوتية

في الوقت الحالى، تم بالفعل تطوير العديد من الأنظمة الروبوتية والآلات ذات العلاقات المعززة بالذكاء الاصطناعى لشغل مهام عسكرية وشرطية وأمنية في مكان البشر.. فاستخدام هذه الأنظمة بالفعل مكّن من التعامل بنجاح مع التهديدات الأمنية بشكل أسرع من البشر.

ولكن هل يمكن لهذه النجاحات أن تقلص من التحكم البشرى في ساحات القتال وتزيد من فشل واضعى السياسات الأمنية في اتخاذ القرارات وحماية المدنيين؟!.

وربما هذا يزيد من القلق العام ضد هذه الأنظمة الروبوتية خصوصًا في أوقات النزاعات لبراعة تطورها الذاتى.

أصبح نشوب نزاع مسلح من دون جنود بشر، وكذلك في مناطق نائية من الأرض وحتى في الفضاء الخارجى (كما هو الحال مع جهود قوة الفضاء الأمريكية)، أمرًا لا مناص منه.

ويروى كريس أوزبورن كيف يقوم الجيش الأمريكى بتكثيف الاستثمارات في الأنظمة الروبوتية القاتلة التي يمكن أن تبقى القوات بعيدة عن الأذى وتكون بمثابة مضاعفة للقوة في ساحات القتال المستقبلية.

يجادل معارضو دمج الأنظمة الروبوتية القاتلة المستقلة والذكية في الحرب بأن تكاليف امتلاك مثل هذه الأنظمة غير الموثوقة والمجهزة لقتل البشر تفوق الفوائد المفترضة في الحماية للأفراد العسكريين والأمنيين وحتى الأفراد المدنيين العاديين.

فيجب أن تثير مثل هذه الأنظمة الروبوتية العسكرية والأمنية الذكية إمكانات واحتمالات تفكير متقدم حول كيفية القضاء على النزاع المسلح تمامًا، بدلًا من تصميم أنماط جديدة للحرب (وإن كانت حربًا «نظيفة» خالية من العنصر البشرى).

وعليه أصبح مصطلح الروبوتات القاتلة Slaughterbots قادرًا على شرح كيفية عمل أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS) Lethal Autonomous Weapon Systems، وهى أنظمة قادرة على تحديد الأهداف واستخدام القوة المميتة من دون سيطرة بشرية.

كالطائرات من دون طيار ذاتية القيادة المبرمجة للاقتراب من موقع معين، والتصويب نحو الهدف دون أي اتصال بإنسان متحكم، مثل الطائرات من دون طيار من نوع «موسكيت» المستخدمة على نحو مكثف في الحرب الروسية الأوكرانية الحالية.

كما أنه في مارس 2020، استخدمت طائرة كارغو 2 كوادكوبتر في الحرب الأهلية الليبية الثانية كأحد أهم أنظمة الطائرات من دون طيار الصغيرة التكتيكية (TACTICAL MINI UAV SYSTEMS) للمقاول العسكرى التركى STM، وفقًا لتقرير أممى رصد أن هذه الطائرة من دون طيار تعقبت وصوبت كسلاح فتاك ذاتى التشغيل بالفعل على أهداف بشرية من دون أن تتلقى تعليمات بذلك من أي عنصر بشرى.. ولا توجد معاهدات أو أنظمة قانونية وسيادية محددة تحظر هذه الأسلحة وتنظم هذه التقنيات دوليًا.

وعلى الجانب الآخر، هناك العديد من القوات العسكرية في دول مختلفة استخدمت بالفعل الروبوتات القتالية بعدة طرق متطورة ولكنها آمنة في نفس الوقت، على سبيل المثال.

«لاستكشاف نيران العدو من زاوية قريبة؛ فحص المبانى بحثًا عن التهديدات الموضعية؛ حمل الذخيرة والماء والعتاد والبطاريات الخاصة بالفرق؛ استخدام كاميرا حرارية ومستشعر كيميائى للإبلاغ عن نظام الصرف الصحى في المدينة؛ وحتى البحث عن المتفجرات أو مقاتلى العدو في الظلام».

ولكن هذا لا ينفى تجاوز تلك الروبوتات القاتلة المستقلة قدرات الدعم إلى مستوى العمليات التي تتخذ فيها مبادرات للانخراط والتنفيذ المباشر للقتال من دون الرجوع للعنصر البشرى.

* الوكالة الذاتية للآلة

الحديث عن الحتمية المتصورة للروبوتات وغيرها من الكيانات المتصلة بالذكاء الاصطناعى يُقدم سيناريوهات للمستقبل حول إنشاء تحكم مستقل ذكى في الإعدادات العسكرية والأمنية، وخطورة تصاعد الاعتماد البشرى على تلك الروبوتات القاتلة، في حين أصبحت الآلات تُهيَّأ بشكل ذاتى لإجراءات أو تدخلات خاصة لإحداث تأثير معين.

فالسيناريو الأول يتعلق بتفوق سيادة الآلة إلى درجة تصل لتحكم الآلة في البشر وتمرّدها على مُطوريها.. حيث يصبح البشر أقل استعدادًا لاتخاذ خيارات بشأن سلامتهم وآفاقهم المستقبلية.

وقد يؤدى تعقيد عمليات بعض الروبوتات العسكرية إلى جعل إشراف البشر عليها صعبًا للغاية.

حتى بالنسبة لأولئك المتمرسين في عملياتهم. فعلى سبيل المثال، نشرت الصين في 2014 مركبات برية روبوتية «UGVs» «Unmanned Ground Vehicles» على الحدود الهندية، في محاولة لتعزيز موقعها على طول الحدود، لكنها تنكر استخدامها لذلك حتى الآن نظرًا لما انتهجته تلك المركبات من سلوكيات معقدة صعبة التفسير.

وفى الوقت الحاضر، يستخدم الجيش الصينى نوعين مختلفين من المركبات البرية الروبوتية وهما Sharp Claw وMule-200 القائمتان على التشغيل عن بُعد، بالإضافة إلى أداء السلوك المستقل.

ويمكن للمركبات Mule-200 إجراء عمليات تسليم أو تشغيل أسلحة نارية، بما في ذلك البنادق المُركبة. وذكرت WION News الهندية أنه تم نشر ما لا يقل عن 400 من منصات الأسلحة الروبوتية على طول الحدود، وهى منصات ذاتية التصرف في العديد من الحوادث التي وصفت بأنها مُقلقة بشأن تطور التفكير الآلى في المناطق الأمنية الحرجة.

ويمكن استغناء تلك الأنظمة الروبوتية عن العنصر البشرى في الاقتراب المستقل من السلوكيات التنفيذية، مثل، الزورق الحربى التابع للبحرية الأمريكية AN-2 Anaconda، وهو مركبة مائية روبوتية مستقلة تمامًا ومجهزة بمعدات صناعية استخباراتية قادرة على الحركة في منطقة ما لفترات طويلة من الوقت من دون تدخل بشرى، خصوصًا مثلما حدث في القواعد العسكرية الأمريكية في مناطق المياه الإقليمية الصينية التايوانية.

وأيضًا الدبابة الروسية الروبوتية بالكامل T-14 Armata، التي تم تصميمها للرد على النيران الواردة بشكل مستقل عن أي طاقم دبابة بالداخل والمستخدمة في الحرب الروسية الأوكرانية الحالية، كما أشاد البنتاجون الأمريكى بالسفينة الحربية المستقلة Sea Hunter باعتبارها تقدمًا كبيرًا في الحروب الروبوتية.

وبالنظر إلى الوتيرة التي يتقدم بها الذكاء الاصطناعى وقدرته على تخصيص وعى آلى وإنشاء فصيلة كاملة من الآلات الذكية، فإنه من المحتمل أن يكون لديه «هدف»، وإن صادف وكان البشر مانعًا يعرقل تحقيقه فالنتيجة هي تدمير البشرية.

وهذا ما دفع للتفكير نحو ضرورة طرح تساؤلات عن كيفية التعايش مع تلك الآلات المُفكرة وإن كانت من صنع الإنسان إلا أنها تطرح تحديات حالية ومستقبلية من شأنها أن تضع الحضارة الإنسانية في مرحلة زوال تراجيدى.

وقد يتمثل السيناريو الآخر في طرح استراتيجيات وقائية من قبل جماعات العلماء الاختصاصيين، تقوم على ترشيد الاعتماد على الروبوتات القاتلة في الحالات العسكرية بوجه خاص، والآلات الذكية بوجه عام، والتحكم البشرى في شكل المستقبل الروبوتى حتى لا تصل الروبوتات إلى مرحلة التفرد ومنظومات الانتقاء والعاطفة الذكية والتحكم في المستقبل البشرى.

فقد شرع الذكاء الاصطناعى في التغيير الراديكالى لنواحٍ متباينة للمجتمعات الإنسانية، ولكن العقد المقبل سيكون حاسمًا في تحديد مقدار ونطاق ذلك التغيير الذي سيؤثر في مفاهيم السيادة والهياكل المؤسسية لأنظمة الدول القومية الحديثة والنظام الدولى برمته.

فيمكن للروبوتات أن تؤثر في النظام الاقتصادى العالمى وتجعله يمر بأزمة معقدة تكون فيها السيطرة على إدارة الشركات الكبرى ورأس المال والتداول للذكاء الاصطناعى والاستعانة بالروبوتات في أغلب المهام الوظيفية مقابل التقاعد البشرى والاستغناء عن توظيف البشر كما هو معمول به حاليًا في العديد من القطاعات الوظيفية والإدارية عالميًا.

ناهيك عن تعرض البيئة لمخاطر التعايش مع أشكال حياة جديدة، فمع سيطرة الآلات الذكية ستصبح الحياة الميكانيكية التي لا تعتمد على الأكسجين هي المُهيمنة لزيادة أعداد الروبوتات على البشر.

وهنا ستعلو فكرة الروبوتات الخالدة على فكرة مفاهيم الموت والفناء البشرى، وبالتالى ستصبح أولويات البشر عن التغير المناخى والطاقة غير معمول بها لدى الذكاء الاصطناعى.

وختامًا، يدفع كل ذلك للاعتقاد بأن الحضارة الإنسانية بأكملها على أعتاب تغير راديكالى لم تعد فيه المركزية البشرية هي المخطط والمنفذ الوحيد، وهذا ما يتطلب تجاوز الحدود التنظيرية والتطبيقية من أجل فهم دور التقنيات الروبوتية ككيانات ذاتية التنظيم بطريقة منطقية لديها قدرات تفاعلية وإمكانية إسناد مستقلة، من خلال أطر تحليلية جديدة.

ويعد تجاوز تلك الحدود أمرًا بالغ الأهمية لفهم حقيقة الوكالة غير البشرية Non-Human Agency والذاتية لدى الروبوتات والذكاء الاصطناعى. كما أصبحت «المعلومات» والأنظمة الروبوتية الجديدة كيانًا مستقلًا، وهذا ما أسهم في المناقشات عن فلسفة وأنطولوجيا المعلومات التي يصبح فيها الإنسان الكيان الأضعف.

وعلو قوة الآلة وتفوقها على مطوريها، حيث أصبحت المقاربات البشرية Anthropocentric Approaches لفهم الثورة الآلية الحالية غير كافية لدراسة التعقيدات الروبوتية والذكاء الاصطناعى الحديث، لأنها تعطى الأولوية للسيطرة الذاتية البشرية «الاستثنائية البشرية» على الوكالة الروبوتية.

*لينك المقال في المصري اليوم*