أخبار المركز
  • د. إبراهيم فوزي يكتب: (المعضلة الروسية: المسارات المُحتملة لأزمات الانتخابات في جورجيا ورومانيا)
  • إسلام المنسي يكتب: (جدل الوساطة: هل تخلت سويسرا عن حيادها في قضايا الشرق الأوسط؟)
  • صدور العدد 38 من دورية "اتجاهات الأحداث"
  • د. إيهاب خليفة يكتب: (الروبوتات البشرية.. عندما تتجاوز الآلة حدود البرمجة)
  • د. فاطمة الزهراء عبدالفتاح تكتب: (اختراق الهزلية: كيف يحدّ المحتوى الإبداعي من "تعفن الدماغ" في "السوشيال ميديا"؟)

شروط التعايش:

مخاطر تمرد "الروبوتات القاتلة" في المجتمعات الحديثة

10 فبراير، 2023


لطالما صُممت الآلات الذكية لمساعدة البشر في نواح مختلفة، إلا إنه في الآونة الأخيرة أصبحت خوارزميات الذكاء الاصطناعي لديها القدرة على تغيير هذا الواقع، فلم تعد الآلات الذكية رهن مساعدة البشر وحسب. ففي العقدين السابقين، تم تطوير العديد من الأسلحة الروبوتية المستقلة تماماً، والتي من شأنها تحديد الأهداف وتنفيذها من دون سيطرة بشرية، والتي تُعرف أيضاً باسم "الروبوتات القاتلة"، وتتمتع هذه الأسلحة بالقدرة على اتخاذ قرارات تتعلق بالحياة والموت، وهي قوة كانت سابقاً حصرية للبشر. وهذا ما يثير مجموعة من المخاوف الأخلاقية والقانونية حول خطورة الاعتماد المفرط على تلك الروبوتات القاتلة. 
ففي الوقت الحالي، أصبح الذكاء الاصطناعي يتجاوز رغبات مصمميه ويبتعد عن سيطرتهم أو يتحرك على نحو يتنافس فيه مع العقل البشري. وهذا ما يؤدي إلى تحديات تتطلب فهماً أعمق لطبيعة الاعتماد على الروبوتات والآلات الذكية وما سينتج عنها من مشكلات على مستوى العلاقات الإنسانية بشكل عام وتراجع كل ما هو متعلق بمفاهيم القوة التقليدية للمجتمعات والدول، الأمر الذي يٌفترض فيه تمرد الآلة وتفردها في تحديد أنماط ذاتية الحكم على أمور سواءً كانت في مساحات تقديرية يومية أم مساحات أكثر خطورة وحرجة متعلقة بالحروب ومعطيات السلم الإنساني.
التعايش مع الآلات
لم تعد الكتابات عن الروبوتات والذكاء الاصطناعي من ضمن الخيال العلمي. فبدءاً من منتصف القرن العشرين، حددت العديد من الكتابات التصور عن طبيعة التعايش البشري في المستقبل مع الآلات وكيف يمكن الدمج بين الخلايا البشرية وتقنيات البرمجة وعناصر ميكانيكية وعضوية معقدة. فمثلاً وجه إسحاق أسيموف مسار آلاف الفلاسفة والساسة ومحللي العلاقات الدولية والدراسات الأمنية النقدية وغيرهم من المهتمين باستكشاف الأخلاق المتعلقة بالروبوتات في الحياة الواقعية حول مشروعية استخدام الأنظمة الروبوتية في المجالات العسكرية والأمنية. وقد بلورت كتابات نيل ستيفنسون بعض المفاهيم الكامنة وراء مبادرات "ميتافيرس" اليوم واحتمالية تفاقم استغلال الروبوتات والذكاء الاصطناعي للبيانات المادية والرقمية للنسخ الافتراضية للبشر. 
كما وصفت دوريس ليسينج الحائزة على جائزة نوبل الخيال العلمي والذكاء الاصطناعي بديالكتيك العصر. ونصت دونا هاراواي في بيان السايبورغ A Manifesto for Cyborgs  على أن الخيال العلمي المعاصر مليء بما يٌسمى بالسايبورغات أو كائن السايبورغ، وهي مخلوقات تتكون من مزيج من مكونات عضوية وبيو-ميكاترونية قائمة على الدمج في آن واحد بين الحيوانات والآلة/ الخلايا البشرية والآلة، وهذا ما يفرض تناقضات عدة على الهياكل الاجتماعية البشرية المعاصرة التي باتت تشمل الروبوتات داخل حدود سيادات دول وهياكل قوانين دولية.
قد نعيش الآن مع الذكاء الاصطناعي، الروبوتات، وكائن السايبورغ ككائن افتراضي تمتد قدراته الجسدية إلى ما وراء الحدود البشرية العادية بواسطة عناصر ميكانيكية مدمجة في الجسم، والتي يعتبرها الكثير من المشتغلين بمراقبة المجال الأخلاقي لدى الآلات ومٌصمميها "بالمخيفة" و"الزاحفة" على العنصر البشري لسنوات عديدة مقبلة. فالخوف الناتج من خطر تطور الذكاء الاصطناعي مرتبط بقرارات مخترعيه المفرطة في التصميم على الولوج لمرحلة التطور العاطفي لدى الآلة وجعلها على قدر كبير من الاستقلالية والتطوير الذاتي وذات ردود أفعال انتقائية. فوصول الذكاء الاصطناعي لهذه المرحلة سينتج عنه تصورات وسلوكيات من شأنها أن تنحي العنصر البشري جانباً ويصعب عليه فهمها أو التنبؤ بها.
وفي كثير من الأحيان يتم تعديل الروبوتات لأغراض غير أخلاقية وجعلها متاحة قانوناً، لتصبح روبوتاً مخيفاً وضاراً قد يستخدم من قبل نشطاء غير قانونيين. وهذا ما حذر منه كلود شانون أحد رواد العصر الرقمي الذي اخترع بعض مفاهيمه الأساسية عن الروبوتات والتأصيل الآلاتي، وتقوم تلك المفاهيم على احتمالية أن تشكل الأنظمة الروبوتية خطراً خارج حدود السيطرة البشرية وخلق مجتمع يكون للبشر فيه مكانة اجتماعية منخفضة مع انتهاء التفوق البشري بطرق جوهرية، وهذا ما يؤدي إلى مشاكل أخلاقية واجتماعية واقتصادية خطرة للبشرية بطرق مارقة وغير قابلة للتوقع.
وهنا نبهت جو آن أورافيك، أستاذة في كلية الأعمال والاقتصاد بجامعة ويسكونسن في قسم تكنولوجيا المعلومات، إلى احتمالات حدوث "تمرد ضد الروبوتات" من حكومات وشعوب كنوع من "الغضب ضد الآلة". ففي المستقبل القريب، ستثير تلك الظواهر جدالات واسعة إلى جانب أشكال مختلفة من الجدالات الأخلاقية المعتادة عن التنمر والتلاعب وسوء المعاملة بين البشر. وهذا ما أشار إليه قديماً عالم النفس، إريك فروم، في كتابه المجتمع العاقل عن مخاطر تحول الأفراد نحو الاعتماد غير العاقل على الروبوتات، مقارناً هذه المكانة بمثيلات العبيد البشريين للآلة. قد يبدو مصطلح عبيد الآلة قاسياً بعض الشيء ولكن غالباً ما يبدو مناسباً لتوصيف كيفية تأثير الروبوتات وهيمنة الذكاء الاصطناعي على المجتمعات الحديثة من حيث القضايا الأمنية والسياسية والاقتصادية وكذلك الحياة اليومية الإنسانية وما تفرضه من مخاطر وهلاك للمستقبل البشري. حيث تكشف الطريقة التي ننظر بها إلى الروبوتات والذكاء الاصطناعي ودمجها في مجتمعاتنا الكثير عن أنفسنا كبشر متعطشين للمزيد من القدرات العقلية والجسدية الماورائية للحدود البشرية العادية.
تطور الأنظمة الروبوتية 
في الوقت الحالي، تم بالفعل تطوير العديد من الأنظمة الروبوتية والآلات ذات العلاقات المعززة بالذكاء الاصطناعي لشغل مهام عسكرية وشرطية وأمنية في مكان البشر. فاستخدام هذه الأنظمة بالفعل مكن من التعامل بنجاح مع التهديدات الأمنية بشكل أسرع من البشر، ولكن هل يمكن لهذه النجاحات أن تقلص من التحكم البشري في ساحات القتال وتزيد من فشل واضعي السياسات الأمنية في اتخاذ القرارات وحماية المدنيين. وربما هذا يزيد من القلق العام ضد هذه الأنظمة الروبوتية خصوصاً في أوقات النزاعات لبراعة تطورها الذاتي. 
أصبح نشوب نزاع مسلح من دون جنود بشر وكذلك في مناطق نائية من الأرض وحتى في الفضاء الخارجي (كما هو الحال مع جهود قوة الفضاء الأمريكية) أمر لا مناص منه. ويروي كريس أوزبورن كيف يقوم الجيش الأمريكي بتكثيف الاستثمارات في الأنظمة الروبوتية القاتلة التي يمكن أن تبقي القوات بعيدة عن الأذى وتكون بمثابة مضاعفة للقوة في ساحات القتال المستقبلية. 
يجادل معارضو دمج الأنظمة الروبوتية القاتلة المستقلة والذكية في الحرب بأن تكاليف امتلاك مثل هذه الأنظمة غير الموثوقة والمجهزة لقتل البشر تفوق الفوائد المفترضة في الحماية للأفراد العسكريين والأمنيين وحتى الأفراد المدنيين العاديين. فيجب أن تثير مثل هذه الأنظمة الروبوتية العسكرية والأمنية الذكية إمكانات واحتمالات تفكير متقدم حول كيفية القضاء على النزاع المسلح تماماً، بدلاً من تصميم أنماط جديدة للحرب (وإن كانت حرباً "نظيفة" خالية من العنصر البشري).
وعليه أصبح مصطلح الروبوتات القاتلة Slaughterbots قادراً على شرح كيفية عمل أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS) Lethal Autonomous Weapon Systems وهي أنظمة قادرة على تحديد الأهداف واستخدام القوة المميتة من دون سيطرة بشرية كالطائرات من دون طيار ذاتية القيادة المبرمجة للاقتراب من موقع معين والتصويب نحو الهدف دون أي اتصال بإنسان متحكم، مثل الطائرات من دون طيار من نوع "موسكيت" المستخدمة على نحو مكثف في الحرب الروسية الأوكرانية الحالية. كما أنه في مارس 2020، اسُتخدمت طائرة كارغو 2 كوادكوبتر في الحرب الأهلية الليبية الثانية كإحدى أهم أنظمة الطائرات من دون طيار الصغيرة التكتيكية(TACTICAL MINI UAV SYSTEMS)  للمقاول العسكري التركي STM، وفقاً لتقرير أممي رصد أن هذه الطائرة من دون طيار تعقبت وصوبت، كسلاح فتاك ذاتي التشغيل، بالفعل على أهداف بشرية من دون أن تتلقى تعليمات بذلك من أي عنصر بشري. ولا توجد معاهدات أو أنظمة قانونية وسيادية محددة تحظر هذه الأسلحة وتنظم هذه التقنيات دولياً.
وعلى الجانب الآخر، هناك العديد من القوات العسكرية في دول مختلفة استخدمت بالفعل الروبوتات القتالية بعدة طرق متطورة ولكنها آمنة في نفس الوقت، على سبيل المثال، "لاستكشاف نيران العدو من زاوية قريبة؛ فحص المباني بحثاً عن التهديدات الموضعية؛ حمل الذخيرة والماء والعتاد والبطاريات الخاصة بالفرق؛ استخدام كاميرا حرارية ومستشعر كيميائي للإبلاغ عن نظام الصرف الصحي في المدينة؛ وحتى البحث عن المتفجرات أو مقاتلي العدو في الظلام"، ولكن هذا لا ينفي تجاوز تلك الروبوتات القاتلة المستقلة قدرات الدعم إلى مستوى العمليات التي تتخذ فيها مبادرات للانخراط والتنفيذ المباشر للقتال من دون الرجوع للعنصر البشري.

الوكالة الذاتية للآلة 
الحديث عن الحتمية المتصورة للروبوتات وغيرها من الكيانات المتصلة بالذكاء الاصطناعي يُقّدم سيناريوهات للمستقبل حول إنشاء تحكم مستقل ذكي في الإعدادات العسكرية والأمنية، وخطورة تصاعد الاعتماد البشري على تلك الروبوتات القاتلة في حين أصبحت الآلات تُهيَّأ بشكل ذاتي لإجراءات أو تدخلات، خاصة لإحداث تأثير معين.
فالسيناريو الأول، يتعلق بتفوق سيادة الآلة إلى درجة تصل لتحكم الآلة في البشر وتمرّدها على مُطوريها. حيث يصبح البشر أقل استعداداً لاتخاذ خيارات بشأن سلامتهم وآفاقهم المستقبلية. وقد يؤدي تعقيد عمليات بعض الروبوتات العسكرية إلى جعل إشراف البشر عليها صعباً للغاية، حتى بالنسبة لأولئك المتمرسين في عملياتهم. فعلى سبيل المثال، نشرت الصين في 2014 مركبات برية روبوتية "UGVs" "Unmanned Ground Vehicles" على الحدود الهندية في محاولة لتعزيز موقعها على طول الحدود لكنها تنكر استخدامها لذلك حتى الآن نظراً لما انتهجته تلك المركبات من سلوكيات معقدة صعبة التفسير. وفي الوقت الحاضر، يستخدم الجيش الصيني نوعين مختلفين من المركبات البرية الروبوتية وهما Sharp Claw وMule-200 القائمة على التشغيل عن بُعد بالإضافة إلى أداء السلوك المستقل. 
ويمكن للمركبات Mule-200 إجراء عمليات تسليم أو تشغيل أسلحة نارية، بما في ذلك البنادق المُركبة. وذكرت WION News الهندية أنه تم نشر ما لا يقل عن 400 من منصات الأسلحة الروبوتية على طول الحدود، وهي منصات ذاتية التصرف في العديد من الحوادث التي وصفت بإنها مُقلقة بشأن تطور التفكير الآلي في المناطق الأمنية الحرجة. ويمكن استغناء تلك الأنظمة الروبوتية عن العنصر البشري في الاقتراب المستقل من السلوكيات التنفيذية، مثل، الزورق الحربي التابع للبحرية الأمريكية AN-2 Anaconda، وهو مركبة مائية روبوتية مستقلة تماماً ومجهزة بمعدات صناعية استخباراتية قادرة على الحركة في منطقة ما لفترات طويلة من الوقت من دون تدخل بشري، خصوصاً مثلما حدث في القواعد العسكرية الأمريكية في مناطق المياة الأقليمية الصينية التايوانية. وأيضاً الدبابة الروسية الروبوتية بالكاملT-14 Armata، التي تم تصميمها للرد على النيران الواردة بشكل مستقل عن أي طاقم دبابة بالداخل والمستخدمة في الحرب الروسية الأوكرانية الحالية، كما أشاد البنتاغون الأمريكي بالسفينة الحربية المستقلة Sea Hunter باعتبارها تقدماً كبيراً في الحروب الروبوتية. 
وبالنظر إلى الوتيرة التي يتقدم بها الذكاء الاصطناعي وقدرته على تخصيص وعي آلي وإنشاء فصيلة كاملة من الآلات الذكية، فإنه من المحتمل أن يكون لديه "هدف" وإن صادف وكان البشر مانعاً يعرقل تحقيقه فالنتيجة هي تدمير البشرية. وهذا ما دفع للتفكير نحو ضرورة طرح تساؤلات عن كيفية التعايش مع تلك الآلات المُفكرة وإن كانت من صنع الإنسان إلا أنها تطرح تحديات حالية ومستقبلية من شأنها أن تضع الحضارة الإنسانية في مرحلة زوال تراجيدي. 
وقد يتمثل السيناريو الآخر، في طرح استراتيجيات وقائية من قبل جماعات العلماء الاختصاصيين تقوم على ترشيد الاعتماد على الروبوتات القاتلة في الحالات العسكرية بوجه خاص والآلات الذكية بوجه عام والتحكم البشري في شكل المستقبل الروبوتي حتى لاتصل الروبوتات إلى مرحلة التفرد ومنظومات الانتقاء والعاطفة الذكية والتحكم في المستقبل البشري. فقد شرع الذكاء الاصطناعي في التغيير الراديكالي لنواح متباينة للمجتمعات الإنسانية، ولكن العقد المقبل سيكون حاسماً في تحديد مقدار ونطاق ذلك التغيير الذي سيؤثر في مفاهيم السيادة والهياكل المؤسسية لأنظمة الدول القومية الحديثة والنظام الدولي برمته. 
فيمكن للروبوتات أن تؤثر في النظام الاقتصادي العالمي وتجعله يمر بأزمة معقدة تكون فيها السيطرة على إدارة الشركات الكبرى ورأس المال والتداول للذكاء الاصطناعي والاستعانة بالروبوتات في أغلب المهام الوظيفية مقابل التقاعد البشري والاستغناء عن توظيف البشر كما هو معمول بيه حالياً في العديد من القطاعات الوظيفية والإدارية عالمياً. ناهيك عن تعرض البيئة لمخاطر التعايش مع أشكال حياة جديدة، فمع سيطرة الآلات الذكية ستصبح الحياة الميكانيكية التي لا تعتمد على الأكسجين هي المُهيمنة لزيادة أعداد الروبوتات على البشر، وهنا ستعلو فكرة الروبوتات الخالدة على فكرة مفاهيم الموت والفناء البشري وبالتالي ستصبح أولويات البشر عن التغير المناخي والطاقة غير معمول بها لدى الذكاء الاصطناعي.  
وختاماً، يدفع كل ذلك للاعتقاد بأن الحضارة الإنسانية بأكملها على أعتاب تغير راديكالي لم تعد فيه المركزية البشرية هي المخطط والمنفذ الوحيد، وهذا ما يتطلب تجاوز الحدود التنظيرية والتطبيقية من أجل فهم دور التقنيات الروبوتية، ككيانات ذاتية التنظيم بطريقة منطقية لديها قدرات تفاعلية وإمكانية إسناد مستقلة، من خلال أطر تحليلية جديدة. ويعد تجاوز تلك الحدود أمراً بالغ الأهمية لفهم حقيقة الوكالة غير البشرية Non-Human Agency والذاتية لدى الروبوتات والذكاء الاصطناعي. كما أصبحت "المعلومات" والأنظمة الروبوتية الجديدة كياناً مستقلاً، وهذا ما أسهم في المناقشات عن فلسفة وأنطولوجيا المعلومات التي يصبح فيها الإنسان الكيان الأضعف وعلو قوة الآلة وتفوقها على مٌطوريها. حيث أصبحت المقاربات البشرية Anthropocentric Approaches لفهم الثورة الآلية الحالية غير كافية لدراسة التعقيدات الروبوتية والذكاء الاصطناعي الحديث، لأنها تعطي الأولوية للسيطرة الذاتية البشرية "الاستثنائية البشرية" على الوكالة الروبوتية.