أخبار المركز
  • د. إبراهيم فوزي يكتب: (المعضلة الروسية: المسارات المُحتملة لأزمات الانتخابات في جورجيا ورومانيا)
  • إسلام المنسي يكتب: (جدل الوساطة: هل تخلت سويسرا عن حيادها في قضايا الشرق الأوسط؟)
  • صدور العدد 38 من دورية "اتجاهات الأحداث"
  • د. إيهاب خليفة يكتب: (الروبوتات البشرية.. عندما تتجاوز الآلة حدود البرمجة)
  • د. فاطمة الزهراء عبدالفتاح تكتب: (اختراق الهزلية: كيف يحدّ المحتوى الإبداعي من "تعفن الدماغ" في "السوشيال ميديا"؟)

تخوفات قادمة:

الآثار المتعددة للذكاء الاصطناعي في سياسات الدول والمجتمعات

25 أكتوبر، 2018


عرض: ياسمين أيمن - باحثة في العلوم السياسية

قديمًا كانت التفاعلات البشرية هي المحرك الأساسي للسياسة الدولية، ولكن مؤخرًا لعب الذكاء الاصطناعي دورًا بارزًا في الحياة السياسية، وأصبح فاعلًا رئيسيًّا في الاقتصاد العالمي، والحروب الدولية. وقد عملت السينما وروايات الخيال العلمي -في أحيان عدة- على تصوير العلاقة بين البشر والذكاء الاصطناعي في المستقبل بأنها حرب وجدال، مغفلة الإيجابيات التي تُحققها التكنولوجيا في مجالات عدة، كالصحة العامة، والطب، والقانون. 

ولتأكيد الريادة الأمريكية في صياغة مستقبل وتحولات هذه التقنيات الفائقة للذكاء الاصطناعي، أعلن معهد ماساستوتش للعلوم والتكنولوجيا في منتصف أكتوبر الجاري عن أكبر استثمار مالي في هذا المجال بقيمة مليار دولار لإنشاء كلية جديدة تجمع تخصصاته.

وفي هذا الصدد، صدر عن مؤسسة تشاثام هاوس (المعهد الملكي للشئون الدولية) تقرير في يونيو 2018، شارك في إعداده خمسة من المتخصصين، بعنوان "الذكاء الاصطناعي والشئون الدولية: الاضطراب المنتظر"، يحاول قياس آثار الذكاء الاصطناعي على السياسات الدولية على المديين القصير والمتوسط، إلى جانب تأثيراته على الأمن العالمي، وفي مجالات متنوعة كالشئون العسكرية، والأمن الاقتصادي والإنساني.

تأثيرات في السياسة العالمية:

عن تأثيرات تكنولوجيا الذكاء في المجال السياسي الذي يتسم بدرجة عالية من درجات تعقيد العلاقات الإنسانية، يُشير التقرير إلى أنه من الصعب تصور أن تحل محل التنفيذيين في صنع القرار في المدى القصير، لكن تلك التكنولوجيا تلعب دور المعاون لصانعي القرار في اتخاذ القرارات بطريقة سريعة وفعالة. وتكمن آلية عمل تكنولوجيا الذكاء الاصطناعي في قدرتها على هيكلة عددٍ كبير من البيانات، والاحتفاظ بها بصورة تفوق العقل البشري، إلا أنه قد يُصاب بالخلل في حالة وجود شيء غير مألوف عما تمت برمجته عليه على عكس العقل البشري، لذا فكل منهما يعمل كمتمم للآخر.

ويُشير التقرير إلى ثلاثة أدوار رئيسية للذكاء الاصطناعي في مجال السياسة العالمية، هي كالآتي:

أولًا- الدور التحليلي: عن طريق تحليل قواعد البيانات، وإخراج نتائج تتماشى مع النماذج التي تمت برمجتها عليه، كمراقبة تنفيذ معاهدات السيطرة على الأسلحة النووية أو الكيميائية. ونتيجة لزيادة البيانات الحالية، سواء التجارية أو الصناعية، سيُساهم الذكاء الاصطناعي في بلورتها وتحليلها لمنحها لصانع القرار فيتخذ القرار المناسب.

ثانيًا- الدور التنبؤي: يستطيع الذكاء الاصطناعي أن يمد صانعي القرار بنتائج محتملة الحدوث مستقبليًّا، وذلك وفقًا لما حلّله من بيانات. فمثلًا من خلال أنواع معينة من التطبيقات يستطيع صانع القرار في الشئون الدولية أن يتوصل إلى نماذج للمفاوضات المعقدة، ومن ثم يبني عليها مواقف وخطوات الفاعلين الآخرين. ومع التراكم المعرفي، وزيادة تطور برمجة التطبيقات، يستطيع الذكاء الاصطناعي أن يجعل التنبؤات أكثر دقة.

ثالثًا- الدور التشغيلي: تلعب التطبيقات اللوجستية الحديثة دورًا لا يُمكن إنكار تأثيره على السياسة الدولية. ففي قطاع الأسلحة تنتشر الطيارات بدون طيار، وفي الأسواق التجارية تتواجد السيارات ذاتية القيادة، وكل ما سبق له صداه على مسار السياسة والاقتصاد العالمي، سواء أخلاقيًّا أو من حيث سرعة الانتشار والاستجابة للمخاطر.

ويُوضح التقرير الاتفاقيات التي تم توقيعها لضمان وضع إطار أخلاقي وقانوني لانتشار الذكاء الاصطناعي وتطبيقاته، ومن بينها إعلان "تورنتو" في مايو 2018 الذي يُنادي بضمان الانتشار الواسع لتعلم أنظمة التكنولوجيا المستقلة التي تدمج بين العقل البشري والذكاء الاصطناعي.

ملامح التشابه والاختلاف:

يُشير التقرير إلى ضرورة التفرقة بين الأنظمة الأتوماتيكية والأنظمة المستقلة في الذكاء الاصطناعي، فالأولى ستخرج نفس النتائج في كل مرة تدخل بيانات محددة لأنها تعمل وفقًا لهياكل تشغيلية معينة، بينما الثانية ستخرج نتائج مختلفة لأنها تعمل كالعقل البشري بعدة خطوات تبدأ من الإدراك عن طريق أجهزة الاستشعار، ثم المعرفة، وتحليل المعلومات، لإخراج القرار المناسب والسليم.

لكن التقرير يُشير إلى أن هناك اختلافًا جوهريًّا بين العقل البشري والذكاء الاصطناعي يظل قائمًا يتمثل في أنّ الأول يحتاج لمجهود بسيط لإدراك ما حوله ويحدد تصرفاته وفقًا لخبراته وإدراكه اللحظي الذي يستجيب لها سريعًا حتى لو كانت مفاجئة. على النقيض يكون الذكاء الاصطناعي الذي يحتاج لتحديث مستمر ليتأقلم مع مستجدات البيئة المحيطة. ويضرب معدو التقرير بمثال على ذلك بالطيارات بدون طيار، فهي أسهل في التشغيل من السيارات بدون سائق التي قد تسير في بيئة مزدحمة مع وجود نسبة من البشر والكائنات؛ وبالتالي قد لا يستطيع الذكاء الاصطناعي إدراك ما حوله من مخاطر، فهي مصممة للعمل وفقًا لبيئة آمنة تسير على درجة عالية من الدقة، وهو ما يتنافى مع الواقع في مواطن عدة. وعلاوةً على ما سبق، هناك الأخلاقيات، فمثلًا في حالة الأسلحة ذاتية الاستخدام فإن قرار قتل نفس بشرية يستوجب تدخل البشر لحسمه، فلا يمكن وضع كل الاحتمالات في يد أجهزة الروبوت.

التأثير العسكري:

وعن تأثير الذكاء الاصطناعي على المستوى العسكري، أشار التقرير إلى أنه مرهون بمدى قدرة المهندسين على تصميم أنظمة مستقلة قادرة على إنتاج مخرجات قائمة على المعرفة والخبرة، ولا يتحكم بها البشر حتى ولو عن بعد، وهو ما يتم العمل عليه حاليًّا في الدول المتقدمة كالولايات المتحدة والصين وأوروبا، لكنه يواجه صعوبات عدة بسبب تكلفته المرتفعة، وصعوبة التوصل لتلك التقنيات عالية الاستقلال.

ونتيجة للتكلفة العالية لتطوير الذكاء الاصطناعي تراجع تنافس القطاعات العسكرية في مجالات التطوير، تاركة الساحة للقطاعات التجارية التي لها استثمارات ضخمة في ذلك المجال. وضرب التقرير عدة أمثلة على ذلك منها الطائرات بدون طيار والسيارات ذاتية القيادة، حيث أشار إلى بداية الاهتمام بتطوير السيارات ذاتية القيادة في عام 2004، وتطور المشروع بدرجة كبيرة حتى تم التسويق له في الأسواق التجارية. على النقيض لم تحظ المركبات العسكرية بذات القدر من الاهتمام نتيجة لعدم قدرة القطاع العسكري على منافسة القطاع التجاري وتطوير البرامج ذاتية التشغيل، بينما يحتل الإنفاق على تطوير قطاع المعلومات والاتصال وقطاع السيارات ذاتية القيادة المرتبة الأولى في أولويات القطاع التجاري، ويرجع ذلك للتنافسية العالية في السوق التجاري. 

وفي هذا السياق، أشار التقرير إلى شركات مثل "جوجل" و"آبل" و"فيسبوك" و"أمازون" التي تُنفق مبالغ طائلة على تطوير الذكاء الاصطناعي في قطاع المعلومات والاتصالات والسيارات ذاتية القيادة والطائرات بدون طيار.

ووفقًا لذلك، من الصعب الحكم على تطور مستقبل الحروب على المدى القصير نتيجة لضعف أداء القطاع العسكري في تطوير الذكاء الاصطناعي، علاوة على سيطرة الشركات التجارية، فيمكن للإرهابيين شراء سيارات ذاتية القيادة أو طيارات بدون طيار قبل أن تستطيع القوات المسلحة الحصول عليها، فالصين على سبيل المثال تعمل على تطوير شبكة طائرات بدون طيار لنقل الركاب، وتوجد شركات عدة حول العالم تحذو حذوها.

تعزيز الأمن البشري:

بعد انتهاء الحرب الباردة قلت التهديدات الخارجية على الأمن الإنساني، وزادت التهديدات الداخلية، ووفقًا لتوقعات شركة مايكروسوفت فبحلول عام 2025 سيستخدم نحو 4,7 مليارات شخص الإنترنت، من بينهم 75% من داخل الدول الناشئة، وهو ما سيولّد مزيدًا من البيانات والمعلومات التي ستكون محركًا فعالًا للإقناع والتنمية والإكراه في ذات الوقت. وهؤلاء سيدخلون الأسواق الاقتصادية الجديدة، مواجهين تغيرات طبيعة أسواق العمل والتغيرات المناخية والديموغرافية والسياسية، مما سيضاعف الحاجة لتطوير تطبيقات الذكاء الاصطناعي لدعم الأمن الإنساني والتقليل من العنف، وتقع مسئولية تحقيقه على عاتق الحكومات ومنظمات المجتمع المدني والمنظمات الدولية. ونتيجة لفقدان التنسيق بينهم في مجال المعلومات والاتصالات أو السعي وراء التمويل من جهات مختلفة تتضارب الأهداف والمصالح.

ويحدد التقرير ثلاثة عوائق رئيسية من شأنها التأثير على الأمن البشري تتمثل في: انعدام القدرة على التنبؤ بالتهديدات مبكرًا، وكذلك عدم القدرة على وضع خطط لمواجهة تلك التهديدات، وأخيرًا غياب الرد الفعال لعدم تمكين أصحاب المصلحة الحقيقيين.

ولمواجهة تلك التحديات، يُشير التقرير إلى مجموعة من الخطوات التي من خلالها يتمكن الذكاء الاصطناعي من حماية الأمن البشري، وتتمثل في:

أولًا- "المعرفة": التي تتولّد من تحليل وبلورة البيانات التي يتم جمعها. فمن خلال تصنيف تلك البيانات يمكن التنبؤ بحدوث ظواهر اجتماعية معينة قبل حدوثها، وتوجد أنظمة عدة تعمل على ذلك المنوال مثل "EMBERS" الذي يستخدم البيانات المتاحة على جوجل ومواقع التواصل الاجتماعي المختلفة، فيتنبأ بحدوث بعض الظواهر الاجتماعية قبلها بنحو ثمانية أيام، بدقة تبلغ 94%.

ثانيًا- "التخطيط": وهي الخطوة التالية لتحليل البيانات، وتتم من خلال تطوير تطبيقات الذكاء الاصطناعي لقياس درجة المخاطر والأزمات والاستجابة لحالات الطوارئ، ومعرفة العواقب، ومن ثم رسم أفضل السيناريوهات لتقليل الخسائر سواء المادية أو البشرية، وتكون أكثر فعالية في حالة منظمات المجتمع المدني وغير الحكومية لانخفاض معدل البيروقراطية وسرعة اتخاذ القرار. 

ثالثًا- "التمكين": عن طريق استخدام تطبيقات الذكاء الاصطناعي، يتمكن صانعو القرار من اتخاذ أفضل القرارات، وبنفس التطبيقات يتم تمكين جميع البشر من الوصول لكافة الحقوق والخدمات، في محاولة للقضاء على العنصرية أو التكاتل ضد فئة معينة من البشر.

رابعًا- "العدالة والشفافية والمساءلة": عن طريق وضع قواعد لحماية البيانات التي تستخدمها تطبيقات الذكاء الاصطناعي، بحيث لا تقع في يد النخبة دون بقية الجموع، فيتم استخدامها لتحقيق أغراض مضرة كالقمع السياسي والاحتيال، فيكون لكل الأفراد الحق في معرفة سبب ومدى استخدام البيانات الخاصة بهم.

الآثار الاقتصادية:

 من وجهة نظر كاتبي التقرير فإن الذكاء الاصطناعي سيكون له عظيم الأثر على ثلاثة جوانب اقتصادية، هي:

أولًا- الإنتاج: ستلعب تطبيقات الذكاء الاصطناعي دورًا كبيرًا في زيادة الإنتاج وتقليل تكاليفه. ففي عام 2017 توقعت دراسة لشركة "ماكينزي" أن يزيد الذكاء الاصطناعي من معدل الإنتاج العالمي من 0,8% حتى 1,4% في العام الواحد، وفي عام 2016 توقع تقرير صادر عن "شركة Accenture" أن يساهم استخدامه في مضاعفة معدل النمو الاقتصادي لعدد كبير من الدول المتقدمة بحلول عام 2035. وأغلب الأرباح ستكون قادمة من خدمات الرعاية الصحية والأسواق المالية وشركات البيع بالتجزئة وخدمات النقل.

وعلى جانب آخر، قد تساهم تطبيقات الذكاء الاصطناعي في تقليل الناتج المحلي الإجمالي؛ ويرجع ذلك لإتاحة الخدمات المجانية التي تحل محل المدفوعة، فيقل الإنفاق على تلك الخدمات ومن ثم يقل الإنتاج، مثل ترجمة جوجل التي قد تحل محل مكاتب الترجمة.

ثانيًا- سوق العمل: تشير الدراسات الاقتصادية إلى إسهام الذكاء الاصطناعي في رفع نسبة البطالة العالمية، بل ويطالب بعض الاقتصاديين بضرورة تدخل الدول لإعادة توزيع الأرباح التي تجنيها الشركات من الذكاء الاصطناعي على الأفراد العاطلين. ولكنّ هناك اقتصاديين آخرين يرون أن التكنولوجيا تقلل من الوظائف وليس العمل، ومن ثم فهي تخلق فرص عمل جديدة لم تكن موجودة من قبل.

ووفقًا لدراسة أجرتها شركة PWC؛ فإنه بحلول عام 2030 فإن نحو 30% من الوظائف في بريطانيا ستتعرض للأتمتة، بينما تتراوح تلك النسبة بين 35% إلى 38% في الولايات المتحدة الأمريكية وألمانيا، وتقل في اليابان لتصل لنحو 21%. والخوف يكمن في أن القضاء على وظائف ما سيكون أسرع من خلق وظائف جديدة، وتظل العواطف الإنسانية هي المعضلة التي يصعب الوصول إليها عن طريق الذكاء الاصطناعي، والتي تتواجد في مهن عدة معرضة للأتمتة كالمحاماة والطب.

ثالثًا- التجارة الدولية والتنمية: سيخلف الذكاء الاصطناعي فجوة كبيرة بين الدول المتقدمة والنامية، فالأولى تملك عمالة ذات مهارة عالية وأجور مرتفعة، كما أنها قطعت أشواطًا في التنمية، لذا فآثار الذكاء الاصطناعي ستتمثل في توليد ضغوطات على العمالة والدولة، بينما الثانية تتأثر وبشدة من الذكاء الاصطناعي، فهي تمتلك عمالة ذات مهارات منخفضة، ولعل فرصتها تتمثل في عقد الشركات مع المستثمرين الأجانب الذين يتعهدون بتخصيص نسب لتدريب العمالة ولتحسين إنتاجية الدولة ونقل التكنولوجيا، وسيكون سباق التنافس قائمًا بين الصين وأمريكا بشكل أساسي.

وعلى صعيد التجارة الدولية؛ سيساهم تطور الذكاء الاصطناعي في تقليل تكلفة الإنتاج داخل الدول المتقدمة، ومن ثمّ يقل اعتمادها على التصنيع في الدول النامية، وتقلّ الحاجة للعمالة الوافدة، كما تقل تحويلات العاملين بالخارج لبلدانهم، فيقل الناتج القومي للدول.

ويختتم التقرير بتقديم مجموعة من التوصيات للحكومات وصانعي القرار يمكن تلخيصها في التالي: 

1- العمل على تطوير التعليم والبنية التحتية حتى تتمكن الدول من اللحاق بركب الذكاء الاصطناعي المتقدم، لكي لا تظل الهيمنة التكنولوجية في يد فئة صغيرة من الدول.

2- تخصيص الحكومات والشركات والمنظمات الدولية مصادر تمويلية للذكاء الاصطناعي في المجالات الإنسانية لتخفيف المخاطر عن الأمم الفقيرة.

3- عدم حصر المعرفة التكنولوجية على الخبراء التكنولوجيين، والعمل على تعميمها لضمان الاستفادة منها.

4- دعم روابط العلاقات بين القطاع الحكومي والتجاري، لضمان إحداث توازن تكنولوجي بين الجانبين والاستفادة من نجاحات بعضهما.

5- وضع أطر ضابطة لاستخدام الذكاء الاصطناعي وضمان تحقيق مبدأ الشمول للانتفاع به.

6- تنظيم العلاقة بين الذكاء الاصطناعي والعنصر البشري لتجنب حدوث أي صدام مستقبلي.

 وفي الختام، يُمكن القول إن الذكاء الاصطناعي سلاح ذو حدين، يجب على المجتمع الدولي توخي الحذر والاستعداد الملائم للآثار التي ستلحق بالمجتمعات والاقتصاديات العالمية من ورائه، علاوة على ذلك يجدر النظر إلى جانبه المشرق، حيث إنه سيساهم في تحسين حياة البشر في نواحٍ عدة، لذا لا بد من الحفاظ على رابط الوصل بينه وبين الإنسان.

المصدر: 

M. L. Cummings, Heather M. Roff, Kenneth Cukier, Jacob Parakilas and Hannah Bryce, “Artificial intelligence and international affairs: disruption anticipated”, Chatham House report, June 2018.