أخبار المركز
  • د. إبراهيم فوزي يكتب: (المعضلة الروسية: المسارات المُحتملة لأزمات الانتخابات في جورجيا ورومانيا)
  • إسلام المنسي يكتب: (جدل الوساطة: هل تخلت سويسرا عن حيادها في قضايا الشرق الأوسط؟)
  • صدور العدد 38 من دورية "اتجاهات الأحداث"
  • د. إيهاب خليفة يكتب: (الروبوتات البشرية.. عندما تتجاوز الآلة حدود البرمجة)
  • د. فاطمة الزهراء عبدالفتاح تكتب: (اختراق الهزلية: كيف يحدّ المحتوى الإبداعي من "تعفن الدماغ" في "السوشيال ميديا"؟)

مخاطر جيوسياسية:

تأثيرات الذكاء الاصطناعي على الأمن المعلوماتي للدول

17 فبراير، 2020


عرض: سارة عبدالعزيز - باحثة في العلوم السياسية

أسهمت الاستخدامات المتزايدة للذكاء الاصطناعي في عدد كبير من المجالات التجارية والصناعية والمعلوماتية والأمنية وغيرها، في بروز حالة من الازدواجية طرحتها تلك الاستخدامات، حيث عُدّ الذكاء الاصطناعي بمثابة سلاح ذي حدين. فهو من ناحية يُعزز من قدرات تقديم الخدمات في كافة المجالات، إلا أنه قد يستخدم في الوقت ذاته لتعزيز قدرات الأسلحة المضادة التي تستهدف تلك الاستخدامات. 

ومن ثم تأتي هذه الورقة التي تم إعدادها من قبل "جون فيلاسينور" وهو كاتب متخصص في دراسات الحوكمة في مركز الابتكار التكنولوجي التابع لمعهد بروكنجز، وتم نشرها ضمن مجلد تم تحريره بشكل مشترك بين كل من معهد بروكنجز والمعهد الإيطالي للدراسات السياسية الدولية (ISPI)، بعنوان "السباق العالمي للتفوق التكنولوجي: استكشاف الآثار الأمنية"، حيث تُعنى الورقة بالأساس باستكشاف أبعاد العلاقة بين ثلاثة متغيرات أساسية، هي: الذكاء الاصطناعي، وتأثيره على سلامة وتكامل المعلومات، وانعكاس ذلك على السياق الجيوسياسي. 

وتنبثق أهمية ذلك التناول من الأهمية الجيوسياسية للمعلومات ذاتها، حيث تحدد تدفقات المعلومات ما يعرفه المواطنون عن بلدهم والأحداث داخله، وكذلك ما يعرفونه عن الأحداث والتفاعلات العالمية وغيرها، أي إنها تسهم بمعنى آخر في تشكيل والتفاعل مع الرأي العام في الداخل والخارج. كما تعد تدفقات المعلومات أيضًا مدخلًا مهمًّا لصنع القرارات الاستراتيجية فيما يتعلق بالدفاع والأمن القومي وتعزيز النمو الاقتصادي. وبالتالي، فإن أي تأثير إيجابي أو سلبي من جانب الذكاء الاصطناعي على سلامة وتكامل المعلومات من المتوقع أن يُحدث تأثيرًا أكبر على النظام المعلوماتي ككل، وكذلك على الأبعاد الجيوسياسية للدولة في الداخل والخارج. 

محددات التأثير 

تطرح الورقة ثلاثة محددات أساسية تُشكل الكيفية التي يمكن من خلالها للذكاء الاصطناعي التأثير على البيئة المعلوماتية خلال العقد القادم. وتتمثل تلك المحددات فيما يلي: 

أولًا- التطور المتسارع في تكنولوجيا الذكاء الاصطناعي، مدفوعةً في ذلك بمعدلات غير مسبوقة من الاستثمار العام والخاص. فوفقًا لمؤسسة (CB Insights)، تطور حجم رأس المال الاستثماري من قبل الشركات الناشئة في مجال الذكاء الاصطناعي في الولايات المتحدة الأمريكية من 4.1 مليارات دولار في عام 2016، و5.4 مليارات دولار في عام 2017 إلى 9.3 مليارات دولار في عام 2018. 

كما زادت الحكومة الأمريكية من حجم الدعم الموجه للأبحاث في ذلك المجال، حيث أعلنت وكالة مشاريع الأبحاث المتقدمة التابعة لوزارة الدفاع الأمريكية (DARPA) في خريف عام 2018، عن حملة بقيمة ملياري دولار لتطوير موجة جديدة من تقنيات الذكاء الاصطناعي. وينطبق الأمر ذاته على الصين، التي دفعت باستثمارات قُدرت بمليارات الدولارات في مجال الذكاء الاصطناعي، حيث تنظر إليه باعتباره دعامة أساسية لتحقيق هدفها في أن تصبح قوة تكنولوجية عظمى. وكذلك الأمر في كل من إسرائيل والدول الأوروبية.

وقد تزامن مع تلك الطفرة في الاستثمارات الحكومية موجة أكبر من الاستثمارات الخاصة الموجهة للبحث والتطوير في مجال الذكاء الاصطناعي، والتي قادتها الشركات التكنولوجية الكبرى مثل أمازون وIBM وجوجل ومايكروسوفت. وإجمالًا فإن تلك الاستثمارات الموجهة من قبل كل من الحكومات والمستثمرين والشركات التكنولوجية من المتوقع أن تؤدي إلى إحداث قفزات هائلة في الذكاء الاصطناعي، وإضافة المزيد من القدرات للخوارزميات التي تجمع بين الإبداع البشري والقدرات الحاسوبية. 

ثانيًا- الدور المتزايد للذكاء الاصطناعي في البيئة الرقمية: ويقصد بها الدرجة التي يتداخل فيها الذكاء الاصطناعي بشكل متزايد مع النظام الإيكولوجي للمعلومات الرقمية، حيث إن المتابع يجد أن أهم التغييرات التي حدثت في تكنولوجيا المعلومات خلال الربع الأخير من القرن الماضي، تمت جميعها بعيدًا عن الذكاء الاصطناعي. 

وفي المقابل، من المتوقع أن يسهم الذكاء الاصطناعي بنصيب كبير في التطور المستقبلي للمشهد الرقمي المعلوماتي خلال العقد القادم. وهو الأمر الذي بدت ملامحه الأولية خلال السنوات الخمس الماضية مع زيادة حجم الاعتماد على الذكاء الاصطناعي في المجال التجاري، سواء من خلال توقع احتياجات المستهلكين، والاستفادة منها في تحسين الخدمات المقدمة في مجالات النقل والتسوق الإلكتروني والإعلام وغيرها.

ثالثًا- حماة المعلومات (Information Gatekeepers): وتتمثل بشكل أساسي في شركات مواقع التواصل الاجتماعي (بالإضافة إلى كل من تجار التجزئة عبر الإنترنت، ومقدمي خدمات الإنترنت والهاتف المحمول) باعتبارها طرفًا ثالثًا يتحكم بشكل أو بآخر في كيفية تأثير الذكاء الاصطناعي على البيئة المعلوماتية، حيث تتعامل تلك الشركات مع ملايين المستخدمين، ومن ثم تسعى إلى الاستفادة من المكاسب التي يتيحها تبني الذكاء الاصطناعي على نطاق أوسع في أنظمتها مثل تقديم محتوى مخصص للغاية للمستهلكين بشكل فردي، أو الكشف عن الاحتيال. علمًا بأنه في الدول السلطوية، تكون الحكومات نفسها هي حماة المعلومات، حيث تسعى إلى استخدام الذكاء الاصطناعي في مراقبة كافة سلوكيات المستخدمين عبر مواقع التواصل الاجتماعي، مع الإقرار بوجود اختلافات بينها، سواء في طبيعة الأدوات المستخدمة ودرجة ذلك الاستخدام.

تأثيرات على سلامة وتكامل المعلومات

يتناول هذا المحور الدور المزدوج للذكاء الاصطناعي في التأثير على سلامة وتكامل المعلومات، سواء من خلال توفير الحماية لها، أو تدعيم آليات إطلاق الحملات التي تستهدفها. وتجدر الإشارة إلى أن سلامة وتكامل المعلومات تشير إلى ثلاثة عناصر أساسية شديدة الارتباط، وهي: مدى دقة المعلومات، وكونها غير خادعة أو مضللة من خلال ربطها بالسياق الصحيح الذي تنبثق منه، وأخيرًا إسنادها بشكل صحيح من خلال تتبع مصدر المعلومة. ومن ثم، يجب الجمع بين تلك العناصر الثلاثة لتقييم سلامة وتكامل المعلومات، كما أن أي تغيير في عنصر من تلك العناصر يؤثر بشكل كلي على سلامة وتكامل المعلومات المقدمة.

وقد طرحت الورقة شكلين أساسيين من أشكال تأثير الذكاء الاصطناعي على سلامة وتكامل المعلومات، وذلك على النحو التالي: 

أولًا- التأثير من خلال الخداع العميق (Deepfakes): وهي مقاطع فيديو يتم إنتاجها بمساعدة تقنيات التعليم العميق، حيث تنسب إلى الأشخاص القيام بأفعال أو الإدلاء بأحاديث لم يفعلوها أو يدلوا بها، ومن ثم فهي تعد من أخطر أشكال التضليل المعلوماتي خلال العقد القادم. وعلى الجانب الآخر، نجد أن هناك جهودًا جادة يتم بذلها من جانب الباحثين لتطوير أساليب تعتمد على استخدام الذكاء الاصطناعي لتحديد مقاطع الفيديو المعالجة تلقائيًا، واستخدام التعلم العميق لاكتشاف الصور والفيديوهات التي يتم معالجتها بواسطة برامج تبديل الوجوه. 

ثانيًا- التأثير من خلال الحسابات الآلية (Bots): وهي حسابات مبرمجة يتم ربطها عبر شبكات من منصات التواصل الاجتماعي باعتبارها حسابات لأفراد، في حين أنها في الواقع مجرد حسابات آلية تديرها برامج. ووفقًا لأحدث الدراسات فقد تبين قيام الحسابات الآلية بنشر حوالي 14 مليون رسالة تتضمن محتوى مضللًا من أصل 400 ألف تغريدة على تويتر، وذلك خلال عشرة أشهر في عامي 2016 و2017. 

وفي المقابل، يمكن أيضًا استخدام الذكاء الاصطناعي للكشف عن نشاط تلك الحسابات والتي غالبًا ما تعمل بطرق يمكن التعرف عليها بسهولة. حيث إن المحتوى الذي تقدمه تلك الحسابات غير المدعومة بالذكاء الاصطناعي يعد منخفض المصداقية والدقة، مما يجعل اكتشافه أمرًا سهلًا. 

وتشير الورقة إلى أنه حتى الآن لم يتم إدماج الذكاء الاصطناعي في تلك الحسابات الآلية، إلا أنه من المتوقع أن يحدث ذلك في المستقبل القريب، وحينها ستقوم بعمل فعال للغاية في نشر المعلومات المضللة، حيث ستكتسب قدرات أقرب لمحاكاة تلك البشرية، من خلال إنشاء شبكات أكبر لنشر التغريدات، والاعتماد جزئيًّا على تضمين المعلومات الخاطئة في الردود. مما يجعل من الصعب اكتشافها، ويجعل نتائجها أكثر فعالية. وهنا تصبح الطريقة الأكثر فاعلية لتحديد وحظر الحسابات الآلية الممكّنة بالذكاء الاصطناعي هي استخدام الذكاء الاصطناعي ذاته في خوارزميات الكشف، والتي تعتمد على مراقبة السلوك المتطور لتلك الحسابات والشبكات المرتبطة بها.

وهنا يطرح الكاتب مسألة غاية في الأهمية، حيث يوضح أن المعضلة الأساسية تتمثل في أنه كلما تقدمت وسائل المواجهة خطوة سبقتها وسائل التضليل خطوات إلى الأمام، وهو ما يُكسبها المزيد من الوقت الذي تستطيع من خلاله تحقيق أهدافها في إحداث الخسائر حتى في ظل استخدام آليات المواجهة.

تأثيرات على الأبعاد الجيوسياسية

انطلاقًا من التطورات الكبيرة والمتلاحقة والتي من المتوقع أن يشهدها الذكاء الاصطناعي خلال السنوات القادمة، وما يرتبط به ذلك من زيادة دوره في النظم المشكلة للبيئة المعلوماتية؛ فإن الورقة تتوقع أن ذلك سيقترن بطفرة ستشهدها التقنيات المدمجة بالذكاء الاصطناعي والمستخدمة، سواء في إطلاق حملات التضليل المعلوماتي أو تلك المقابلة لها في اكتشاف تلك الحملات والحد من انتشارها. 

وفي ظل تلك الحالة من التعقيد، تتبعت الورقة كيفية تأثير ذلك الدور المتوقع للذكاء الاصطناعي على مجموعة من الأبعاد الجيوسياسية، وذلك على النحو التالي:

أولًا- السيطرة والرقابة المعلوماتية: حيث تعمد النظم السلطوية ليس فقط إلى استخدام الذكاء الاصطناعي في نشر المحتوى الذي يتوافق مع سياساتها على أوسع نطاق ممكن وحجب ذلك الذي يتعارض معها، وإنما يمكنها كذلك من التحكم والرقابة في المنشورات التي يتم نشرها عبر مواقع التواصل الاجتماعي، ليس فقط من خلال الأفراد وإنما أيضًا بشكل جمعي من خلال الكشف عن اتجاهات الافراد والجماعات، واستخدامها فيما بعد لخدمة أهدافها الجيوسياسية.

ثانيًا- التدخل من خلال التضليل المعلوماتي للتأثير على الانتخابات في الدول الأخرى، ويعد المثال الأكثر وضوحًا في هذا السياق هو ذلك التأثير الذي لعبته الحكومات الأجنبية من خلال مواقع التواصل الاجتماعي في الانتخابات الأمريكية الماضية في 2016. إلا أن حملات التضليل المعلوماتي المدعومة بتكنولوجيا الذكاء الاصطناعي يمكنها التأثير بشكل منظم ومدروس على إدراك المستخدمين وتصوراتهم ومن ثم استجاباتهم، وهو ما يجعل من الصعب مواجهتها، حيث يستدعي ذلك تكامل كافة جهود القطاعين العام والخاص، خاصة وأن بعض أشكال التضليل تكون خفية إلى درجة تجعل اكتشافها أمرًا غاية في الصعوبة.

ثالثًا- التأثير على كافة العناصر والأبعاد الجيوسياسية، سواء كانت تشريعات أو سياسات تجارية واقتصادية ودفاعية، هذا بالإضافة إلى القرارات المتعلقة بعمليات الاندماج والاستحواذ الكبرى، وغيرها.

رابعًا- التأثيرات التجارية: حيث قد تتلاعب الدول بالمعلومات لتعزيز تصورات المستهلكين الإيجابية عن الشركات التي يقع مقرها الرئيسي داخل الدولة، وبالتالي تعزيز القدرة التنافسية العالمية لتلك الشركات، وتحقيق الاستفادة الاقتصادية من وراء ذلك.

خامسًا- التأثيرات العسكرية: حيث إن أي صراع عسكري ممتد في المستقبل سيعتمد على التضليل المعلوماتي المستند إلى آليات الذكاء الاصطناعي، ليس فقط من خلال محاولات التأثير وتشكيل الرأي العام، ولكن أيضًا من خلال تقويض الجهود المبذولة لتوفير المعلومات التي يتم الاعتماد عليها من قبل صناع القرار والقادة العسكريين، وإضعاف دقتها ومصداقيتها. 

وختامًا، تخلص الورقة إلى محاولة الإجابة عن تساؤل مهم حول كيفية مواجهة المجتمعات، خاصة تلك الديمقراطية منها، لحملات التضليل الخارجية المستندة للذكاء الاصطناعي. حيث أقرت الورقة بأن الحل قد يتمثل في ثالوث التكنولوجيا والسياسات والوعي. فمثلما يتم الاعتماد على الذكاء الاصطناعي في تغذية حملات التضليل، فإنها قد تستخدم كذلك في اكتشاف تلك الحملات والحد من انتشارها من خلال إدماج الذكاء الاصطناعي كإحدى أدوات الأمن السيبراني. 

والأمر ذاته ينطبق على السياسات، ففي حين يتم توجيه السياسات لفرض المزيد من الرقابة على المحتوى المعلوماتي الذي يتم تداوله عبر مواقع التواصل الاجتماعي، فإنها قد توجه كذلك من أجل حشد الجهود من قبل كل من القطاعين العام والخاص الممثل بشكل أساسي في شركات مواقع التواصل الاجتماعي، لإحداث المزيد من التكامل المعلوماتي وضمان سلامة المعلومات المتداولة. وهنا قد تلعب كل من ترتيبات المشاركة المعلوماتية والأطر التشريعية دورًا مهمًا في تحقيق ذلك الهدف. 

أما الأداة النهائية، فتتمثل في زيادة الوعي، والذي وإن كان لا يمكنه إيقاف التضليل بشكل كامل، إلا أنه يُعد محكًّا رئيسيًّا في إبطاء انتشار المحتوى المصنَّع أو المُعالج والذي من المتوقع أن يصبح أكثر شيوعًا خلال السنوات القادمة، كما أنه يعول عليه في تعزيز الثقة الشعبية في المعلومات التي تقدمها الحكومات الديمقراطية باعتبارها حلقة الوصل بين الجانبين.

المصدر: 

 John Villasenor, "Artificial intelligence, geopolitics, and information integrity", in: Fabio Rugge, ed., The Global Race for Technological Superiority: Discover the Security Implications, (Milano: ISPI and Brookings, November 2019), PP. 131-142.