أخبار المركز
  • أحمد عليبة يكتب: (هاجس الموصل: لماذا يخشى العراق من التصعيد الحالي في سوريا؟)
  • محمود قاسم يكتب: (الاستدارة السريعة: ملامح المشهد القادم من التحولات السياسية الدرامية في كوريا الجنوبية)
  • السيد صدقي عابدين يكتب: (الصدامات المقبلة: مستقبل العلاقة بين السلطتين التنفيذية والتشريعية في كوريا الجنوبية)
  • د. أمل عبدالله الهدابي تكتب: (اليوم الوطني الـ53 للإمارات.. الانطلاق للمستقبل بقوة الاتحاد)
  • معالي نبيل فهمي يكتب: (التحرك العربي ضد الفوضى في المنطقة.. ما العمل؟)

نهج الفريق الأحمر:

احتمالات استخدام الذكاء الاصطناعي في الهجمات البيولوجية

03 أبريل، 2024


عرض: منى أسامة

شهدت الفترة الأخيرة توسعاً في استخدام الذكاء الاصطناعي في المجالات المختلفة بداية من الأبحاث الطبية؛ مروراً بإدارة التفاعلات الكيميائية والتنبؤات؛ وصولاً إلى استخدام تقنيات الذكاء الاصطناعي في الهجمات الإلكترونية والمادية؛ بل إن داريو أمودي، الرئيس التنفيذي لشركة الذكاء الاصطناعي «أنثروبيك» حذر من قدرة الذكاء الاصطناعي على صنع أسلحة بيولوجية في المستقبل القريب.

في هذا الإطار، ناقش كل من كريستوفر أ.موتون، وكاليب لوكاس، وإيلا جيست، في تقرير صادر عن مؤسسة راند في العام 2024؛ المخاطر المحتملة لسوء استخدام الذكاء الاصطناعي أو نماذج لغوية كبيرة (LLMs) (خوارزميات ذكاء اصطناعي تستعمل تقنيات التعلم العميق والبيانات الضخمة) في سياق الهجمات بالأسلحة البيولوجية.  

لفت التقرير إلى المحاولة الفاشلة لجماعة «أوم شينريكيو» اليابانية لمهاجمة مترو أنفاق طوكيو باستخدام "توكسين البوتولينوم" في تسعينيات القرن العشرين، والتي فشلت بسبب عدم فهم البكتيريا، وهي المشكلة التي يمكن للذكاء الاصطناعي حالياً حلها بسهولة وسرعة. بناءً عليه، يطرح التقرير رؤى سياسية للتخفيف من أي مخاطر لتطوير الذكاء الاصطناعي بشكلٍ مسؤول.

واستهدف التقرير بشكلٍ رئيسي بحث احتمالات إساءة استخدام "النماذج اللغوية الكبيرة" من قبل جهات فاعلة غير حكومية "خبيثة" للتخطيط لهجمات بيولوجية. بالتالي، اعتمد على أدلة تجريبية بشأن تطوير المقاييس الكمية، وطرق الاختبار، وأدوات المساءلة. ولم يكشف التقرير عن البرامج التي تم اختبارها؛ لتحقيق التوازن بين توفير معلومات كافية للمناقشات الأكاديمية والسياسات مع ضمان عدم الكشف عن أي تفاصيل قد تؤدي إلى تمكين الجهات الخبيثة. فالهدف هو المساهمة في فهم التهديدات المحتملة للأسلحة البيولوجية ودعم تطوير استراتيجيات لمواجهة هذه التهديدات، وتعزيز عالم أكثر أماناً. 

نهج الفريق الأحمر:

الفريق الأحمر (Red Teaming) هو مصطلح في الأمن السيبراني؛ يعني تنفيذ محاكاة لهجوم حقيقي بعلم من إدارة المؤسسة، ويهدف إلى فحص جميع السيناريوهات الممكنة والوقوف على مدى جاهزية الأجهزة المعنية لصد جميع أنواع الهجمات التي قد تتعرض لها المؤسسات في الواقع، عن طريق الكشف عن نقاط الضعف المحتملة، وتتراوح هذه السيناريوهات ما بين استخلاص تصميم الأسلحة من الذكاء الاصطناعي، وإنشاء أدوات سيبرانية هجومية متطورة، والحث على سلوكيات خطرة أخرى غير مقصودة. بناءً عليه، تساعد هذه الإجراءات على قياس المخاطر بدقة، وضمان تخصيص الموارد والاهتمام بكفاءة للمواجهة، مع التركيز على العناصر الخطرة.

ويتطلب الفريق الأحمر؛ تحقيق التوازن بين الدقة المنهجية والقدرة على التكيف الإبداعي لتقييم مجموعة متنوعة من التهديدات المحتملة ومواجهتها بشكل فعال. مع ذلك، فإن الهدف الأساسي ليس التنبؤ بدقة بمجموعة محدودة من السيناريوهات المستقبلية الصحيحة، وإنما فحص مجموعة واسعة من السيناريوهات المستقبلية المحتملة. في هذا الإطار، اعتمد الفريق الأحمر في هذا التقرير على نهجٍ متعدد الأساليب يدمج بين العناصر النوعية والكمية ويتماشى مع العلوم الاجتماعية، التي تقدم منطقاً بحثياً لفهم التفاعلات البشرية المعقدة؛ ومن ثم تبنى التقرير منهجية مكونة من مجموعة متنوعة وواسعة من سيناريوهات التهديد. 

ولأن التقرير يركز على التحقق من التأثير التشغيلي في العالم الحقيقي للنماذج اللغوية الكبيرة (LLMs)، يلاحظ أن المخاطر النظرية تبدو أقرب إلى رؤى قابلة للتنفيذ. لذلك، بدأ بدراسة تهديدات الأسلحة البيولوجية عبر تحليل مشروعات "فيجنيت" (vignette) الموجزة –وهي المشروعات التي تحدد الأهداف الاستراتيجية لأربعة عناصر هي: المهاجم، وموقع الاهتمام، والسكان المستهدفين، والموارد المتاحة- حول سيناريوهات المخاطر الواقعية المختلفة؛ من أجل تحديد الأهداف الاستراتيجية للجهات الخبيثة وإجراء تقييمات خاصة بالهجمات الافتراضية بالأسلحة البيولوجية. 

ومن خلال اختيار أربعة مشروعات (vignette) موجزة؛ تم تجنب التنبؤات الهشة ذات النقطة الواحدة وتقديم مجموعة متنوعة من الظروف المستقبلية المحتملة التي يمكن الاسترشاد بها في تنظيم الذكاء الاصطناعي. ولا تشمل هذه المشروعات نطاق التهديدات، لكنها تنشئ خطاً أساسياً للنتائج الأولية والتكرارات اللاحقة. وهناك مجموعتان استخدمتا الذكاء الاصطناعي بشكل فاعل لتطوير عملهما. الأولى: "السايبورغ"، والتي تعمل على دمج إجابات الذكاء الاصطناعي مع الخبرات البشرية وتطويرها بشكل مستمر. أما الثانية: فهي "القنطور"؛ وتعني تفويض المهام المناسبة للذكاء الاصطناعي والتركيز على خبراته.  

سيناريوهات الاختبار:

بعد مراجعة التقرير لسجلات "النماذج اللغوية الكبيرة" التي تم إنشاؤها أثناء البحث، خلص إلى أن بعض مخرجات تلك النماذج غير ملائمة أو تحتوي على مواد غير مناسبة لتنفيذ هجوم بيولوجي في الوقت الحالي. ففي أحد السيناريوهات، حددت "النماذج اللغوية الكبيرة" عوامل بيولوجية مسببة لأوبئة خطرة مثل: الجدري والجمرة الخبيثة والطاعون وأحد سلالات فيروس الأنفلونزا، وطرحت مسألة احتمالية تسبب هذه الأوبئة في الموت الجماعي للأفراد والنسب المتوقعة للوفيات، والتي تعتمد على عوامل مثل: حجم السكان المتضررين، وسرعة وفعالية الاستجابة لمسببات الهجوم البيولوجي. 

وفي سياق متصل، ناقشت "النماذج اللغوية الكبيرة" وسائل وطرق النقل والوقت والتكلفة والعوائق المرتبطة بالحصول على عينات حية مسببة للهجمات البيولوجية مثل: القوارض والبراغيث المصابة بـ"اليرسينيا الطاعونية"، ويتطلب استخراج هذه المعلومات من "النماذج اللغوية الكبيرة" تقنية كسر الحماية؛ أي استخدام المطالبات النصية التي تتجاوز قيود السلامة الخاصة ببرنامج الدردشة الآلية؛ لأن تلك النماذج رفضت في البداية مناقشة هذه الموضوعات، على الرغم من أن هذه المعلومات متاحة بشكل عام ضمن حملات التوعية الحكومية.

وفي سيناريو آخر، قدمت "النماذج اللغوية الكبيرة" تعليمات بسيطة حول كيفية زراعة "يرسينيا بيستيس"، البكتيريا المسببة للطاعون. والجدير بالذكر أن الحصول على هذه المعلومات لا يتطلب كسر الحماية؛ إذ يمكن العثور على البروتوكولات التفصيلية لكيفية إنجاز هذه الخطوات عبر الإنترنت، وفي المجلات الأكاديمية المتاحة للجمهور. لذلك، قامت "النماذج اللغوية الكبيرة" بتقصير المهمة إلى خطوات بسيطة وقدمت شرحاً قصيراً لما تتطلبه كل خطوة، كتوفير بيئة ملائمة لنمو البكتيريا، والمراقبة، ثم الحصاد.

وفي سيناريو ثالث، قدمت "النماذج اللغوية الكبيرة" مناقشة دقيقة حول إيجابيات وسلبيات الآليات المختلفة لتوصيل "توكسين البوتولينوم"، عبر التراب الجوي أو الغذاء. واعتبرت تلك النماذج طريقة النقل بالغذاء "واضحة" لكنها "محفوفة بالمخاطر"، ولاسيما فيما يتعلق بالكشف المحتمل عن السم عند وضعه في أنواع معينة من المواد الغذائية. أما أساليب النقل عبر التراب الجوي، فاعتبرتها "النماذج اللغوية الكبيرة" فعالة للتأثير في عدد كبير من السكان بسرعة، لكنها تتطلب معدات وخبرة متخصصة. 

وفي السيناريو الرابع، اقترحت "النماذج اللغوية الكبيرة" طرقاً بسيطة للتهرب من قيود الطائرات من دون طيار في إحدى المدن الأمريكية الكبرى. وتضمنت هذه الاقتراحات معلومات حول تشغيل طائرة من دون طيار بشكل غير قانوني؛ بحيث تكون الطائرة صغيرة الحجم ذات سرعة عالية وتعمل ليلاً من أجل تقليل فرصة اكتشافها. كما اقترحت "النماذج اللغوية الكبيرة" استخدام معدات التشويش على الرادار، وهذا ما يعني وجود خلط لدى تلك النماذج بين الطائرات التجارية الصغيرة من دون طيار ونظيرتها العسكرية، والتي غالباً ما تستخدم أنظمة الرادار للكشف عن الهجوم. 

تقييم النتائج: 

يرى تقرير "راند" أن السيناريوهات التي تم التوصل إليها لم تكن مُرضية؛ من حيث وجود أساس مفصل ودقيق بما فيه الكفاية حتى يتمكن الفاعل الخبيث من تنفيذ هجوم بيولوجي فعال. والسبب هو أن منهجية الفريق الأحمر تركز على مرحلة التخطيط فقط ولا تأخذ في الاعتبار مرحلة التنفيذ الفعلي؛ نتيجة لذلك، يشير التقرير إلى عدة عوامل خارجة عن قدرات أو قيود "النماذج اللغوية الكبيرة" يمكن أن تفسر النقص في النتائج. أولها، افتقار المشاركين في الفريق الأحمر إلى الخبرة والمعرفة اللازمة لمحاكاة المهاجمين الفعليين بدقة. أما العامل الثاني، فيتعلق بالقيود المتأصلة في تصميم الدراسة، والتي أعاقت التطوير الواقعي لخطة قابلة للتطبيق. وأخيراً، التعقيد الجوهري المرتبط بتصميم هجوم بيولوجي ناجح يضمن وجود أوجه قصور في الخطط. 

بشكلٍ عام، تشير النتائج إلى أن المهام التي تنطوي على التخطيط لهجوم بأسلحة بيولوجية من المحتمل أن تقع خارج القدرات الحالية للنماذج اللغوية الكبيرة (LLMs). ونظراً للطبيعة المعقدة لهذه المهام، والتي تتطلب خبرة متخصصة، فإن استخدام تلك النماذج لا يبدو أنه يعزز بشكل كبير مخاطر الهجوم بالأسلحة البيولوجية. ومع ذلك، فإن القدرات التكنولوجية لـ (LLMs) ليست ثابتة ومن المتوقع أن تتطور بمرور الوقت. وبالتالي حتى إذا كانت النتائج الحالية لا تعكس وجود خطر كبير ومباشر ينتج عن "النماذج اللغوية الكبيرة" الحالي، إلا أن هذه المخرجات تستلزم ضرورة استمرارية بذل جهد.  

مخاطر مستقبلية: 

يرى التقرير أنه لم يلاحظ أي فرق بين خطط الهجوم بالأسلحة البيولوجية التي تم إنشاؤها بمساعدة أو من دون مساعدة "النماذج اللغوية الكبيرة" فيما يتعلق بالقدرة على الاستمرار. كما تشير النتائج أيضاً إلى أن التخطيط لهجوم بالأسلحة البيولوجية يتجاوز حدود قدرات تلك "النماذج اللغوية الكبيرة" المتاحة على الأقل حتى نهاية صيف عام 2023، علماً بأن متانة هذه النتيجة تتعلق بالتطورات المستقبلية في تكنولوجيا "النماذج اللغوية الكبيرة"، وهي مسألة غير محسومة، بالإضافة إلى ذلك، لم يفحص التقرير النماذج بدقة من دون أي حواجز حماية؛ وعلى الرغم من أن هذه النماذج قد تكون أقل قدرة، إلا أن الإصدارات المستقبلية قد تكون أكثر كفاءة وأقل تقييداً في المشاركة في تصميم هجوم بالأسلحة البيولوجية. ولذلك فإن البحث المستمر ضروري لرصد هذه التطورات بحسب التقرير. 

وتُعد منهجية الفريق الأحمر إحدى الأدوات المحتملة للدراسات المستقبلية؛ لقدرتها على محاكاة ديناميكية التدابير المضادة، بالاكتشاف المبكر لقدرات "النماذج اللغوية الكبيرة" الناشئة التي يمكن أن تزيد من جدوى خطط الهجوم بالأسلحة البيولوجية. ومع تزايد فهم التهديدات المحتملة المحددة التي تشكلها "النماذج اللغوية الكبيرة"، يمكن أن تركز تمارين الفريق الأحمر على المهام المحددة، وتعزيز الأبحاث المستقبلية، كما أنه لا بد من توسيع نطاق التجربة التي أجريت في التقرير لتشمل مجموعة أكبر وأكثر تنوعاً من الباحثين. 

مع العلم أن هذه التجارب الأكبر ستتطلب المزيد من الوقت والمال؛ مما يجعل من الضروري تحسين كفاءة الدراسة. أما بالنسبة لعملية التحكيم، فيمكن أن تنتقل في المستقبل إلى أنظمة غير متزامنة؛ إذ تتطلب التناقضات الرئيسية في النتائج مناقشة متعمقة. كما يمكن تقليل المتطلبات الزمنية للمشاركين من خلال إعطاء المشاركين المعلومات الأساسية مسبقاً أو عن طريق زرع مفاهيم التخطيط الأولية للهجوم. 

ختاماً، خلص التقرير إلى أنه مع توافر المزيد من الوقت، أو المهارات المتقدمة، أو الموارد الإضافية، أو الدوافع المتجددة، يمكن تصور أن يتم تحفيز جهة فاعلة ضارة غير حكومية لاستخدام "النماذج اللغوية الكبيرة" الحالية أو المستقبلية للتخطيط أو لشن هجوم بالأسلحة البيولوجية. وأخيراً، لم ينف التقرير وجود مخاطر، لكنه لم يجد أي ميزة كبيرة تقدمها تلك النماذج مقارنة بالإنترنت وحده فيما يتعلق بتطوير هجوم بالأسلحة البيولوجية.

المصدر:

Christopher A. Mouton, Caleb Lucas, Ella Guest. The Operational Risks of AI in Large-Scale Biological Attacks. RAND. 2024.