أصدر البيت الأبيض، في 28 مارس 2024، أول سياسة على المستوى الحكومي، عبارة عن مبادئ توجيهية تهدف إلى التخفيف من مخاطر الذكاء الاصطناعي (AI)؛ مما يتطلب من الوكالات اتخاذ مزيد من الإجراءات لتعزيز سلامة وأمن الذكاء الاصطناعي، وحماية خصوصية الأمريكيين، فضلاً عن معالجة المخاطر التي قد تشكلها التكنولوجيا.
هذا الإجراء ليس الأول من نوعه في صعود إدارة بايدن سلم محاولات تأطير وتقنين الذكاء الاصطناعي، فقد سبق وأن وقّع الرئيس الأمريكي جو بايدن، في 30 أكتوبر 2023 على أمر تنفيذي يضع معايير جديدة للسلامة وحماية الخصوصية فيما يتعلق بالذكاء الاصطناعي، وهي خطوة أعلن وقتها البيت الأبيض أنها ستحمي البيانات الخاصة بالأمريكيين، وتشجع الابتكار والمنافسة، وتعزز الدور الريادي للولايات المتحدة في المجال التكنولوجي.
ومن الواضح أن الذكاء الاصطناعي يتصدر أولوية أجندة الرئيس الأمريكي في العام الأخير من ولايته الرئاسية الأولى؛ إذ قال تعقيباً على إصداره الأمر التنفيذي في نهاية أكتوبر الماضي: "سنشهد مزيداً من التغير التكنولوجي في السنوات العشر المقبلة، وربما السنوات الخمس المقبلة، أكثر مما شهدناه في الخمسين سنة الماضية؛ إذ إن الذكاء الاصطناعي، وهو التكنولوجيا الأكثر أهمية في عصرنا، يعمل على تسريع هذا التغير".
مبادئ توجيهية أم إلزامية؟
إن إصدار المُذكرة التوجيهية من قبل مكتب الإدارة والموازنة في البيت الأبيض وبرعاية نائبة الرئيس الأمريكي كامالا هاريس، يعكس نجاح الإدارة الأمريكية في تحويل الأمر التنفيذي رقم 14110 في أكتوبر 2023 إلى إجراءات تنفيذية عملية على أرض الواقع تلزم كل الوكالات الفدرالية الأمريكية بالقيام بها، فمن الواضح أن بايدن لا يرغب في أن تكون سياساته المتعلقة بالذكاء الاصطناعي حبراً على ورق، ولذا، جاءت أهمية هذه المذكرة لتضع الأشخاص والمجتمعات في قلب أهداف الابتكار الحكومية، ومن شأنها أن تجعل الوكالات الفدرالية تتحمل مسؤولية واضحة لتحديد وإدارة مخاطر الذكاء الاصطناعي بسبب الدور الذي تؤديه في المجتمع الأمريكي.
ويتضح من خلال قراءة تلك المذكرة التوجيهية أنه بحلول الأول من ديسمبر 2024، سيُطلب من الوكالات الفدرالية تنفيذ "ضمانات ملموسة" عند استخدام الذكاء الاصطناعي، تتضمن اتخاذ مجموعة من الإجراءات الإلزامية لتقييم واختبار ومراقبة تأثيرات الذكاء الاصطناعي في الجمهور بشكل موثوق، فضلاً عن تزويد الجمهور بالشفافية حول كيفية استخدام الحكومة للذكاء الاصطناعي، وسوف تنطبق تلك الضمانات على مجموعة واسعة من تطبيقات الذكاء الاصطناعي، بدءاً من الصحة والتعليم وحتى التوظيف والإسكان.
جهود مُكثّفة:
من الخطأ الاعتقاد بأن تلك المذكرة هي مهد جهود الإدارة الأمريكية فيما يتعلق بتأطير الذكاء الاصطناعي في الولايات المتحدة والحد من المخاطر الناجمة عنه، فقد يُلاحظ أن مسألة الذكاء الاصطناعي اكتسبت زخماً في كل الوكالات الفدرالية والأجهزة الأمنية الأمريكية خلال الأشهر القليلة الماضية، وعلى وجه الخصوص بعد إصدار الأمر التنفيذي رقم 14110 في 30 أكتوبر 2023، وقد جاء ذلك انطلاقاً من الرغبة في تحقيق ثلاثة أبعاد: الأول، هو تعزيز حوكمة الذكاء الاصطناعي، بمعنى وضع مجموعة من الخطط والسياسات والأطر لتطوير الابتكار المسؤول في هذا المجال للاستفادة منه في حماية خصوصية الأمريكيين وتعزيز العدالة والحقوق المدنية، والدفاع عن المستهلكين والعمال، وتشجيع الابتكار والمنافسة، ويتعلق البُعد الثاني، بأمننة مخاطر الذكاء الاصطناعي، وهو دور تقوم به المؤسسات الأمنية الأمريكية لحماية المجتمع الأمريكي من الاستخدامات الضارة والتمييزية الناجمة عنه، ويرتبط البُعد الأخير، برغبة الإدارة الأمريكية في تحقيق الريادة العالمية بهذا المجال.
1. تعزيز حوكمة الذكاء الاصطناعي في المجتمع الأمريكي: تسير الإدارة الأمريكية على خطة للتأكد من سلامة معايير الذكاء الاصطناعي في المجال الحكومي بهدف التأكد من أن الجمهور الأمريكي بات أكثر ثقة في أن الوكالات الفدرالية ستحمي حقوقه وتضمن سلامته، ولعل من أبرز الدلالات على ذلك:
أ. مزيد من التقنين والمتابعة والمسؤولية الحكومية: كجزء من المذكرة التوجيهية المعلن عنها، سيكون أمام الوكالات 60 يوماً لتعيين كبير مسؤولي الذكاء الاصطناعي (A chief AI officer) في كل وكالة فدرالية، على أن يتولوا مهمة التأكد من اتخاذ كل التدابير اللازمة لتجنُّب النتائج غير المتوقَّعة من تطبيقات الذكاء الاصطناعي داخل أي وكالة، أو بعبارة أخرى، ضمان أنَّ تقنيات الذكاء الاصطناعي التي تستخدمها الوكالة لا تمثِّل أيَّ تهديدٍ للمواطنين الأمريكيين. وبالتوازي مع ذلك، تطلب المذكرة من الوكالات تقديم تقارير علنية بشكل سنوي عن كيفية استخدامها للذكاء الاصطناعي، والمخاطر التي تنطوي عليها، وكيفية إدارتها لتلك المخاطر على أن يتم تقديمها إلى مكتب الإدارة والموازنة في البيت الأبيض بالإضافة إلى نشرها للجمهور.
ب. إنشاء مجلس لحوكمة الذكاء الاصطناعي: تشير التقديرات إلى أنه منذ ديسمبر 2023، يقوم مكتب الإدارة والموازنة في البيت الأبيض ومكتب سياسة العلوم والتكنولوجيا بجمع أسماء هؤلاء المسؤولين المرشحين في كل وكالة للاستعداد لتشكيل مجلس جديد لكبار مسؤولي الذكاء الاصطناعي لتنسيق جهودهم عبر الحكومة الفدرالية والاستعداد لتنفيذ توجيهات الإدارة الأمريكية في هذا الصدد.
ج . مزيد من تنمية القدرات العاملة: أعلنت إدارة بايدن أنها تلتزم بحلول صيف 2024 بتوظيف 100 متخصص في الذكاء الاصطناعي كجزء من طفرة مواهب الذكاء الاصطناعي الوطنية التي أنشأها الأمر التنفيذي رقم 14110 في أكتوبر 2023، كما تتضمن ميزانية الرئيس للسنة المالية 2025 مبلغاً إضافياً قدره 5 ملايين دولار لتوسيع برنامج التدريب على الذكاء الاصطناعي على مستوى الحكومة التابع لإدارة الخدمات العامة، والذي ضم في العام الماضي أكثر من 7500 مشارك من 85 وكالة فدرالية.
د. تقييد حركة شركات القطاع الخاص المرتبطة بالذكاء الاصطناعي: أفادت التقديرات بأنه عندما وقع بايدن على الأمر التنفيذي رقم 14110، كان من بين أهدافه أن تشارك شركات الذكاء الاصطناعي مثل: شركة "Open AI" المسؤولة عن إنتاج محتوى "شات جي بي تي" (ChatGPT) نتائج اختبارات السلامة الخاصة بها مع الحكومة الأمريكية، علماً بأن الأمر التنفيذي لم يطالب الشركات بتحديد المحتوى الناتج عن الذكاء الاصطناعي، لكنه وجه وزارة التجارة بتطوير معايير للمصادقة وإرشادات حول كيفية وضع علامة مائية على المحتوى بهدف مكافحة التزييف العميق وتخفيف الأضرار الناجمة عن سوء استخدام الذكاء الاصطناعي.
2. أمننة مخاطر الذكاء الاصطناعي: بينما ينظر البعض إلى الذكاء الاصطناعي باعتباره "ثورة تكنولوجية جديدة"، يمكنها إعادة تشكيل العديد من جوانب الحياة، فإن البعض على الجانب الآخر يحذر من مخاطر الذكاء الاصطناعي؛ بداية من أنه قد يؤدي إلى جعل بعض الأعمال عديمة الجدوى؛ مما يزيد من ارتفاع معدلات البطالة وتهميش الموظفين؛ وصولاً إلى أنه قد يزيد من الترويج للمعلومات والصور المضللة أو قد يخرج عن سيطرة البشر؛ متجاوزاً القدرات البشرية المعرفية، وعليه كان من غير المستغرب أن يوقع أكثر من 350 خبيراً في مجال تكنولوجيا المعلومات، بما في ذلك المديرون التنفيذيون والباحثون والمهندسون العاملون في مجال الذكاء الاصطناعي، على بيان مشترك تم تقديمه إلى الكونغرس؛ مُحذرين فيه من مخاطر الذكاء الاصطناعي -إذ إن تجاوزه الذكاء البشري قد يهدد السلامة البشرية، ويؤدي إلى خلق أوبئة وإشعال حروب عالمية- داعين صانعي السياسة الأمريكية إلى ضرورة وضع خطط للحد من تطوير وانتشار الذكاء الاصطناعي كتلك الموضوعة لخطط الأوبئة والحروب النووية.
وفي أحدث تقرير أعدّه صندوق النقد الدولي في يناير 2024، تبيّن أن الذكاء الاصطناعي قد يؤثر في 40% من الوظائف على مستوى العالم، ومن المؤكد أنه سيؤدي إلى تفاقم مشكلة عدم المساواة في سوق العمل؛ لدرجة أن مجموعة "غولدمان ساكس" توقعت أن يُحل الذكاء الاصطناعي محل ما يقدر بـ 300 مليون وظيفة دوام كامل حول العالم.
ولا شك في أن تلك الحقائق المخيفة، دفعت الأجهزة الأمنية الأمريكية للمضي قدماً في أمننة قضية الذكاء الاصطناعي، بمعنى إضفاء الطابع الأمني على الذكاء الاصطناعي لما يحمله من أبعاد تهدد الأمن القومي الأمريكي، وبالتالي، يجب تكاتف المؤسسات الأمريكية والقطاع الخاص والمدني والرأي العام الجماهيري معاً لاتخاذ إجراءات استثنائية تحول دون تنامي مخاطر الذكاء الاصطناعي، وفي هذا السياق، يمكن تناول أبرز الجهود المُتخذة من قبل الأجهزة الأمنية الفدرالية الأمريكية خلال الأشهر القليلة الماضية في هذا الصدد:
أ. وكالة الأمن القومي الأمريكية: أعلنت وكالة الأمن القومي الأمريكية في سبتمبر 2023 إنشاء مركز أمني للذكاء الاصطناعي، وسيتم دمج المركز في مركز التعاون للأمن السيبراني الحالي التابع للوكالة، ويهدف إلى حماية أنظمة الذكاء الاصطناعي الأمريكية والتصدي للتهديدات الخارجية، ومن المُتوقع أن يعمل مع القطاع الخاص والشركاء المحليين لتعزيز الدفاعات الأمريكية في مواجهة منافسي الولايات المتحدة، مثل: الصين وروسيا.
ب. وزارة الأمن الداخلي: أصدرت وزارة الأمن الداخلي (DHS) في 17 مارس 2024 "خارطة طريق وزارة الأمن الوطني للذكاء الاصطناعي" وهي بمثابة خطة مفصلة تتناول سياسة الوزارة تجاه الذكاء الاصطناعي وكيفية حماية الشعب الأمريكي والوطن من مخاطره مع ضمان حماية الخصوصية والحقوق المدنية بثبات.
وبهدف تعزيز سلامة وأمن الذكاء الاصطناعي، فإن وزارة الأمن الداخلي قامت بما يلي:
- إنشاء المجلس الاستشاري للسلامة والأمن في مجال الذكاء الاصطناعي، ويضم خبراء في هذا المجال من القطاع الخاص والحكومة يقدمون المشورة والتوصيات للوزير ومجتمع البنية التحتية الحيوية؛ لتحسين الأمن والاستجابة للحوادث المتعلقة باستخدام الذكاء الاصطناعي.
- التعاون مع وزارة الدفاع للتخطيط لبرنامج تجريبي من شأنه تطوير قدرة الذكاء الاصطناعي التي يمكنها إصلاح نقاط الضعف في شبكات الحكومة الأمريكية الحيوية.
- التنسيق مع وكالة الأمن السيبراني وأمن البنية التحتية (CISA) بهدف اكتشاف الثغرات الأمنية المتعلقة بالتهديدات السيبرانية الموجهة ضد أنظمة الذكاء الاصطناعي.
- إنشاء برنامج ووضع إرشادات تساعد القطاع الخاص على التخفيف من مخاطر سرقة الملكية الفكرية المرتبطة بالذكاء الاصطناعي.
ج. وزارة الدفاع الأمريكية: لم تغفل استراتيجية وزارة الدفاع لاعتماد الذكاء الاصطناعي، والتي تم إصدارها في 2 نوفمبر 2023، البُعد الدفاعي لمخاطر الذكاء الاصطناعي، على الرغم من أن هدفها الأساسي هو الاستفادة من قدرات الذكاء الاصطناعي الناشئة في المستقبل، وكذلك ضمان احتفاظ المقاتلين الأمريكيين بالتفوق في اتخاذ القرار في ساحة المعركة لسنوات مقبلة، وفي هذا السياق، فقد أكدت الاستراتيجية أهمية خلق بيئة تنظيمية مناسبة يمكن من خلالها العمل على تطوير البيانات والتحليلات والنظام البيئي للذكاء الاصطناعي، وتوسيع إدارة المواهب الرقمية، وتوفير القدرات للأعمال التجارية وتأثير الحرب في الذكاء الاصطناعي، وتعزيز الحوكمة وإزالة العوائق السياسية.
3. الريادة العالمية الأمريكية للحدِّ من مخاطر الذكاء الاصطناعي:
أ. نموذج للعمل العالمي: قالت نائبة الرئيس كامالا هاريس، خلال مؤتمر صحفي على هامش الإعلان عن تلك المذكرة: "إنَّ الولايات المتحدة تأمل في الظهور كقائد دولي يضمن حسن التعامل مع تحديات الذكاء الاصطناعي، لافتة الانتباه إلى أن الإدارة الأمريكية تخطِّط لسياسات "تكون بمنزلة نموذج للعمل العالمي"، مُضيفة أنَّ "واشنطن ستعمل على مواصلة دعوة جميع الدُّول إلى أن تحذو حذوها وتضع المصلحة العامة أولاً حين يرتبط الأمر باستخدام تطبيقات للذكاء الاصطناعي".
ب. الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي: تعمل الإدارة الأمريكية على تبني المبادرات والإعلانات السياسية الدولية التي تجعلها تقود المجتمع الدولي لمعالجة مخاطر الذكاء الاصطناعي، وفي هذا السياق، يمكن ملاحظة إعلان الولايات المتحدة الأمريكية في فبراير 2023، إطلاق "الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي" خلال مؤتمر في لاهاي بهولندا، وقد أقرته 54 دولة، ويُعد بمثابة إطار دولي للمسؤولية يمكّن الدول من الاستفادة من فوائد الذكاء الاصطناعي مع تخفيف المخاطر في المجال العسكري. ويهدف إلى تحقيق رغبة الإدارة الأمريكية في مواصلة العمل مع حلفائها وشركائها لإنشاء قواعد ومعايير تعمل على تأطير الذكاء الاصطناعي على الصعيد الدولي.
ومن خلال هذا الإعلان، قررت واشنطن عقد "حوار منتظم" بين الدول المؤيدة لتعزيز الدعم الدولي لهذه الممارسات المسؤولة وتنفيذها. وبالفعل نظمت وزارة الخارجية الأمريكية بالتعاون مع وزارة الدفاع الأمريكية في الفترة من 19 إلى 20 مارس، الاجتماع الأول في جامعة ميريلاند، بمشاركة 60 دولة، وقد ناقش الاجتماع التدابير اللازمة لضمان أن يكون الاستخدام العسكري للذكاء الاصطناعي مسؤولاً وأخلاقياً ويعزز الأمن الدولي.
ج. المشاركة في أول إعلان عالمي لمخاطر الذكاء الاصطناعي: وقّعت الولايات المتحدة الأمريكية إلى جانب الاتحاد الأوروبي ونحو عشرين دولة أخرى في بريطانيا، في 31 أكتوبر 2023، إعلان بليتشلي من أجل تطوير "آمن" للذكاء الاصطناعي، خلال القمّة الدولية الأولى حول التطور السريع لهذه التكنولوجيا، ومن الواضح أن واشنطن تولي أهمية كبيرة للذكاء الاصطناعي؛ إدراكاً منها أن التطور السريع في هذا المجال يشكل تهديداً وجودياً للعالم إذا لم تتم السيطرة عليه، وبالتالي، لا داعي لواشنطن لأن تترك فراغاً يسمح لدول أخرى –مثل: الصين أو روسيا- بقيادة المجتمع الدولي لتأطير وتصميم الضمانات واللوائح التنظيمية الخاصة بهذا المجال.
وفي التقدير، يمكن القول إن الذكاء الاصطناعي يمكن أن يساعد الحكومة الأمريكية على تحقيق نتائج أفضل للشعب الأمريكي، فهو قادر على توسيع قدرة الوكالات على تنظيم وحوكمة وتوزيع الفوائد، كما يمكنه خفض التكاليف وتعزيز أمن الأنظمة الحكومية. ومع ذلك، فإن تركه دون ضوابط وقواعد تنظيمية أمر من شأنه أن يُهدد سلامة الأمريكيين وخصوصيتهم، وبالتالي فإن إدارة بايدن تسير على الطريق الصحيح حالياً في ظل قيامها باتخاذ تدابير وإجراءات وأوامر تنفيذية، تبين أنها ذات أبعاد ثلاثية لتأطير وتقنين مجال الذكاء الاصطناعي؛ رغبة منها في حماية خصوصية الأمريكيين ولضمان تعزيز المساواة والحقوق المدنية، وبالتالي؛ تحقيق السلم والأمن المجتمعي والقومي، علاوة على جعل الولايات المتحدة نموذجاً عالمياً رائداً يقتدى به للاستخدام الآمن والمأمون والجدير بالثقة للذكاء الاصطناعي.