المساءلة الخوارزمية:

تحديات الأطر التنظيمية لمواجهة مخاطر الذكاء الاصطناعي

30 September 2024


عرض: هند سمير

شهدت أنظمة الذكاء الاصطناعي تطوراً كبيراً، منذ إطلاق شركة مايكروسوفت لروبوت المحادثة "تاي" عام 2016، والذي تم إيقافه بعد نشره تغريدات عنصرية. وفي عام 2022، قدمت شركة (OpenAI) برنامج (ChatGPT)؛ مما أطلق حقبة جديدة من الذكاء الاصطناعي التوليدي القادر على معالجة وإنتاج المعلومات، عبر مختلف الوسائط مثل: النصوص والصور والفيديو. ورغم التفاؤل بإمكاناته الهائلة؛ فإن تجربة "تاي" أظهرت الحاجة لوضع حواجز أمان تمنع الخوارزميات من التعلم الديناميكي والتفاعلي من سلوك المستخدم الضار؛ بل إن تطور الذكاء الاصطناعي جعل الأضرار الناجمة عنه أقل وضوحاً وأكثر عمقاً؛ خاصة حول حقوق الملكية الفكرية، وحوكمة الذكاء الاصطناعي التي تتطلب نهجاً شاملاً يأخذ بالاعتبار التداعيات الاجتماعية والاقتصادية والقانونية المعقدة. 

استجابة لذلك، تأتي أهمية تقرير مؤسسة (ORF) للأبحاث في يونيو 2024؛ إذ يطرح التحديات أمام تنظيم وتطوير الذكاء الاصطناعي، ثم يقترح إطاراً تنظيمياً مرناً للتعامل مع المخاطر في هذا المجال؛ يوازن فيه بين الابتكار ومراعاة الاحتياجات الاجتماعية والاقتصادية والبيئية، كما يدعو إلى تعزيز التعاون الدولي في مجال تنظيم الذكاء الاصطناعي لضمان معايير موحدة ومنسقة عالمياً، ومعالجة القضايا الأخلاقية المرتبطة بالذكاء الاصطناعي كالخصوصية والشفافية والإنصاف.

تحديات السياق: 

ثمة سياقات أساسية وأخرى متغيرة تجري فيها عملية تنظيم الذكاء الاصطناعي، وتشمل التطورات التكنولوجية والتحولات الاقتصادية والاجتماعية والتحديات القانونية والسياسات الدولية، وتطرح تلك السياقات عدة تحديات أمام تنظيم الذكاء الاصطناعي منها:

- استغلال البيانات دون مراعاة حقوق أصحابها: رغم أن البيانات ليست مورداً محدوداً؛ فإن البنية التحتية الحاسوبية والخوارزميات المملوكة التي تستخدمها شركات التكنولوجيا الكبرى لجمع البيانات قد تقوض حقوق ملكية البيانات الشخصية؛ مما يؤدي إلى تحول البيانات المجمعة إلى مخرجات تحليلية يفقد فيها الأفراد حقوقهم. وينتج عن ذلك استغلال اقتصادي للبيانات دون تعويض أو إعادة توزيع للقيمة على أصحاب البيانات الأصليين.

- مخاوف عدم عدالة المنافسة بسبب الشركات الكبرى: يعتمد تطور الذكاء الاصطناعي على كميات ضخمة من البيانات والبنية التحتية الحاسوبية؛ مما يعزز قوة الشركات الكبرى مثل: مايكروسوفت وفيسبوك وأمازون وجوجل. هذه الشركات تسيطر على بيانات ضخمة وتستخدمها لتدريب نماذج ذكاء اصطناعي متقدمة؛ مما يثير المخاوف خاصة في الاتحاد الأوروبي بشأن عدم عدالة المنافسة. وتثير الهيمنة السوقية لهذه الشركات تساؤلات حول كيفية إدارة التعاون والمنافسة في تطوير وتوزيع الذكاء الاصطناعي.

- الفجوات بين الدول المتقدمة والنامية: تهيمن الولايات المتحدة والصين على الابتكار في الذكاء الاصطناعي، بينما يتصدر الاتحاد الأوروبي التنظيم عبر قانون الذكاء الاصطناعي؛ ويؤدي هذا التباعد بين الابتكار والتنظيم إلى استغلال العالم النامي كمزود للبيانات دون أن يحقق منافع اقتصادية كبيرة. هذه الديناميكية تعمق الفجوات بين الدول المتقدمة والنامية؛ إذ تستفيد الشركات الكبرى من الابتكار وتنظيمه، بينما يتم تجاهل تأثيرات هذه السياسات في بقية العالم.

انحرافات السوق:

ثمة مخاوف متصاعدة من انحرافات سوق الذكاء الاصطناعي؛ بسبب ضعف الأطر التنظيمية في هذا المجال. هنا، يشير تقرير مؤسسة (ORF) للأبحاث إلى حالة قطاع الدفاع لشرح الآثار الخارجية السلبية التي تولدها أنظمة الذكاء الاصطناعي والتوغل العميق الذي حققته حتى الآن، ويزداد الطلب على القدرات العسكرية المدفوعة بالذكاء الاصطناعي؛ إذ استثمرت الولايات المتحدة والصين بشكل كبير في تطوير تطبيقات عسكرية للذكاء الاصطناعي، وبلغت قيمة سوق الذكاء الاصطناعي الدفاعي 9.23 مليار دولار في عام 2023، ومن المتوقع أن تشهد نمواً ملحوظاً، مع تطور أنظمة مكافحة الطائرات من دون طيار والأسلحة الذكية المستقلة.

ويثير البعض تساؤلات حول مدى إمكانية المساءلة في مجال الدفاع؛ خاصة مع ابتكار ذخائر وأنظمة وأسلحة ذكية مستقلة ومزودة بالذكاء الاصطناعي، كذلك حدود القدرة على التفرقة بين الاستخدامات المدنية والعسكرية للتكنولوجيات ذات الاستخدام المزدوج، والآثار المترتبة على ذلك مدنياً وجنائياً.

وسلط التقرير الضوء أيضاً على تركز الابتكار في مجال الذكاء الاصطناعي، وتأثيره في المسؤوليات القانونية والأخلاقية. فقد أصبحت شركات التكنولوجيا الكبرى تهيمن على سوق الذكاء الاصطناعي وتطوير نماذجه بسبب امتلاكها لمجموعات ضخمة من البيانات والقدرات الحاسوبية اللازمة لذلك. هذا التمركز يخلق بيئة غير متكافئة؛ إذ يواجه المستثمرون الجدد صعوبة في المنافسة دون الاعتماد على البنية التحتية لهذه الشركات؛ وهو ما يؤدي إلى مزيد من الدمج في السوق.

من جهة أخرى، تتمكن الشركات الكبرى من تجنب المسؤولية عن الأضرار التي قد تنتج عن أنظمة الذكاء الاصطناعي الخاصة بها، وتحمي هذه الشركات نفسها من خلال سياسات كعدم المطالبة بملكية المحتوى الذي تولده أنظمة الذكاء الاصطناعي؛ مما يعقد تحديد المسؤولية في حالات العواقب السلبية. في ظل هذه الظروف، تظل التساؤلات مطروحة حول كيفية تحقيق العدالة والمساءلة؛ إذ تسعى سوق الذكاء الاصطناعي الحالية إلى الحفاظ على هيمنة الشركات الكبرى على الابتكار والموارد، وتسلط هذه الانحرافات في السوق الضوء على التحديات الكبيرة التي تواجه تنظيم الذكاء الاصطناعي، سواء في الاستخدامات العسكرية أم المدنية، مع الحاجة إلى وضع أطر قانونية تراعي المخاطر الاجتماعية والأخلاقية المرتبطة بهذه التقنيات المتطورة.

من جانب آخر، ثمة إشكالية تتعلق بكيفية استخدام الأخلاقيات كوسيلة للابتعاد عن المعايير والقوانين الدولية؛ بمعنى آخر، يتم تسليط الضوء على القضايا الأخلاقية لتجنب مناقشة الالتزامات القانونية الدولية أو للتأثير في القرارات الدولية، بطريقة تبرر سلوكاً غير قانوني أو غير أخلاقي. ويمكن تناول قضية حوكمة الذكاء الاصطناعي، باعتبارها أحد الأبعاد الأخلاقية الخاصة بالذكاء الاصطناعي؛ إذ إن المبادئ الأخلاقية المتعلقة بالذكاء الاصطناعي، رغم أهميتها، تبقى غير ملزمة وغير كافية لمواجهة التحديات العملية والواقعية في هذا المجال.

على سبيل المثال، تفتقر المعاهدة الخاصة بالذكاء الاصطناعي التي اعتمدها مجلس أوروبا في مايو 2024 إلى تفاصيل واضحة حول التزامات الأطراف، كما تعالج بعض القضايا بشكل غير مباشر؛ مما يضعف فعاليتها في معالجة الأضرار الناتجة عن أنظمة الذكاء الاصطناعي، كما أن قرار الجمعية العامة للأمم المتحدة بشأن الذكاء الاصطناعي يتجنب بحث التعديلات الضرورية في القانون الدولي.

يضاف إلى كل تلك التحديات، الطبيعة العابرة للحدود الوطنية لأنظمة الذكاء الاصطناعي، وهيمنة اللغة الإنجليزية كشكل من أشكال البيانات التي يتم تدريب أنظمة الذكاء الاصطناعي عليها، إلى جانب التفاوتات العالمية في كفاءات الذكاء الاصطناعي بين الدول النامية والمتقدمة، كما لا تستطيع البنية القانونية للدول مواكبة التطورات السريعة في مجال الذكاء الاصطناعي؛ إذ يتطلب ذلك مراجعة شاملة للنهج القانوني لإدارة هذا المجال.

إطار مقترح:

يتطلب تنظيم الذكاء الاصطناعي التعامل مع حقائق وتحديات متعددة ومترابطة؛ تمت الإشارة إليها سابقاً، مثل: تركيز السوق، والتوزيع غير المتكافئ للموارد والتمثيل الناقص في مجموعات البيانات ومجتمع المطورين. هذه الظروف تؤثر في مختلف الجهات الفاعلة في منظومة الذكاء الاصطناعي، وتؤدي إلى تأثير الدومينو؛ مما يصعب تحديد مصدر المخاطر بدقة.

وتنشأ أهمية إدارة هذه المخاطر الديناميكية للذكاء الاصطناعي مع استمرار الخوارزميات في التعلم من تفاعلات المستخدم، والتي قد تؤدي إلى مشكلات مثل المخرجات المتحيزة أو التمييزية، ويشير تقرير مؤسسة (ORF) إلى أن تنظيم الذكاء الاصطناعي يجب أن يتعامل مع هذه المخاطر من خلال أطر عمل ديناميكية تستند إلى تقييم المخاطر وتحديد التدخلات المناسبة. واقترح التقرير إطاراً  للتعامل مع المخاطر والابتكار؛ بما يساعد في تطوير والحفاظ على سلامة المؤسسات، مع الأخذ في الاعتبار التغيرات في المشهد السائد. ويعتمد الإطار على عدة مكونات رئيسية، تتمثل في:

- القدرات الديناميكية للحوكمة والتوافق الاستراتيجي: يجب على صناع السياسات والجهات التنظيمية أن يكونوا قادرين على استشعار التغيرات السريعة في مجال الذكاء الاصطناعي وتخطيط الاستجابة لها. يتضمن ذلك تحديد مناطق المشكلات المحتملة، ومعدل تأثيرها، وتحديد نطاق التنظيم المطلوب.

- رسم خرائط المخاطر والآثار والمسؤوليات: أي تخطيط وتصنيف المخاطر وأسبابها وتأثيراتها؛ مما يساعد على تحديد المسؤوليات وتوزيعها على أصحاب المصلحة.

- تطوير أطر الامتثال والدعم: بمجرد تحديد المخاطر والمسؤوليات؛ يجب تطوير أطر ومعايير وإرشادات لمساعدة الشركات على التخفيف من المخاطر، مع ضرورة مراجعة هذه المعايير بشكل دوري، بناءً على ملاحظات أصحاب المصلحة وتغيرات القدرات التكنولوجية.

- تحديد أساليب وعمليات التصعيد الشبكي: نظراً للطبيعة العابرة للحدود للشركات الكبرى والتفاوتات العالمية في توزيع الموارد لإنتاج الذكاء الاصطناعي وتطويره؛ يجب تطوير أساليب لتصعيد المشكلات عند الحاجة، بدءاً من التنظيم الذاتي وحتى التدخل الحكومي إذا لزم الأمر ويتطلب ذلك تطوير القدرة المؤسسية التي تنطوي على الخبرة التنظيمية التقليدية جنباً إلى جنب مع الخبرة الفنية في مجال الذكاء الاصطناعي.

تنسيق الاستجابات:

ثمة فجوة تنظيمية بين الشمال والجنوب العالمي فيما يتعلق بتطوير واستخدام الذكاء الاصطناعي. فبينما تتفق الدول المتقدمة والمؤسسات على مبادئ مشتركة لحوكمة الذكاء الاصطناعي، لكن التركيز يتمحور حول الابتكار في الولايات المتحدة والصين أو التنظيم في الاتحاد الأوروبي. على الجانب الآخر، تسعى الدول النامية، مثل: الهند والبرازيل والأرجنتين، إلى بناء الكفاءات الوطنية رغم محدودية الموارد.

في هذا السياق، ينبه التقرير إلى أن هناك اعتماداً مفرطاً من قبل الدول النامية على المبادئ التنظيمية للذكاء الاصطناعي من الدول المتقدمة، على الرغم من أن تلك المبادئ قد لا تكون ذات صلة بالسياقات المحلية. للتغلب على هذه التحديات، يجب تطوير استراتيجيات تنظيمية متعددة الأطراف تأخذ بالاعتبار الضرورات السيادية والكفاءات الوطنية؛ مما يساعد على تحقيق توازن بين الابتكار والتخفيف من المخاطر.

وحتى يعمل الإطار المقترح في هذا التقرير كنهج تنظيمي فعال ومستند إلى المخاطر ويهدف إلى إدارة التحديات الناشئة عن الظروف النظامية والمخاطر المتعددة الأبعاد للذكاء الاصطناعي؛ لا بد من دمج عدة اعتبارات:

- تنظيم العواقب: يجب أن يكون تنظيم الذكاء الاصطناعي محفزاً للابتكار ورادعاً للمخاطر، من خلال دمج المسؤولية والالتزام في تطوير وإدارة المخاطر داخل حوكمة الذكاء الاصطناعي.

- نموذج الوباء: يستند إلى عملية اختبار الابتكارات في بيئة خاضعة للرقابة قبل استخدامها على نطاق واسع، على غرار ما حدث مع لقاحات "كوفيد19"؛ هذا النموذج يهدف إلى منع العواقب غير المقصودة من الابتكارات التي قد تكون موجهة للربح على حساب السلامة.

- المساءلة الخوارزمية: تتطلب أنظمة الذكاء الاصطناعي أطراً ومعايير تدقيق تضمن المساءلة والشفافية، مع عمليات توثيق وتقييم دورية للكشف عن المخاطر الناشئة وإدارتها.

ختاماً، يشدد التقرير على أهمية التعاون الدولي لإنشاء معايير وأطر عالمية منسجمة لحوكمة الذكاء الاصطناعي، مع ضرورة أن تقوم الدول النامية ببناء القدرات المؤسسية لمواكبة التطورات العالمية في هذا المجال.

المصدر:

Saran, S., Nandi, A., & Patil, S. (2024, June). ‘Moving Horizons’: A responsive and risk-based regulatory framework for A.I. Observer Research Foundation. https://www.orfonline.org/research/moving-horizons-a-responsive-and-risk-based-regulatory-framework-for-a-i/