أخبار المركز
  • د. أحمد أمل يكتب: (تهدئة مؤقتة أم ممتدة؟ فرص وتحديات نجاح اتفاق إنهاء الخلاف الصومالي الإثيوبي برعاية تركيا)
  • سعيد عكاشة يكتب: (كوابح التصعيد: هل يصمد اتفاق وقف النار بين إسرائيل ولبنان بعد رحيل الأسد؟)
  • نشوى عبد النبي تكتب: (السفن التجارية "النووية": الجهود الصينية والكورية الجنوبية لتطوير سفن حاويات صديقة للبيئة)
  • د. أيمن سمير يكتب: (بين التوحد والتفكك: المسارات المُحتملة للانتقال السوري في مرحلة ما بعد الأسد)
  • د. رشا مصطفى عوض تكتب: (صعود قياسي: التأثيرات الاقتصادية لأجندة ترامب للعملات المشفرة في آسيا)

جدل المخاطر:

حوكمة الذكاء الاصطناعي.. تقويض أم تعزيز للابتكار؟

27 ديسمبر، 2023


أدى تزايد استخدام الذكاء الاصطناعي في مختلف المجالات الحياتية، وتزايد المخاوف من أضراره الجسيمة التي قد تصل إلى حد انقراض البشر وتجاوز ذكائهم، بالإضافة إلى احتدام المنافسة الدولية بين مختلف الدول على تطوير تقنياته وتطوير نماذج جديدة منه؛ إلى إعطاء دفعة كبرى لجهود حوكمة الذكاء الاصطناعي، بمعنى وضع قواعد حاكمة وإجراءات محددة، تكفل تنظيم تطوره، وتحدد مسؤوليات مطوريه، ضماناً لحماية حقوق مستخدميه. 

وتقف مختلف القوى الدولية في مراحل متباينة على صعيد القواعد والأُطر المقننة والمنظمة للذكاء الاصطناعي، وسط خلافات جذرية فيما بينها على أفضل السُبل التي تكفل ذلك. ولا شك في صعوبة التوصل إلى إجماع عالمي حول تلك السُبل بما يضمن تطور الذكاء الاصطناعي بوتيرة متسارعة تعظم الاستفادة منه وتعالج المخاوف العالمية منه، وهو ما يرجع في أحد أسبابه إلى التخوف من أن تقوض حوكمة الذكاء الاصطناعي الابتكار، وتسفر عن هروب الاستثمارات الدولية، وتفرض غرامات ضخمة على الشركات المطورة.

الاتجاه الأول: تقويض الابتكار 

يبرز على صعيد العلاقة بين الابتكار وحوكمة الذكاء الاصطناعي، اتجاهان متعارضان، إذ يرى أولهما أن تلك الحوكمة من شأنها أن تقوض الابتكار، فيما يدفع ثانيهما بعكس ذلك. وعموماً، يُبنى الاتجاه الأول على جملة من الحجج والأسانيد التي يأتي في مقدمتها أن عدم الاتساق التنظيمي قد يؤدي إلى خنق الابتكار؛ لأنه سيتسبب في خروج عدد كبير من الشركات التكنولوجية من المنافسة، لأنها قد تضطر إلى إنفاق الكثير من الوقت والمال للامتثال للقواعد المعقدة بدلاً من إنشاء تقنيات جديدة. ففي ظل محدودية الموارد المالية للشركات الصغيرة والناشئة، لن تملك تلك الشركات الموارد اللازمة للقيام بالأمرين معاً. ومن شأن حوكمة الذكاء الاصطناعي أن تفرض غرامات قد تصل إلى 40 مليون يورو (43 مليون دولار) في بعض الحالات، وهي غرامات مالية باهظة، لا يمكن لكل الشركات التكنولوجية تكبدها، ولاسيما أنها ستُستقطع من مبيعاتها وأرباحها السنوية.

كما يؤمن أنصار هذا الاتجاه بأن حوكمة الذكاء الاصطناعي قد تشمل عدداً كبيراً من البرامج والتطبيقات بغض النظر عن آليات استخدامها، استجابةً لتعالي الدعوات الرامية إلى توسيع نطاق حوكمة الذكاء الاصطناعي، ما سيؤدى إلى تصنيف بعض أنظمته الرائدة بوصفها "عالية المخاطر" بطبيعتها، وهو ما سيعوق المبتكرين الذين يسعون جاهدين لضمان تطور تقنيات الذكاء الاصطناعي بطرق آمنة، ولاسيما أن تلك التصنيفات قد تحدث دون تقييم دقيق لمخاطر تلك الأنظمة الفعلية، لاستحالة معرفة حدود تلك المخاطر ومستوياتها ودرجة خطورتها.

وعليه، قد يُعطِي بعض رواد الأعمال الأولوية لتأسيس شركات الذكاء الاصطناعي في البلدان ذات التنظيم المرن أو المنعدم، حتى يتمكنوا من طرح منتجاتهم في الأسواق في أسرع وقت ممكن، مع إيلاء اهتمام أقل بمتطلبات السلامة والاعتبارات الأخلاقية. بعبارة ثانية، فإن تقويض الابتكار قد يدفع الشركات المبتكرة والمستثمرين لمغادرة الدول التي تتشدد في قواعدها المنظمة؛ لأنها ستواجه تكاليف امتثال عالية ومخاطر غير متناسبة. وهو ما يعني اتجاه كثير من الشركات الابتكارية إلى نقل أنشطتها إلى الخارج، وسحب رؤوس أموالها من الأسواق الداخلية، وخاصةً الشركات العاملة في مجال التكنولوجيا الحيوية التي لن تزدهر دون حرية حركة الشركات المطورة لها.

وعلى سبيل المثال، حذّر 160 مسؤولاً تنفيذياً في قطاع التكنولوجيا مسؤولي الاتحاد الأوروبي من الآثار المترتبة على لوائح الذكاء الاصطناعي الصارمة، ولاسيما الحظر المفروض على بعض أنظمة الذكاء الاصطناعي (مثل تلك المرتبطة بالتعرف على الوجه في الوقت الفعلي، ورصد القياسات الحيوية مثل بصمة الوجه والصوت التي تقوض خصوصية المواطنين، وجمع الصور بأعداد كبيرة على الإنترنت لإنشاء خوارزميات دون موافقة الأشخاص المعنيين). كما أصدرت مجموعة من الشركات التكنولوجية خطاباً مشتركاً مُوقّعاً من 33 شركة إلى المنظِّمين في الاتحاد الأوروبي في 23 نوفمبر 2023، للتحذير من الإفراط في مراقبة أنظمة الذكاء الاصطناعي على حساب الابتكار. ودفعت تلك الشركات بأن اللوائح الصارمة للغاية لنماذج الأساس (مثل الذكاء الاصطناعي للأغراض العامة "GPAI"، وتطبيق "تشات جي بي تي") قد تقوض الابتكار، وتدفع الشركات المطورة إلى خارج دول الاتحاد الأوروبي، ما يضر بالقدرة التنافسية للقارة الأوروبية، بجانب سحب المستثمرين لرؤوس أموالهم.

وهناك حجة أخيرة يدفع بها أنصار هذا الاتجاه وهي الانفصال التام والحقيقي في كثير من الحالات بين المشرعين والهيئات التنظيمية من ناحية، وخبراء الذكاء الاصطناعي والشركات المطورة والمبتكرين ورواد الصناعة من ناحية أخرى. وهذا الانفصال قد يُعظم من أدوار تلك الهيئات التنفيذية، ويُحكم قبضتها على أمور فنية تجهل أبعادها، ويُزيد من نطاق اختصاصاتها، ويوسع دورها في تقييم التقنيات التكنولوجية، ما يؤدى إلى عدم الاتساق في ظل تعدد اللوائح المنظمة للذكاء الاصطناعي من دولة إلى أخرى، ما يخاطر بتجزئة السوق الرقمية العالمية. 

الاتجاه الثاني: تعزيز الابتكار 

يدفع هذا الاتجاه بأن حوكمة الذكاء الاصطناعي لا تتعارض مع الابتكار، إذ يُمكن لحوكمة الذكاء الاصطناعي أن تكفل التطوير الأخلاقي والمسؤول للذكاء الاصطناعي دون فرض قيود على الابتكار، ولاسيما أن التحديات التقنية والأخلاقية والاجتماعية الناجمة عن الذكاء الاصطناعي أكبر من أن تُترك دون تنظيم. بيد أن المحك الأساسي يكمن في وحدة اللوائح التنظيمية المنظمة له، ومنطقية وتناسب المعايير التنظيمية، وكذلك إمكانية إيجاد التوازن بين الرقابة والتطوير الآمن للمنتجات والقدرة على الإبداع، فضلاً عن السعي الجاد لتنظيم الذكاء الاصطناعي في ظل إعلاء قيم الشفافية والمساءلة والابتكار.

وعليه، يتطلب ذلك سن تشريعات وأُطر عمل تكفل تحديد المخاطر ومعالجتها من ناحية، وتطلق العنان للمطورين والشركات التكنولوجيا الكبرى والناشئة من ناحية أخرى. وهو ما يتأسس على قناعة مفادها أن النهج الصارم فحسب هو الذي يخنق الابتكار، ويُبطئ مساعي تطوير الذكاء الاصطناعي. ولذا، تتزايد أهمية التركيز على السياق الذي يُنشر فيه الذكاء الاصطناعي لا تقنيات بعينها، مع مراعاة التوازن بين الفوائد والمخاطر المُحتملة، وتبني نهج تشاركي عند وضع القوانين واللوائح المنظمة، على نحو يكفل الاستماع إلى أصوات الخبراء ومختلف الشركات التكنولوجية، لتوضيح ومناقشة المخاطر الفعلية التي قد تنجم عن اعتماد وطرح تقنية جديدة في الأسواق.

كما يمكن استحداث آليات لتعزيز الابتكار من خلال إقرار بعض الحوافز للشركات المطورة مع معالجة المخاطر التي يتعرض لها المستخدمون لتعزيز ثقتهم في الذكاء الاصطناعي، الأمر الذي يُعد الحافز الأكبر لدفع الابتكار قُدماً. فمن شأن الموازنة بين المخاطر الحقيقية والفرص والفوائد الناجمة عن الذكاء الاصطناعي أن تحقق التوازن المرجو بين تطويره ومعالجة نتائجه، من خلال تسهيل الابتكار المسؤول، وتقليل عدم اليقين التنظيمي، وتشجيع الاستثمار في الذكاء الاصطناعي، ودعم اعتماده في جميع المجالات، وإزالة الحواجز القائمة أمام الابتكار، ومنع ظهور حواجز جديدة، والاستفادة من نجاحات التطوير المبكرة، وتحقيق ميزات سوقية طويلة المدى. ولعل الثقة هي المفتاح الحقيقي لمختلف تلك الأهداف، فإن انعدمت ثقة المستخدمين في تقنيات الذكاء الاصطناعي، سيتراجع الطلب عليها، ومن ثم تنخفض أرباح الشركات المطورة، ما يُنذر بخروجها من دوائر المنافسة.

وهناك أيضاً اعتراف دولي بأن الذكاء الاصطناعي يتطلب استجابات تنظيمية جديدة لتوجيه الابتكار المسؤول، الأمر الذي قد يتحقق من خلال العمل مع مختلف الشركاء العالميين وإطلاق حوار عالمي بين مختلف المعنيين، لتعظيم الفرص وبناء الثقة فيه مع تخفيف مخاطره المحتملة. ويمكن البدء في معالجة بعض التحديات المجتمعية والعالمية لوضع إطار شامل لتنظيم الذكاء الاصطناعي، ولتكن القضايا المتعلقة بالوصول إلى البيانات والقدرة الحاسوبية والاستدامة، بالإضافة إلى الموازنة بين حقوق منتجي المحتوى ومطوري الذكاء الاصطناعي. وقد يأتي في مقدمة الجهود المبذولة، إقرار قانون للملكية الفكرية والذكاء الاصطناعي التوليدي، على نحو يوازن بين حماية أصحاب الحقوق والصناعة الإبداعية المزدهرة، مع دعم مطوري الذكاء الاصطناعي للوصول إلى البيانات التي يحتاجونها في إطار نهج تعاوني، يواكب التغيرات المضطردة، ويشجع التعاون بين الحكومة والهيئات التنظيمية والصناعة والمجتمع المدني.

ويمكن في هذا الإطار الإشارة إلى أهمية إقرار مجموعة من المبادئ الشاملة لبعض القطاعات، لتوجيه استجابات الجهات التنظيمية لمخاطر الذكاء الاصطناعي وفرصه، وتوضيح توقعات الدول بشأن الذكاء الاصطناعي المسؤول، وتبني مبدأ الحوكمة الرشيدة في كل مرحلة من دورة حياة الذكاء الاصطناعي، والأخذ في الاعتبار تقديرات المطورين لتحديد أولوياتهم وفقاً لخصوصية كل قطاع على حدة.

وقد يقتضي الأمر في بعض الحالات خلق بيئة حقيقية تكفل حماية الذكاء الاصطناعي من خلال عدد من القواعد التنظيمية، على أن يجمع ذلك بين الهيئات التنظيمية لدعم المبتكرين ومساعدتهم على طرح منتجاتهم في الأسواق. فهذا يعني دعم الابتكار والعمل بشكل وثيق مع مختلف الشركات ذات الصلة، مع التدخل لمعالجة المخاطر عند الضرورة، وتعزيز القدرة على جذب الاستثمارات الدولية، ودعم قابلية التشغيل البيني. كما تتزايد أيضاً أهمية تطبيق أُطر تنظيمية مرنة وغير جامدة يسهل تعديلها استجابة للتغيرات الناشئة، مع التأكد من أن الأعباء التنظيمية لا تثقل كاهل الشركات الصغيرة ذات الموارد المحدودة. وعليه، يمكن الاستفادة من الأنظمة القائمة والبناء عليها، مع التدخل بطرق متناسبة لمعالجة عدم اليقين التنظيمي والثغرات، وخلق إطار تنظيمي داعم للابتكار قادر على التكيف.

ختاماً، يتفق الاتجاهان السابقان على مخاطر الذكاء الاصطناعي، بيد أنهما يختلفان حول سُبل مجابهة تلك المخاطر؛ فحوكمة الذكاء الاصطناعي لا تعدو كونها سلاحاً ذا حدين، فقد تقوض الابتكار إن عجزت عن التمييز بين الشركات الناشئة والكبرى، وأسفرت عن طرد الاستثمارات الدولية، وأثقلت كاهل المطورين باعتبارات السلامة. وقد تدفع - في المقابل- الابتكار قُدماً إن أمكن وضع ضوابط ناظمة مرنة تشاركية داعمة. ويظل المحك الأساسي الذي يحسم مخرجات تلك الحوكمة هو الواقع العملي بالنظر إلى تجارب الدول الرائدة في هذا المجال، والتي تسعى لدفع جهود الحوكمة قُدماً، وإقرار قوانين مُلزمة لتقنين الذكاء الاصطناعي. لذا تتجه الأنظار صوب بريطانيا ودول الاتحاد الأوروبي، ولاسيما في ظل اختلاف نهج كل منهما. وحتى تبلور نتائج عملية وتجارب دولية بارزة، سيظل الصراع قائماً بين أنصار "الإبداع مع الحد الأدنى من القيود" وأنصار "خنق الإبداع"، وسط دعوات للتوفيق بينهما تحت شعار "الحاجة إلى الحوكمة لمنع الضرر".