أخبار المركز
  • د. أمل عبدالله الهدابي تكتب: (اليوم الوطني الـ53 للإمارات.. الانطلاق للمستقبل بقوة الاتحاد)
  • معالي نبيل فهمي يكتب: (التحرك العربي ضد الفوضى في المنطقة.. ما العمل؟)
  • هالة الحفناوي تكتب: (ما مستقبل البشر في عالم ما بعد الإنسانية؟)
  • مركز المستقبل يصدر ثلاث دراسات حول مستقبل الإعلام في عصر الذكاء الاصطناعي
  • حلقة نقاشية لمركز المستقبل عن (اقتصاد العملات الإلكترونية)

مخاطر الخصوصية:

تطبيقات الذكاء الاصطناعي.. تعزيز أم تقويض للديمقراطية؟

16 أكتوبر، 2024


عرض: هبة محيي

ثمة جدال متصاعد في الأوساط العلمية والسياسية حول العلاقة بين تقنيات الذكاء الاصطناعي والديمقراطية، فبينما يرى البعض أن هنالك آثاراً سلبية متوقعة جراء استخدام تلك التقنيات في المجال الديمقراطي على صعيد تزييف الحقائق أمام الرأي العام والتلاعب بالناخبين، فإن آخرين يعتبرون أن الذكاء الاصطناعي يعزز مستقبل الديمقراطيات في العالم بفعل ما يتيحه للناخبين من قواعد بيانات حول الممثلين السياسيين ومكافحة الفساد وضمان الحقوق الفردية.

 وفي إطار هذا الجدل، طرحت مؤسسة فريدريش ناومان ورقة بحثية بعنوان: "تطبيقات الذكاء الاصطناعي في تعزيز الديمقراطية" في العام 2024؛ وذلك لتقييم الفوائد المتوقعة من استخدام الذكاء الاصطناعي لنشر الديمقراطية دون التغاضي عن المخاطر المحتملة من خلال أمثلة واقعية، مع طرح استنتاجات عامة حول طبيعة العلاقة بين المجالين، وكيفية تجنب مخاطر التقنيات الحديثة على حرية الأفراد وحقوقهم كجوهر أساسي للديمقراطية.

مفاهيم أساسية: 

يُعد الذكاء الاصطناعي نظاماً تقنياً يهدف إلى تنفيذ مهام محددة بالرجوع لقواعد محددة تُسمى بالخوارزميات، والتي تتميز بأنها لا تنتهي عند القواعد المحددة سابقاً بواسطة الإنسان؛ بل تستمر في التطور ذاتياً اعتماداً على كمية البيانات التدريبية المتاحة وسعة الحوسبة، بينما ترمز الديمقراطية إلى النظام السياسي القائم على حكم الشعب، من خلال أشكال المشاركة السياسية العديدة: كالاستفتاءات والانتخابات. ويُعنى مفهوم الديمقراطية بسيادة قيم عدة: كالفصل بين السلطات، سيادة القانون، حماية حقوق الإنسان، وحقوق المواطنة.

ووفقاً للورقة البحثية، تتعدد الآراء حول إمكانية تسخير الذكاء الاصطناعي لبناء الأسس الديمقراطية، فيرى المؤيدون أن الذكاء الاصطناعي قد يؤدي إلى طفرة معلوماتية؛ ومن ثم يوفر خيارات أوسع لصانعي القرار، كما يتيح للمواطنين فرصاً واعدة للحصول على المعلومات؛ ومن ثم يحفزهم على المشاركة السياسية؛ أي يمكن للذكاء الاصطناعي المشاركة في تحقيق أهداف الأجندة الديمقراطية، من خلال رسم استراتيجيات مستقبلية فيما يتعلق باحتياجات الناخبين وتصورات المرشحين حول قضايا كتغير المناخ والبنية التحتية وغيرها.

في المقابل، تتشبث الآراء المناهضة لاستخدام الذكاء الاصطناعي بالمخاطر المحتملة له، كالقدرة على تزييف الحقائق؛ ومن ثم توجيه الرأي العام وفق خوارزميات موضوعة مسبقاً، أضف إلى ذلك إحلال الآلة محل الإنسان في الوظائف؛ مما يؤدي في نهاية المطاف إلى تركز الثروة في أيدي فئة قليلة داخل المجتمعات؛ ومن ثم تفرض تلك الفئة شروطها على العالم بما قد يقوض الديمقراطية.

تطبيقات لدعم الديمقراطية:

أشارت الورقة البحثية إلى العديد من التطبيقات الفعلية للذكاء الاصطناعي في المجال الديمقراطي، مع حرصها على عدم إغفال التهديدات المتعلقة باستخدام تلك التطبيقات، كما يلي:

- الحقوق الفردية: يُعد ضمان الحقوق الفردية أحد المطالب الأساسية للديمقراطية؛ وهي الحق في الحصول على الضمان الاجتماعي والتأمين الصحي، وتوافر ظروف العمل العادلة والحق في المساواة بغض النظر عن الجنس أو الدين. ويمكن لتطبيقات الذكاء الاصطناعي المساهمة في تحقيق تلك الأهداف. فمثلاً في مجال الحق في الصحة، يتم استخدام تطبيق (i-PROGNOSIS) في أوروبا منذ عام 2017، للكشف المبكر عن مرض باركنسون من خلال تثبيت التطبيق على الهواتف الذكية، حيث يقوم بمتابعة جودة الصوت أو سرعة كتابة المستخدمين لاكتشاف بدايات هذا المرض، إلا أن هذا النوع من التطبيقات له مخاطر كحدوث انتهاكات للحرية الشخصية للمستخدمين، أضف إلى ذلك حدوث عمليات تقييم اجتماعي للمواطنين بناءً على سلوكياتهم، مثل نظام الرصيد الاجتماعي الصيني؛ وهو النظام الذي تم تطبيقه في الصين منذ عام 2014 في عدد من المقاطعات ويستهدف تتبع الشركات والأفراد والمؤسسات الحكومية وتقييم مصداقيتها.

- آليات الرقابة: تشكل رقابة أعمال السلطات أحد ركائز الديمقراطية لتقليل احتمالات حدوث فساد مالي وإداري يسيء استغلال المال العام دون مساءلة. هنا، قدمت منظمة الشفافية الدولية في أوكرانيا 2018 برنامجاً لمكافحة الفساد في أوكرانيا يسمى (Dozorro)؛ إذ تم إمداد البرنامج بالبيانات الضخمة عن العطاءات والمناقصات؛ ليتمكن من تطوير نموذج يمكنه الكشف عن العطاءات والمناقصات ذات الاحتمالية العالية من الفساد. أما المخاطر، فتكمن في أن تلك التطبيقات تتطلب توفير قاعدة بيانات عملاقة لضمان عملها بفعالية؛ ومن ثم تخصيص مخصصات مالية كبيرة، كما قد تتعارض تلك التطبيقات مع مفهوم التوازن بين الخصوصية والشفافية؛ إذ يصبح السؤال هنا إلى أي حد يجب تتبع معلومات ممثلي السلطات لضمان محاربة الفساد وعدم حدوث انتهاك لحياتهم الخاصة؟

- فصل السلطات: تعتني الديمقراطية بالفصل بين السلطات التنفيذية والتشريعية والقضائية لضمان توزيع متوازن للسلطة، ووجود رقابة متبادلة تحد من أي فساد محتمل. ويتم اختبار تطبيق الذكاء الاصطناعي (Codefy) في بعض الولايات الفدرالية الألمانية حالياً لمساعدة السلطة القضائية عن طريق هيكلة وتصنيف الوثائق القانونية والتجارية، مع القدرة على تصنيف وتحليل المرافعات؛ الأمر الذي يوفر المزيد من الوقت والجهد للقضاة؛ ومن ثم تقليل عنصر الخطأ. لكن أيضاً هنالك مخاطر لتلك التطبيقات على صعيد النتائج التمييزية الخاطئة التي قد تنتج جراء وجود مدخلات خاطئة أو غير مكتملة أو لعدم اتصاف البيانات بالشفافية. فمثلاً، يقوم برنامج (COMPAS) في الولايات المتحدة الأمريكية بدراسة احتمالية تكرار القيام ببعض الجرائم للسجناء المحكوم عليهم، وأدى تتبع تلك النتائج للتوصل لوجود نتائج تمييزية ضد الأشخاص السود. 

- حقوق الأقليات: تُعد حماية حقوق الأقليات والتنوع اللغوي والمساواة في الفرص من أسس الديمقراطية. في هذا المجال يقوم تطبيق (Hua Ki’i) بإعادة إحياء استخدام اللغات النادرة مثل اللغة الهاوائية (المنسوبة إلى جزيرة هاواي) عن طريق استقبال العديد من المدخلات كصور الأشياء والأماكن؛ ومن ثم تقديم ترجمة لأسماء تلك الأشياء من اللغة الإنجليزية إلى اللغة السابقة فقط حالياً؛ ولضمان نجاح التطبيق يجب العمل على توفير القواميس والقواعد اللغوية المختصة باللغتين؛ مع ذلك، لا تضمن تلك التطبيقات عدم حدوث تهميش للأقليات وحرمانهم من حقوقهم، بل يجب تقنين قوانين وتشريعات تضمن للأقليات حقوقهم والعمل على نشر الوعي المجتمعي لأهمية إدماج العناصر المختلفة في المجتمع.

- التعليم السياسي وفحص المعلومات: يُعد مفهوم التعليم السياسي عنصراً حيوياً في المنظومة الديمقراطية؛ إذ يساعد المواطنين على فهم العمليات السياسية والوصول للمعلومات بسهولة وشفافية؛ كي يتمكنوا من المشاركة. ومع انتشار المعلومات المغلوطة كانت هنالك حاجة لدحض الافتراءات والأكاذيب والعمل على معرفة الأخبار الصحيحة؛ لذلك، مولت وزارة التعليم والبحث الفدرالية الألمانية تطبيق (DeFaktS) والذي يهدف لمكافحة وكشف المعلومات المضللة عن طريق استخراج البيانات من وسائل التواصل الاجتماعي وتطبيقات المراسلة؛ ومن ثم تحليلها وتحديد العوامل والأساليب المرتبطة بالمعلومات المضللة. لكن هنالك مخاطر من أن تنتج أنظمة الذكاء الاصطناعي حلولاً غير أخلاقية أو قانونية أو حتى تمييزية؛ أي تكون الحلول مفيدة لفئة بعينها في المجتمع؛ ومن ثم كان لزاماً الحكم على مخرجات الذكاء الاصطناعي وفقاً للاعتبارات القانونية والأخلاقية.

استنتاجات أساسية:

 توصلت الورقة البحثية إلى عدة استنتاجات أساسية حول العلاقة بين الديمقراطية والذكاء الاصطناعي، من أبرزها:

- تمثل تطبيقات الذكاء الاصطناعي المختلفة فرصاً واعدة لتدعيم أسس الديمقراطية بنسب متقاربة، لكن الأمر يتطلب وجود هياكل ديمقراطية فعالة لتسهيل إمكانية استغلال تلك التطبيقات، فتوافر الذكاء الاصطناعي لا يؤدي بالضرورة إلى تدعيم الديمقراطية؛ إذ يعتمد ذلك على السلطة السياسية التي يمكنها استخدام التطبيقات في تعزيز أو تقويض الديمقراطية إن أرادت.

- عدم قصر الاهتمام على استخدام تطبيقات الذكاء الاصطناعي الذي يمكنه توليد محتوى وعناصر جديدة مثل: الصور ومقاطع الفيديو والنصوص والصوت من أوامر نصية بسيطة؛ إذ تُعد تلك التطبيقات باهظة الثمن ولن تتمكن جميع الدول من استخدامها؛ لذا يمكن العمل أيضاً على الإفادة من التطبيقات الأقل تعقيداً.

- تفيد أنظمة الذكاء الاصطناعي المواطنين والمسؤولين على حد سواء، فبفضل قواعد البيانات الضخمة المتاحة تتوافر نظم أفضل للرعاية الصحية ويمكن للمواطنين الحصول على معلومات مخصصة عن الممثلين السياسيين المحتملين؛ الأمر ذاته ينطبق على الدولة في مجالات عدة كالتشريع والرقابة.

- ضرورة اتصاف أنظمة الذكاء الاصطناعي المستخدمة بالشفافية والقابلية للتتبع؛ وذلك لضمان مشروعية استخدامها وعدم حدوث التلاعب؛ مما يؤدي إلى إفادة المواطنين وتسهيل مهمتهم في البحث عن المعلومات الموثوقة ومساعدة صانعي القرار على رسم الخطط والاستراتيجيات وتطوير الأنظمة وإدخال التعديلات المطلوبة عليها.

- تؤدي أنظمة الذكاء الاصطناعي إلى تسهيل عنصر المشاركة، لكنها لا تؤدي بالضرورة لتمكين المشاركة لجميع الأطياف؛ إذ لا تتوافر بطبيعة الحال البنية التحتية التكنولوجية الملائمة لجميع الأطراف لتمكنيهم من المشاركة؛ فإذا تم الاعتماد فقط على الذكاء الاصطناعي كوسيلة لزيادة نسبة المشاركة، فقد يؤدي ذلك إلى الإضرار بالفئات المهمشة تكنولوجياً.

- تعتمد قرارات ومخرجات برامج الذكاء الاصطناعي على نوعية وجودة المدخلات من البيانات؛ لذا يمكن الاستفادة من التحول الرقمي العالمي السائد في توفير البيانات الدقيقة المطلوبة؛ بل والأهم توفير البنى التحتية التكنولوجية الملائمة بجانب توفير العامل البشري المُدَرب على خلق التطبيقات ابتداءً.  

- وقوع بعض استخدامات الذكاء الاصطناعي المتطورة تحت طائلة المساءلة الأخلاقية والقانونية، فمن المعروف أن الذكاء الاصطناعي يمكنه التطور ذاتياً وعدم الوقوف عند القواعد المعطاة بواسطة العنصر البشري؛ مما يثير التساؤل حول مدى تأثير التوصيات الناتجة بواسطة الذكاء الاصطناعي على صناع القرار بل وإمكانية الاستغناء عن العنصر البشري في المناصب الحاسمة في نهاية الأمر.

ختاماً، تشير الورقة البحثية إلى أن تدعيم الديمقراطية عبر تطبيقات الذكاء الاصطناعي؛ يتطلب من الدول المعنية توفير البنى التحتية التكنولوجية الملائمة، والأهم الإطارات التنظيمية والقانونية؛ كي لا يؤدي مزيد من التكنولوجيا إلى سلب الإنسان لحريته التي تُعد جوهر الديمقراطية. وكمبادرة لمنع إحلال الآلة محل الإنسان، يدعو مجلس الأخلاقيات الألماني (Ethikrat) إلى أهمية تضمين عناصر إنسانية أساسية عند إنشاء المعايير التقييمية لأنظمة الذكاء الاصطناعي: كالمسؤولية، النزعة الأخلاقية، القدرة على التصرف والعقلانية، وذلك للحد من مخاطر تلك الأنظمة على الديمقراطية.

المصدر:

Nikolai Horn, Matthieu Binder, Wie technologischer Fortschritt demokratische Strukturen stärken kann, Friedrich-Naumann-Stiftung für die Freiheit, April, 2024.