أخبار المركز
  • د. إبراهيم فوزي يكتب: (المعضلة الروسية: المسارات المُحتملة لأزمات الانتخابات في جورجيا ورومانيا)
  • إسلام المنسي يكتب: (جدل الوساطة: هل تخلت سويسرا عن حيادها في قضايا الشرق الأوسط؟)
  • صدور العدد 38 من دورية "اتجاهات الأحداث"
  • د. إيهاب خليفة يكتب: (الروبوتات البشرية.. عندما تتجاوز الآلة حدود البرمجة)
  • د. فاطمة الزهراء عبدالفتاح تكتب: (اختراق الهزلية: كيف يحدّ المحتوى الإبداعي من "تعفن الدماغ" في "السوشيال ميديا"؟)

الخصوصية العقلية:

اتجاهات أخلاقية عالمية لمواجهة خطر التكنولوجيا العصبية

24 يوليو، 2023


شهدت العاصمة الفرنسية باريس انعقاد مؤتمر اليونسكو الأول حول أخلاقيات التكنولوجيا العصبية يوم 13 يوليو 2023، والذي ناقش وضع إطار أخلاقي عالمي لتلك التقنيات يضمن الحفاظ على حقوق الإنسان والحريات الأساسية، بما يحقق التوازن بين النواتج المذهلة لهذه الجهود وكذلك تبعاتها المُحتملة على الخصوصية العقلية وانتهاك المعلومات المخزنة بالدماغ، بما في ذلك الذكريات والأفكار. ويأتي هذا الحوار العالمي الذي يُعد الأول من نوعه عقب أسابيع من حصول شركة "نيورالينك"، المملوكة لإيلون ماسك، على موافقة إدارة الغذاء والدواء الأمريكية لبدء تجاربها السريرية على البشر؛ في مؤشر على التطور الحثيث لتلك التقنيات التي باتت قدراتها تتجاوز فك شفرات العواطف والأوامر العصبية العضلية إلى القدرة على قراءة الأفكار والذاكرة واحتمالات التحكم فيهما، فضلاً عما هو أبعد من ذلك بتوظيف تقنيات التعلم الآلي والبيانات الضخمة، وبما يطرح سيناريوهات افتراضية عديدة لاستكشاف الإشكاليات التي قد تثيرها تلك التقنيات والبحث في طرق مجابهتها.

خارطة طريق:

أعلنت اليونسكو في مؤتمرها عن تطوير "إطار أخلاقي" عالمي لمعالجة مخاوف حقوق الإنسان التي تطرحها التكنولوجيا العصبية، وقالت مديرة قطاع العلوم البشرية والاجتماعية بالمنظمة، غابرييلا راموس، إن "التقارب بين التكنولوجيا العصبية والذكاء الاصطناعي بعيد المدى، ويُحتمل أن يكون ضاراً بعدما صرنا في الطريق إلى عالم ستمكننا فيه الخوارزميات من فك شفرة العمليات العقلية للناس والتلاعب المباشر بآليات الدماغ الكامنة وراء نياتهم وعواطفهم وقراراتهم، مما يشكل خطراً على الخصوصية العقلية".

وقد شهد المؤتمر العديد من التحذيرات بشأن الاستثمار والتسويق التجاري للتقنيات العصبية والمطالبة بتنظيم التحكم في بيانات المستخدم العصبية وحماية الفئات الخاصة مثل الأطفال والأشخاص ذوي الإعاقة وكبار السن، وكذلك عدم إغفال مخاطر التقنيات غير الجراحية، والتي يبدو أن تنظيمها أقل إلحاحاً إلا أنها هي الأخرى قادرة على جمع معلومات دقيقة عن حياة مستخدميها.

ويأتي هذا الحوار كجزء من خارطة طريق لتنظيم هذه التكنولوجيا واستكمالاً لجهود المنظمة الدولية من أجل التأطير الأخلاقي للتكنولوجيات الفائقة، إذ سبق أن وضعت إطاراً أخلاقياً لتقنيات الذكاء الاصطناعي عام 2021. كما تبذل اللجنة الدولية لأخلاقيات البيولوجيا التابعة لها جهوداً لبحث الإشكاليات المتعلقة بتنظيم التقنيات العصبية أسفرت عن إصدارها تقريراً عام 2021 بعنوان "القضايا الأخلاقية للتقنيات العصبية"؛ حدد مجموعة من المبادئ الأخلاقية تتضمن السلامة العقلية والكرامة الإنسانية والهوية الشخصية والاستمرارية النفسية والاستقلالية والخصوصية العقلية وإمكانية الوصول والعدالة الاجتماعية، كما أفرد جزءاً كاملاً للحديث عن الإشكاليات القانونية والتي تضمنت الإذعان وحرية الفكر والديمقراطية، مشيراً إلى الحوكمة كأساس لتحقيق تلك المبادئ من خلال تعزيز مفاهيم الابتكار المسؤول ودمج المجال العام والصناعة في الحوار وتعزيز الشراكة بين العام والخاص.

وإلى جانب جهود اليونسكو، تُعد مؤسسة الحقوق العصبية من أبرز المنظمات المتخصصة في هذا المجال؛ وهي المؤسسة التي تحدد خمسة حقوق تسعى لدمجها في القانون الدولي لحقوق الإنسان والمبادئ التوجيهية الأخلاقية، وتتضمن الحماية من التحيز وذلك في تصميم خوارزميات التكنولوجيا العصبية، والوصول العادل إلى تقنيات التعزيز العقلي بتعزيز التوازن والعدالة، والإرادة الحرة بأن يتمتع الأفراد بالسيطرة المطلقة على صنع القرار الخاص بهم دون التلاعب غير المعروف من التقنيات العصبية الخارجية، والهوية الشخصية بتطوير الحدود لمنع التكنولوجيا من تعطيل الإحساس بالذات أو طمس الخط الفاصل بين وعي الشخص والمدخلات التكنولوجية الخارجية، وأخيراً الخصوصية العقلية من خلال التنظيم الصارم لعمليات بيع البيانات العصبية ونقلها واستخدامها.

وعلى الصعيد الوطني، قامت تشيلي بتعديل دستوري في أكتوبر 2021، بحيث يتضمن حماية "أنشطة العقل" في التطوير التقني والعلمي. كما سبق أن وافق المشرعون في تشيلي، في سبتمبر من العام نفسه، على قانون ينص على حقوق الهوية الشخصية والإرادة الحرة والخصوصية العقلية، مما يجعل تشيلي أول دولة في العالم تُشرع بشأن التكنولوجيا العصبية التي يمكن أن تتلاعب بعقل المرء، وهو ما تبعتها فيه البرازيل التي من المنتظر أن يصوت برلمانها على تعديل دستوري مشابه خلال الأشهر المقبلة.

صندوق أسود:

على الرغم من القدم النسبي للتقنيات العصبية كأجهزة وإجراءات تراقب النظام العصبي، فقد شهدت اهتماماً ملحوظاً في السنوات الأخيرة حتى صار حجم سوق التكنولوجيا العصبية في العالم يُقدر بحوالي 12.82 مليار دولار أمريكي عام 2022، ومن المتوقع أن يصل إلى حوالي 38.17 مليار دولار بحلول عام 2032، وهو النمو الذي يأتي مدفوعاً بزيادة حجم الاستثمار في شركات التكنولوجيات العصبية والذي بلغ 33.2 مليار دولار عام 2021 بزيادة 700% عن عام 2014.

وتُعبّر التكنولوجيا العصبية عن الدمج بين المكونات التقنية والجهاز العصبي؛ بهدف مراقبة وتقييم وكذلك محاكاة العمليات العصبية، ما يشمل تسجيل الإشارات الدماغية وتقييمها وترجمتها إلى أوامر تحكم تقنية وكذلك القيام بعمليات تحفيزية لمعالجة واستعادة الوظائف الدماغية، وهي التقنيات التي تتفاوت ما بين الأجهزة القابلة للارتداء حتى واجهات الدماغ والحاسوب غير الجراحية وصولاً إلى تطوير الغرسات الدماغية التي تُعد الأكثر إثارة للجدل.

ولطالما ارتبطت نماذج تطبيقات التقنيات العصبية بالرعاية الصحية والكشف المُبكر عن الأمراض ومساعدة الأفراد الذين يعانون من إعاقات حركية على القيام بأنشطتهم اليومية أو استنتاج الكلام والحركات المقصودة، وكذلك معاونة الذين يعانون من أطراف مفقودة أو تالفة للشعور باللمس والحرارة والبرودة من خلال أطرافهم الاصطناعية وغيرها من الأمثلة المذهلة. بيد أن المشروعات الجارية تستهدف تطبيقات غير طبية تمتد من المجالات العسكرية حتى التعليم والألعاب والترفيه والنقل وغيرها، وهو ما يتضمن مخاوف وتهديدات في ظل السيناريوهات الافتراضية لتلك التطبيقات وتبعاتها، وهو ما جعل اليونسكو تصف تأثيرات هذا القطاع الناشئ بـ"الصندوق الأسود"، حيث "لا نعرف الكثير عن تأثير فك شفرات الأدمغة والتلاعب بها علينا".

وفي يونيو 2023، أصدر مكتب مفوضية المعلومات في المملكة المتحدة تقريراً حذر من استخدام الشركات لتقنيات قراءة الدماغ لمراقبة موظفيها وتقييمهم وحثهم على تحسين إنتاجيتهم، وكذلك تحديد أنماط السلوك غير المرغوبة بين المرشحين للوظائف. وعلى الرغم من إمكانات توظيف ذلك لتعزيز عوامل الأمن والسلامة ولاسيما في بيئات العمل عالية الخطورة، فإنه يطرح مخاوف بشأن انتهاك الخصوصية وإخضاع البشر لعمليات فرز تنطوي على عوامل للتحيز والتمييز، فضلاً عن التداعيات النفسية والمجتمعية للضغوط التي تفرضها مثل تلك الأنظمة.

وسبق أن صدر تقرير عن "مؤسسة راند" عام 2020، يتناول تداعيات تطبيقات واجهات الدماغ والحاسوب في المجال العسكري، وتطرق إلى أثر تراجع المسؤولية الشخصية عن الأفعال، ومنها الشعور بالذنب مثلاً على عملية صُنع القرار وكذلك التحكم البشري الكامل في القرارات وتحمل تبعاتها ومن ثم القدرة على المحاسبة، فضلاً عن تداخل الفواعل بدءاً من الشركة المنتجة لتلك التقنيات، والقائم على عمليات البرمجة حتى المستخدمين الفعليين لها وكل المتداخلين في القرارات ذات الصلة، وهو ما يخلق إشكاليات جذرية في التنظيمات والقوانين ويضع التحكم البشري في حالة ارتباك حقيقية، ولاسيما مع وجود مشروعات لتطبيق تلك التقنيات عسكرياً على غرار ما أعلنته وكالة المشروعات البحثية الدفاعية المتقدمة التابعة للجيش الأمريكي في مارس 2018 بشأن تطويرها لنظام واجهة عصبية غير جراحية قادرة على القراءة والكتابة إلى نقاط متعددة في الدماغ في وقت واحد.

إشكاليات ثورية:

تركز المحاولات الرامية لتأطير التقنيات العصبية في معظمها على تحليل السيناريوهات الافتراضية لتطبيقاتها، والتي تطرح مجموعة من المخاوف بشأن الحالة الثورية التي تفرضها وما تستتبعه من مستجدات لم تعهدها البشرية من قبل، وهو ما يمكن تحديد أبرز محاوره في الآتي:

1- الخصوصية العقلية: على غرار أي تقنية فائقة، تتضمن التكنولوجيا العصبية جمعاً للبيانات وتحليلها، وهو ما يثير الإشكاليات المعهودة بشأن خصوصية البيانات وإساءة استخدامها وماهية مالكها. بيد أن الأمر يكتسب بُعداً أكثر خطورة، بالنظر إلى طبيعة البيانات التي يتم جمعها في هذه الحالة، إذ إن أغلب البيانات التي يولدها الجهاز العصبي غير واعية أي أنها تتولد لا شعورياً ولا يمتلك الإنسان التحكم الكامل فيها وبالتالي لا يمكنه إعطاء الموافقة على استخدامها، فضلاً عن خصوصية الأفكار والمشاعر بشكل يجعل الكشف عنها أمراً ينتهك الكرامة الإنسانية ذاتها.

2- الهوية والتحكم الإنساني: تستهدف التقنيات العصبية مستويات غير مسبوقة للتوغل في العمليات العقلية، ما يحمل مخاوف ليس فقط بشأن السلامة الصحية، وإنما أيضاً بشأن الهوية الشخصية التي تعكس طريقة التفكير والشعور، والتي ستعاني من الارتباك حال اشتراك الخوارزميات الآلية في اتخاذ القرارات، ما قد يصل إلى طمس ماهيتنا ووضع الإرادة الحرة محل شك.

3- حدود المسؤولية: إن إيجاد تقنيات قادرة على فك تشفير العمليات الذهنية للأشخاص، والتحكم مباشرة في آليات الدماغ التي تكمن وراء مقاصدهم ومشاعرهم وقراراتهم؛ يثير إشكاليات بشأن مسؤولية الأفراد عما تفعله نُظم آلية يتحكمون فيها من خلال أفكارهم على نطاق مسافات كبيرة، أو إذا تم توصيل عدة عقول معاً، أو مسؤوليتهم حال ارتكاب النظام أخطاء ناتجة عن خلل في قراءة تلك الأوامر غير اللفظية، ما يزعزع الافتراضات الراسخة بشأن حدود المسؤولية الشخصية القانونية أو المعنوية في عالم يتواصل فيه الناس بالتفكير فقط.

4- مجهولية المخاطر: تتطلب بعض التقنيات العصبية زراعة جسم غريب في الدماغ بما يحمله ذلك من مضاعفات تمتد من العدوى والنزيف والالتهابات إلى تلف الدماغ، فضلاً عن المجهولية التامة لتداعياتها طويلة الأمد نفسياً وجسدياً، ومجهولية تطبيقها على قطاعات بعينها مثل الأطفال والمراهقين واحتمالات عرقلتها للنمو الطبيعي للجهاز العصبي، وهو ما يجعل من الصعب وضع تنظيمات قانونية لتقنيات ذات تأثيرات مجهولة في الأفراد والنُظم.

5- النُظم التكاملية: لا تعمل التقنيات العصبية بشكل مستقل ولكنها عادة ما تتصل بآليات الذكاء الاصطناعي وإنترنت الأشياء وتحليل البيانات الضخمة، وهو ما يضعها أمام خطر السيطرة المفرطة والتحيز والتمييز، فضلاً عن انتهاك الخصوصية.

6- جرائم محتملة: لا يقتصر تطوير التطبيقات التكنولوجية على الشركات المؤسسية التي تخضع للتنظيمات القانونية والأخلاقية فحسب، وإنما قد تمتلكها العصابات الإجرامية التي قد تسرق معلومات شديدة الحساسية عن الأنشطة الدماغية لمسؤول حكومي أو مجموعة من الجنود أو حتى تتداخل مع قواعد البيانات وأنظمة التحكم المتصلة بأنظمة التقنيات العصبية في شركة أو مؤسسة حكومية أو هيئة أمنية، وغيرها من الممارسات التي لا يزال العالم يعاني من تبعاتها على مستوى التقنيات الرقمية.

7- عدم التوازن: من بين 1400 شركة تعمل في مجال التقنيات العصبية، تستحوذ الولايات المتحدة على 50% منها، وأوروبا على 35%، وهو ما يعكس صورة مستقبلية شديدة التباين في عوائد تلك التكنولوجيا، الأمر الذي لا يقتصر على ما بين الدول فقط وإنما داخل المجتمع الواحد؛ إذ يحظى الأثرياء بفرص أوفر للاستفادة من تطبيقات التقنيات العصبية ومن ثم تعزيز الفجوات وفرص الوصول.

الخلاصة، إن الجدال بشأن تلك الإشكاليات للتقنيات العصبية، وكذلك الأُطر الأخلاقية التي تطرحها المبادرات الدولية أو الوطنية لمواجهتها؛ يعبر عن مساعي الحفاظ على حقوق الإنسان الأساسية في الخصوصية وحرية الفكر والإرادة، ومحاولات تحقيق التوازن بين منافع التكنولوجيا العصبية، ولاسيما في القطاع الطبي والحفاظ على الحقوق والهوية الإنسانية، من أجل الحيلولة دون الانجراف مع أطروحة البشر الخارقين والتسويق لـ"بشر بلا حدود جسدية أو عقلية"، ما يضع ماهية الإنسانية نفسها على المحك بكل ما يشوبها من ضعف واعتلالات تسهم هي ذاتها في تعريف ما هو بشري.