التحليلات - التطورات التكنولوجية

معضلة الخصوصية:

تحديات حظر المحتوي الإرهابي على مواقع التواصل الاجتماعي

د. فاطمة الزهراء عبدالفتاح

الأربعاء, 26 يوليو, 2017

معضلة الخصوصية:

في السادس والعشرين من يونيو الماضي أعلنت شركات فيسبوك ومايكروسوفت وتويتر ويوتيوب عن تأسيس "منتدى الإنترنت العالمي لمكافحة الإرهاب" وذلك عقب أيام من انتهاء أعمال القمة الأوروبية في بروكسل (23 يونيو 2017) والتي حثت شركات وسائل التواصل الاجتماعي على اتخاذ ما يلزم لمنع انتشار المواد الإرهابية على الإنترنت.

تعكس تلك التحركات والضغوط تصاعد حدة الانتقادات الدولية ضد تلك الشركات، والتي وصلت إلى حد اتهامها بالتورط في دعم الإرهابيين الذين يستخدمون أدواتها الرقمية، ما يطرح تساؤلات ليس فقط بشأن آليات وتحديات حظر المحتوى الإرهابي على مواقع الإعلام الاجتماعي، وإنما أيضًا بشأن التوافق على ماهية هذا المحتوى بالأساس.

ضغوط متزايدة:

في الشهور الأخيرة واجهت شركات فيسبوك وتويتر وجوجل ضغوطًا متزايدة من جانب الحكومات لمنع استخدام المتطرفين لمنصاتهم الاجتماعية، عبر توجيه التصريحات وإطلاق البيانات وعقد اللقاءات على مستوى الدول أو التجمعات الدولية، فضلاً عن شن الحملات المشتركة على غرار إطلاق رئيسة وزراء بريطانيا تيريزا ماي، والرئيس الفرنسي إيمانويل ماكرون، في يونيو الماضي، حملة مشتركة لبحث سبل توفير بيئة آمنة على الإنترنت، من بينها تحميل الشركات المسئولية القانونية إذا رفضت إزالة محتويات بعينها.

كما امتدت تلك الضغوط إلى الملاحقات القضائية ورفع دعاوى تتهم الشركات بتقديم الدعم المادي للتنظيمات الإرهابية، ما يفتح المجال أمام توقيع عقوبات على تلك الشركات ودفع تعويضات باهظة للضحايا وأسرهم، إلى جانب الضغوط التشريعية عبر التلويح بفرض قوانين تُلزم شركات الإعلام الاجتماعي بتحمل تكاليف مراقبة محتوى الإنترنت، ونشر تقارير عامة عن تفاصيل عمليات الفحص، وفقًا لما أعلنته لجنة للمشرّعين البريطانيين في مايو الماضي، أو سَنّ تشريعات تفرض بالفعل غرامات ضخمة ضد الشركات المتقاعسة. 

فعلى سبيل المثال، أقرت ألمانيا في أبريل من العام الجاري قانونًا يفرض غرامة قدرها 50 مليون يورو على الشبكات حال امتناعها عن خيار الإبلاغ عن خطابات الكراهية والأخبار المزيفة، أو إذا رفضت إزالة المحتويات غير القانونية المبلّغ عنها، سواء كانت صور الاعتداءات الجنسية على الأطفال أو التحريض على الإرهاب.

وعلى الرغم من أن استخدام الجماعات الإرهابية للإعلام الاجتماعي ليس بالأمر الجديد؛ إلا أنه يمكن تفسير تصاعد وتيرة تلك الضغوط خلال العامين الأخيرين بقضية تجنيد المقاتلين الأجانب عبر الإنترنت، والتي مثلت نقطة محورية في إثارة حفيظة الدول الكبرى ضد مواقع التواصل الاجتماعي، لا سيما تلك الدول التي شهدت عمليات إرهابية نفذها متطرفون يحملون جنسيتها. فقد استثمرت التنظيمات المتطرفة -وفي مقدمتها "داعش"- تقنيات التواصل العابر للحدود والتفاعل المباشر التي أتاحتها الشبكات الاجتماعية في مخاطبة قطاع عريض من المقاتلين المحتملين، ما انعكس في صعود ما يُسمى باستراتيجية "الذئاب المنفردة".

وكانت ظاهرة "الذئاب المنفردة"، واستخدام الإعلام الاجتماعي في تجنيدها، سمة أساسية للعمليات الإرهابية في الأراضي الأوروبية خلال العامين الأخيرين، سواء في هجمات باريس (نوفمبر 2015)، أو هجوم أورلاندو بالولايات المتحدة (يونيو 2016)، أو ما تلاهما من هجمات بالدول الأوروبية، وهو ما أشارت إليه دراسة أمريكية أجراها ألكسندر هيتشنز وسيموس هيوز الباحثان في "البرنامج حول التطرف" بجامعة جورج واشنطن، ونشرت نتائجها في مارس 2017.

قالت الدراسة إن ثمانية مشاريع هجمات على الأقل من أصل 38 خُطط لها أو نُفذت في الولايات المتحدة منذ 2014، دبرها أو نفذها أشخاص أعدهم "مدربون افتراضيون" عبر الإنترنت تابعون لتنظيم "داعش"، وأن هؤلاء المدربين الافتراضيين يعملون بصورة مستقلة للتخطيط لهجمات دون إشراف من قادة التنظيم، مستخدمين شبكات التواصل الاجتماعي ومواقع الرسائل المشفرة.

كما نشرت مجلة "بيزنس إنسايدر" الأسترالية عام 2014 مقالاً للباحث الأمني "جيف باردين" أوضح فيه نتائج دراسته لأنشطة مجموعات الإرهابية على مواقع التواصل الاجتماعي خلال ثماني سنوات، والتي خلُصت إلى أن داعش يجند شهريًّا أكثر من 3400 عنصر عبر حملات إلكترونية غاية في التنسيق.

ووفقًا لدراسة معهد بروكنجز "إحصاء تويتر داعش: تعريف ووصف داعمي داعش على تويتر" والتي صدرت في مارس 2015، فقد استخدم مؤيدو التنظيم 46 ألف حساب على تويتر بين سبتمبر وديسمبر 2014 على الرغم من أنهم لم يكونوا نشطين في الوقت نفسه، وهي الإحصاءات التي تكشف في مجملها عن توظيف التنظيمات الإرهابية لإمكانات التواصل غير المسبوقة التي أتاحتها الشبكات الاجتماعية لأغراض التجنيد والدِّعاية والحشد والتمويل.

سياسات مكافحة المحتوى الإرهابي:

تتحمل مواقع التواصل الاجتماعي مسئولية إزاء المحتوى الإرهابي الذي تبثه، ليس فقط باعتبارها الجهة المقدِّمة للخدمة والمسئولة عما تحتويه من مضمون، وإنما لامتلاكها هذا المضمون نفسه بموجب أحكام وسياسات الاستخدام التي تعلنها تلك الشركات، وتُعد الموافقة عليها شرطًا مسبقًا لإنشاء أي حساب عليها. وقد اتبعت شركات الإعلام الاجتماعي سياسات لمحاصرة المحتوى الإرهابي ترتكز على عدة مسارات رئيسية متكاملة، هي:

1- تطوير المكافحة الآلية: والتي تعتمد على تقنيات الذكاء الاصطناعي التي تقوم على ابتكار البرمجيات القادرة على رصد المحتوى وحظره، عبر تقنيات متطورة، بما يتضمنه ذلك من جهد ومخصصات مالية للاستثمار في البحوث وعمليات التطوير والابتكار.

ومن أبرز تلك التقنيات مطابقة الصور التي تمنع رفع أو تداول المحتوى المسجل في قواعد البيانات، باعتباره محتوى إرهابيًّا، وتقنيات التحليل الدلالي التي تعتمد على خوارزميات متقدمة تقوم بتحليل اللغة لرصد المحتوى الداعم والمؤيد، وتقنيات رصد الشبكات الإرهابية عبر تحليل الارتباطات بين الحسابات والصفحات، فضلاً عن رصد الحسابات المزيفة والحظر العابر للمنصات بمنع تواجد الحساب على مختلف المنصات الاجتماعية، وهو ما يتم بشكل آلي عبر تقنيات الذكاء الاصطناعي التي لا تسعى فقط إلى رصد المحتوى الإرهابي ولكن رصده بسرعة تفوق ملاحظة المستخدمين له، والدخول في شبكة معقدة من إعادة النشر وإعادة التحميل تطيل فترة بقاء هذا المحتوى على الشبكة.

2- تطوير الآليات البشرية: بالنظر إلى عدم القدرة الكاملة للآلات على تعقب واكتشاف كل النشاطات الداعمة للإرهاب أو تمييز سياقاتها، تأتي أهمية الذراع الثانية لآليات المكافحة، وهي المكافحة البشرية من خلال فرق فحص بلاغات المستخدمين الذين يقدمون تقارير ضد حسابات أو محتوى يحض على العنف والكراهية، وكذلك الاستعانة بالمنظمات المستقلة والخبراء المتخصصين. 

وقد أعلن فيسبوك أن عمليات التدقيق في التقارير والمراجعات تتم عبر فرق مجتمعية منتشرة حول العالم، سيتم زيادتها بنحو ثلاثة آلاف شخص خلال العام المقبل، فضلاً عن استعانته بالمتخصصين في قضايا التطرف ومكافحة الإرهاب الذين يبلغ عددهم أكثر من 150 شخصًا. 

كما أطلق موقع يوتيوب برنامجًا باسم "المبلغون الموثوق بهم"، والذي يسمح لجماعات وأفراد وصفتهم الشركة بأنهم "اختيروا بناء على دقتهم في التعرف على المحتوى الذي يخالف سياسات يوتيوب" بالإبلاغ عن أعداد كبيرة من مقاطع الفيديو مع التصرف في هذه البلاغات على الفور، وقد أعلن يوتيوب خلال الشهر الماضي عن توسيع البرنامج بإضافة خمسين منظمة غير حكومية خبيرة إلى جانب ثلاث وستين منظمة منضمة حاليًّا إليه.

3- تطوير السياسات والقواعد الضابطة للمحتوى وتحديثها، فلم تكتفِ مواقع التواصل الاجتماعي بإدراج بنود في سياسات استخدامها تُلزم روادها بقواعد لمكافحة الإرهاب والعنف والكراهية، وإتاحة آليات للإبلاغ عنها، ولكنها عملت أيضًا على تحديثها، إذ أعلن فيسبوك -على سبيل المثال- عن تطبيق سياسة جديدة تمنع الأفراد من الإعلان عن الأسلحة النارية أو بيعها على الشبكة.

كما أعلن يوتيوب سياسات جديدة بشأن "المحتوى الجدالي" أي المحتوى الذي لا يندرج عليه وصف الإرهاب، ولكنه يتضمن خطابًا دينيًّا متشددًا أو قد يؤدي إلى ممارسة العنف حتى وإن لم يتضمن ذلك صراحة، حيث أعلنت شركة جوجل المالكة للموقع في 18 يونيو 2017 عن سياسات جديدة لمحاصرة هذا المحتوى، تتضمن وضع تحذيرات للمستخدمين قبل ولوجهم إلى هذا النوع من المحتوى، ومنع التعليق عليه أو منحه تقييمات إيجابية، وكذلك منع ظهور الإعلانات عليه، ما يحرم الناشر من فرص التربح والحصول على المال، كما سيتم استبعاد هذا المحتوى من قوائم الترشيحات المقترحة.

4- بناء الشراكات والتعاون، سواء على مستوى الصناعة التكنولوجية نفسها، أو على مستوى الفاعلين ذوي المصلحة، ويعبر منتدى الإنترنت العالمي لمكافحة الإرهاب الذي أعلنت شركات فيسبوك ومايكروسوفت وتويتر ويوتيوب (جوجل/ألفابيت) في يونيو الماضي عن تأسيسه نموذجًا للشراكة على مستوى الصناعة وكذلك على مستوى الفاعلين ذوي الصلة.

يعبر المنتدى عن مبادرة دولية لا تشمل الشركات الأربع فقط، وإنما تمتد للشركات الناشئة والمجتمع المدني والأكاديميين والحكومات والمنظمات الدولية لتقاسم الموارد والأدوات التكنولوجية والتنظيمية، وتطوير الحلول التقنية لرصد المحتوى الإرهابي، وتطوير خطاب مضاد للدِّعاية الإرهابية.

وقد سبق وأعلنت الشركات الأربع في ديسمبر 2016 عن تأسيس شراكة عالمية لمكافحة المحتوى "ذي الطابع الإرهابي"، تشمل إنشاء قاعدة بيانات مشتركة تتضمن "البصمات الرقمية" للصور، أو شرائط الفيديو الترويجية والمعدة للاستقطاب والتجنيد، في خطوة هامة على صعيد تشارك الموارد والمعرفة.

ولا يُعد المنتدى هو المبادرة الوحيدة لبناء شراكات لمكافحة المحتوى الإرهابي، إذ سبق وأعلن فيسبوك يوم 24 يونيو الماضي عن "مبادرة الشجاعة المدنية عبر الإنترنت في بريطانيا"، والتي تهدف إلى تدريب وتمويل منظمات أهلية بهدف محاربة التطرف وخطابات الكراهية، وانضم لها شركاء بريطانيون، منهم مؤسسة "جو كوكس" التي جرى إنشاؤها بعد مصرع البرلمانية البريطانية المعروفة بمواقفها المتعاطفة مع اللاجئين في يونيو 2016، فضلاً عن جماعات مناهضة للكراهية من اليهود والمسلمين. كما سبق وأطلق فيسبوك مبادرات في الإطار ذاته لمناهضة الكراهية في ألمانيا 2016، وفرنسا 2017، واللتين شهدتا هجمات إرهابية خلال العامين الأخيرين.

5- تفعيل المحتوى المضاد: وذلك بتشجيع إنتاج المحتوى المناهض للإرهاب، وهو ما اتبعت فيه شركات التكنولوجيا مسارات مختلفة، ففيما اتجه فيسبوك لعقد الشراكات مع المنظمات غير الحكومية للتدريب على إنتاج هذا الخطاب، ودعم الأصوات الأكثر تأثيرًا فيه، فقد اتبع يوتيوب أسلوب إعادة التوجيه عبر برنامج المبدعين من أجل التغيير الذي يعمل على إعادة توجيه المستخدمين الذين يلجون إلى محتوى يروّج للإرهاب إلى محتوى مضاد للتطرف.

صعوبات وتحديات:

في ظل الضغوط المتزايدة التي يمارسها المجتمع الدولي من أجل حفز الشركات التكنولوجية على تطوير آليات وسياسات مكافحتها للمحتوى الإرهابي، وما يقابلها من جهود تبذلها تلك الشركات بالفعل لتجنب الاتهامات السياسية أو التضييقات القانونية أو الملاحقات القضائية، وما يستتبعه ذلك من خسائر اقتصادية جسيمة، تظهر عدة صعوبات وتحديات تعترض مهمة حظر ومكافحة المحتوى الإرهابي على الإعلام الاجتماعي، تتمثل في:

1- تحديات تقنيات الذكاء الاصطناعي: على الرغم من التقدم الذي أحرزته هذه التقنيات؛ إلا أنها لا تزال تُعاني من إشكاليات تحليل المحتوى اللغوي، خاصة مع انتشار اللغات الهجينة مثل الفرانكو واللهجات العامية، فضلاً عن تحليل الإشارات غير اللفظية والصور والسياق، وهي الأمور التي تطرح صعوبات أمام الاعتماد الكامل على التحليل الآلي لمحتوى بالغ الضخامة وفائق النمو لا يمكن رصده عبر الخبرات البشرية فحسب.

2- تعريف المحتوى الإرهابي: إذ لا يوجد توافق دولي بشأن ماهية الإرهاب نفسه ومن ثم ماهية المحتوى الإرهابي، فإذا كانت عمليات داعش وذبح الجنود وتفجيرات الكنائس أعمالا إرهابية تحظى بقدر وافر من التوافق بشأن التعريف؛ إلا أن أعمال المقاومة الفلسطينية -على سبيل المثال- لا تحظى بالتوافق الدولي ذاته، وسبق أن قام فيسبوك بحظر حسابات فلسطينية ورسوم كاريكاتير مناهضة لإسرائيل باعتبارها محتوى يحرض على العنف.

3- أزمة الثقة في حماية بيانات المستخدمين: إذ إن شركات التكنولوجيا تُدير أخطر المعلومات عن حياة المستخدمين وأعمالهم وشركاتهم، وتعاونها مع أجهزة سياسية وأمنية بالكشف عن معلومات المستخدمين يضع استقلاليتها على المحك، ويطرح تساؤلات جادة بشأن الثقة في إجراءات الأمن الرقمي وحماية الخصوصية حال التوسع في التعاون مع الجهات الأمنية، بما يدفع الشركات التكنولوجية إلى تفعيل المبادرات الذاتية أو القائمة على التعاون مع المجتمع المدني وإدماج المستخدمين، وهو ما لن يفي بالمتطلبات الأمنية في كثير من الأحوال.

4- مخاوف الحريات: شركات الإعلام الاجتماعي لا تتعامل مع حكومات دول تتمتع بنظم ديمقراطية فحسب، وإنما هي ذات نشاط عالمي يمتد إلى دول أخرى قد تسعى لاستخدام هذا التعاون لملاحقة المعارضين وتضييق الحريات.

5- مخاطر الانكشاف الأمني: ففي خضم مطالب الشفافية وإقرار الشركات التكنولوجية بالجهود التي تقوم بها لفحص المحتوى، يظهر خطر انكشاف تلك التقنيات وتطوير الإرهابيين الذين يتمتعون بمهارات تكنولوجية متقدمة لآليات مضادة، وقد تعرض فيسبوك بالفعل لحالة انكشاف خطيرة نهاية العام الماضي بعدما تسبب خلل أمني فني في كشف هويات أكثر من 1000 موظف عبر 22 إدارة في فيسبوك يستخدمون برامج الإشراف على المحتوى، إذ ظهرت هويات المشرفين تلقائيًّا على شكل إشعارات في سجل النشاط لدى مجموعات في فيسبوك تم حظر محتويات لديها بسبب خرق شروط الخدمة، الأمر الذي يُعرّضهم لمخاطر الاستهداف الإرهابي.