Skip to main content

إسرائيل/فلسطين: "فيسبوك" تفرض رقابة على نقاشات حقوقية

يجب إجراء تحقيق مستقل متوافق مع المعايير الدولية

متظاهر فلسطيني يحمل لافتة عليها شعار "فيسبوك".  © 2016 محمد تلاتين/وكالة الأناضول

(واشنطن) - قالت "هيومن رايتس ووتش" اليوم إن شركة "فيسبوك" أزالت وقمعت بشكل غير جائز محتوى نشره فلسطينيون ومناصروهم، يتضمن الحديث عن انتهاكات حقوق الإنسان في إسرائيل وفلسطين خلال الأعمال العدائية في مايو/أيار 2021. اعتراف الشركة بالأخطاء ومحاولات تصحيح بعضها غير كافٍ ولا يعالج حجم ونطاق القيود على المحتوى المبلغ عنها، ولا يشرح بشكل كاف سبب حدوثها في المقام الأول.

على فيسبوك تبني توصيات "مجلس الإشراف على فيسبوك" في 14 سبتمبر/أيلول 2021، لإجراء تحقيق مستقل في تعديل المحتوى فيما يتعلق بإسرائيل وفلسطين، لا سيما في أي تحيز أو تمييز في سياساتها وإنفاذ السياسات وأنظمتها، ونشر نتائج التحقيقات. أمام فيسبوك 30 يوما من صدور القرار للرد على توصيات مجلس الإدارة.

قالت ديبرا براون، المناصِرة والباحثة الأولى بشأن الحقوق الرقمية في هيومن رايتس ووتش: "قمعت فيسبوك المحتوى الذي يتحدث عن القضايا الحقوقية في إسرائيل وفلسطين الذي ينشره الفلسطينيون ومؤيدوهم. مع تهديد المساحة المتاحة لمناصرة هذه القضايا في أجزاء كثيرة من العالم، تهدد رقابة فيسبوك بتقييد منصة مهمة للإبلاغ والمشاركة في هذه القضايا."

أدى تصاعد العنف في أجزاء من إسرائيل والأراضي الفلسطينية المحتلة خلال مايو/أيار إلى توجه الناس إلى وسائل التواصل الاجتماعي للتوثيق، وزيادة الوعي، وإدانة الحلقة الأحدث من الانتهاكات الحقوقية. كان هناك سعي إلى إجبار فلسطينيين على ترك منازلهم، وقُمع متظاهرون بشكل وحشي، وتعرضت دور عبادة للاعتداءات، ووقع عنف بين المجتمعات المحلية، ووقعت هجمات صاروخية عشوائية، وقتلت غارات جوية مدنيين.

وثّقت هيومن رايتس ووتش أن "إنستاغرام"، التي تملكها فيسبوك، أزالت منشورات، بما فيها تلك التي تعيد نشر محتوى من مؤسسات إخبارية رئيسية. في إحدى الحالات، أزالت إنستاغرام لقطة لعناوين وصور من ثلاث مقالات رأي في صحيفة "نيويورك تايمز" أضاف عليها مستخدم تعليقا حث الفلسطينيين على "عدم التنازل مطلقا" عن حقوقهم. لم يغيّر المنشور المادة بأي طريقة يمكن تفسيرها بشكل معقول على أنها تحريض على العنف أو الكراهية.

في حالة أخرى، أزالت إنستاغرام صورة لمبنى مع تعليق نصه: "هذه صورة لمبنى عائلتي قبل أن تقصفه الصواريخ الإسرائيلية يوم السبت 15 مايو/أيار 2021. لدينا ثلاث شقق في هذا المبنى". كما أزالت الشركة إعادة نشر رسم كاريكاتوري سياسي كانت رسالته أن الفلسطينيين مظلومون ولا يخوضون حربا دينية مع إسرائيل.

أزيلت كل هذه المنشورات لاحتوائها على "كلام أو رموز تحض على الكراهية" وفقا لإنستاغرام. تشير عمليات الإزالة هذه إلى أن إنستاغرام تقيّد حرية التعبير في مسائل تهم المصلحة العامة. إعادة هذه المنشورات الثلاثة إلى وضعها السابق بعد تقديم شكاوى يشير إلى أن آليات الكشف أو الإبلاغ في إنستاغرام غير سليمة وتؤدي إلى نتائج خاطئة. قالت هيومن رايتس ووتش إنه حتى عندما تعيد شركات التواصل الاجتماعي المواد التي أزالتها بشكل خاطئ، يعيق الخطأ تدفق المعلومات المتعلقة بحقوق الإنسان في اللحظات الحرجة.

أبلغ مستخدمو حسابات التواصل الاجتماعي ومنظمات الحقوق الرقمية أيضا عن مئات المنشورات المحذوفة، والحسابات المعلقة أو المقيّدة، والمجموعات المعطلة، وانخفاض مستوى المشاهدة، وانخفاض التفاعل مع المحتوى، وهاشتاغات محظورة. راجعت هيومن رايتس ووتش لقطات شاشة لأشخاص كانوا يشاركون محتوى عن العنف المتصاعد وأبلغوا عن تعرض حساباتهم لقيود، منها عدم قدرتهم على نشر المحتوى، أو بث مقاطع الفيديو على إنستاغرام، أو نشر مقاطع فيديو على فيسبوك، أو حتى الإعجاب بمنشور.

لم تتمكن هيومن رايتس ووتش من التحقق أو تحديد أن كل حالة تشكل قيدا غير مبرر، بسبب عدم وصولها إلى البيانات الأساسية اللازمة للتحقق، ولأن فيسبوك رفضت التعليق على تفاصيل محددة لحالات وحسابات مختلفة بسبب التزاماتها بالخصوصية كما قالت. يستدعي نطاق القيود المبلغ عنها وحجمها إجراء تحقيق مستقل.

أوصى مجلس الإشراف بأن تشرك فيسبوك كيانا خارجيا مستقلا لإجراء فحص شامل لتحديد ما إذا طبّقت فيسبوك الإشراف على المحتوى باللغتين العربية والعبرية دون تحيز، وأنه يجب نشر التقرير واستنتاجاته. تردد هذه التوصية دعوات متعددة من منظمات حقوق الإنسان والحقوق الرقمية لإجراء تدقيق عام.

بالإضافة إلى إزالة المحتوى بناء على سياساتها الخاصة، غالبا ما تقوم فيسبوك بذلك بناء على طلب الحكومات. كانت الحكومة الإسرائيلية عدوانية في سعيها لإزالة المحتوى من وسائل التواصل الاجتماعي. تقوم "الوحدة السيبرانية الإسرائيلية"، ومقرها النيابة العامة، بالتبليغ وتقديم الطلبات لشركات التواصل الاجتماعي لإزالة المحتوى "طواعية". بدلا من الخضوع للإجراءات القانونية لتقديم أمر محكمة بناء على القانون الجنائي الإسرائيلي لإزالة المحتوى عبر الإنترنت، تقدم الوحدة السيبرانية طعونا مباشرة إلى المنصات بناء على شروط الخدمة التي تعتمدها المنصات. يشير تقرير صادر عن النيابة العامة الإسرائيلية في عام 2018 إلى معدل امتثال مرتفع للغاية لهذه الطلبات الطوعية – نحو 90٪ عبر جميع المنصات.

هيومن رايتس ووتش ليست على علم بأن فيسبوك رفضت هذا الادعاء في أي وقت من الأوقات. في رسالة إلى هيومن رايتس ووتش، ذكرت الشركة أن لديها "عملية عالمية واحدة للتعامل مع الطلبات الحكومية لإزالة المحتوى". قدمت فيسبوك أيضا رابطا لعملية تقييم المحتوى الذي ينتهك القانون المحلي، ولكن هذا لا يعالج الطلبات الطوعية من الحكومات لإزالة المحتوى بناء على شروط خدمة الشركة.

في إشارة إلى دور الحكومات في إزالة المحتوى، أوصى مجلس الإشراف بأن تجعل فيسبوك هذه العملية شفافة وتميز بين الطلبات الحكومية التي أدت إلى عمليات الإزالة العالمية بناء على انتهاكات المعايير المجتمعية للشركة، والطلبات التي أدت إلى الإزالة أو الحظر الجغرافي على أساس خرق القانون المحلي. قالت هيومن رايتس ووتش إن على فيسبوك تنفيذ هذه التوصية، وخاصة الكشف عن عدد وطبيعة طلبات إزالة المحتوى من قبل الوحدة السيبرانية التابعة للحكومة الإسرائيلية وكيف استجابت لها.

حماية حرية التعبير في القضايا المتعلقة بإسرائيل وفلسطين تكتسب أهمية خاصة في ضوء تقلص مساحة النقاش. بالإضافة إلى السلطات الإسرائيلية، قمعت السلطات الفلسطينية في الضفة الغربية وقطاع غزة بشكل منهجي حرية التعبير، بينما في عديد من البلدان الأخرى، بما فيها الولايات المتحدة وألمانيا، اتُخذت خطوات لتقييد مساحة بعض أشكال المناصرة المؤيدة لفلسطين.

كتبت هيومن رايتس ووتش إلى فيسبوك في يونيو/حزيران 2021، طالبة من الشركة التعليق ومستفسرةً  عن الإجراءات المؤقتة والممارسات القائمة من زمن طويل حول تعديل المحتوى المتعلق بإسرائيل وفلسطين. ردّت الشركة بالإقرار بأنها اعتذرت بالفعل عن "تأثير هذه الإجراءات على مجتمعهم في إسرائيل وفلسطين وعلى أولئك الذين يتحدثون عن الشؤون الفلسطينية على مستوى العالم"، وقدمت مزيدا من المعلومات حول سياساتها وممارساتها. لكن الشركة لم تجب على أي من الأسئلة المحددة من هيومن رايتس ووتش ولم تتناول أيا من القضايا المثارة بشكل هادف.

قالت براون: "يوفر فيسبوك منصة لها أهمية خاصة في السياق الإسرائيلي والفلسطيني، حيث ترتكب السلطات الإسرائيلية جرائم ضد الإنسانية، مثل الفصل العنصري والاضطهاد ضد الملايين، ويرتكب الفلسطينيون والإسرائيليون جرائم حرب. بدلا من احترام حق الناس في التحدث علنا، تُسكت فيسبوك العديد من الأشخاص تعسفا ودون تفسير، وتكرر عبر الإنترنت منطق القوة وانتهاكات الحقوق نفسها التي نراها على أرض الواقع".

مسؤوليات شركات التواصل الاجتماعي

تقع على عاتق الشركات التجارية مسؤولية احترام حقوق الإنسان من خلال تحديد ومعالجة الآثار الحقوقية لعملياتها، وتوفير سبل إنصاف فعالة. بالنسبة لشركات التواصل الاجتماعي، تشمل هذه المسؤولية التحلي بالشفافية والمساءلة في الإشراف على المحتوى لضمان أن قرارات إزالة المحتوى ليست مفرطة في نطاقها أو متحيزة.

توفر مبادئ سانتا كلارا بشأن الشفافية والمساءلة في الإشراف على المحتوى إرشادات مهمة حول كيفية قيام الشركات بمسؤولياتها في دعم حرية التعبير. بناء على هذه المبادئ، على الشركات الشرح للمستخدمين بوضوح سبب حذف محتواهم أو حسابهم، بما فيه البند المحدد من المعايير المجتمعية الذي تبيَّنَ أن المحتوى ينتهكها.

على الشركات أيضا شرح كيفية اكتشاف المحتوى وتقييمه وإزالته – على سبيل المثال، بواسطة المستخدمين أو التعرف الآلي أو المشرفين على المحتوى – وتوفير فرصة مفيدة للطعن في الوقت المناسب في أي إزالة محتوى أو تعليق حساب. صادقت فيسبوك على مبادئ سانتا كلارا، لكنها لم تطبقها بالكامل.

إزالة وقمع محتوى حقوق الإنسان وغيره

في مايو/أيار، بلغ التوتر المتصاعد بين إسرائيل والفلسطينيين ذروته في 11 يوما من القتال بين القوات الإسرائيلية والجماعات الفلسطينية المسلحة المتمركزة في قطاع غزة. أفادت "حملة-المركز العربي لتطوير الإعلام الاجتماعي" أنها وثّقت من 6 إلى 19 مايو/أيار تصاعد الرقابة على الخطاب السياسي الفلسطيني على الإنترنت. قالت حملة إنها، خلال أسبوعين فقط، وثّقت 500 حالة لما وصفتها بإزالة محتوى، وإغلاق الحسابات، وإخفاء هاشتاغات، وتقليل مدى الوصول إلى محتوى معين، وحذف المحتوى المؤرشف، وتقييد الوصول إلى الحسابات. وقفت فيسبوك وإنستغرام، التي تملكها فيسبوك، وراء 85 % من تلك القيود.

قالت مجموعة الحقوق الرقمية "صدى" إنها وثقت أكثر من 700 حالة في شبكات التواصل الاجتماعي لتقييد الوصول إلى المحتوى الفلسطيني أو إزالته في شهر مايو/أيار وحده. في 7 مايو/أيار، شجبت 30 منظمة حقوقية ورقمية شركات التواصل الاجتماعي بسبب "إسكات محتوى تظاهرات الشعب الفلسطيني بصورة ممنهجة، بالإضافة إلى حذف ما يوثّق الإخلاء القسري الذي تتعرض له العائلات الفلسطينية من بيوتها في حي الشيخ جراح في القدس".

بالإضافة إلى إزالة المحتوى، وضعت فيسبوك علامة تحذير على بعض المنشورات التي تتطلب من المستخدمين النقر فوق شاشة تقول إن المحتوى قد يكون "مزعجا". وجدت هيومن رايتس ووتش أدلة على أن فيسبوك وضعت مثل هذه التحذيرات على منشورات توفر توعية بقضايا حقوق الإنسان دون تعريض المشاهد لمحتوى مزعج مثل العنف الشديد أو النعوت العرقية.

مثلا، في 24 مايو/أيار، وضعت إنستاغرام مثل هذه العلامة على عديد من القصص التي نشرها الناشط الفلسطيني المقيم في الشيخ جراح محمد الكرد بما فيها قصة تحتوي على صورة أعيد نشرها في حساب إنستاغرام لمستخدم آخر تظهر شاحنة شرطة إسرائيلية وشاحنة أخرى عليها كتابات عبرية. قدمت الصورة توعية بشأن حكم المحكمة العليا ووجود جنود في حي الشيخ جراح. حتى 30 سبتمبر/أيلول، كانت هذه الصورة موجودة على حساب المستخدم الآخر في إنستاغرام، دون علامة تحذير.

في رسالة في يوليو/تموز إلى هيومن رايتس ووتش، قالت فيسبوك إنها تستخدم علامات التحذير لمراعاة "الحساسيات المختلفة بشأن المحتوى الصادم والعنيف" بين الأشخاص الذين يستخدمون منصاتها. لهذا السبب، تضيف الشركة علامة تحذير إلى "المحتوى الصادم أو العنيف جدا بحيث لا يكون متاحا لأشخاص تقل أعمارهم عن 18 عاما"، وحتى يكون المستخدمون "على دراية بالطبيعة الصادمة أو العنيفة للمحتوى قبل النقر عليه لرؤيته". لا يتضمن المنشور المعني محتوى يمكن اعتباره "صادم أو عنيف" بناء على معايير فيسبوك.

قالت وبحسب فيسبوك، ف إأن "بعض وضع علامات التحذير ستنطبق على مجموعات كاملة من الصور حتى لو كانت واحدة منها فقط تنتهك القواعد.". يؤدي إخفاء المحتوى خلف علامة معيّنة تتمنع عرضه يؤدي تلقائيا  افتراضيا إلى تقييد الوصول إلى هذا المحتوى. قالت هيومن رايتس ووتش إن هذه قد تكون خطوة مناسبة لأنواع معينة من المحتوى الغرافيكي والعنيف، لكن وضع العلامة على جميع  مجموعة من الصور بدلا من اقتصار العلامات على الصور المستحِقة هو يعتبر قيد ا تعسفيا على التعبير. لا تستطيع هيومن رايتس ووتش أن تؤكد طبيعة التأكد من الصور الأخرى في  ضمن المجموعةات.

وبحسب حملة، فإن 46% من حالات حذف المحتوى الموثقة من إنستغجرام حدثت دون أن تقدم  تقديم الشركة تحذيرا أو إشعارا مسبقا للمستخدم. وفي 20% من الحالات الإضافية، أبلغت إنستغجرام المستخدم لكنها لم تيقدم تبريرا محددا لتقييده المحتوى.

راجعت هيومن رايتس ووتش أيضا لقطات شاشة أخذها بعض مستخدمو وسائل التواصل الاجتماعي الذين أفادوا بأن منشوراتهم تلقت تفاعلا أقل وعدد مشاهداتهم كان أصغر من العادة، وأن بعض محتوى حساباتهم لم يظهر لبعض المستخدمين الآخرين، وهي إشارة إلى أن فيسبوك وإنستغجرام ربما أجرويا تعديلات على خوارزمية الاقتراحات لديهما لخفض تأثيرمحتويات معينة.

حقق مجلس الإشراف في حالة واحدة من المحتوى المحذوف المتعلق بالتصعيد في العنف في مايو/ أيار، وفي 15 سبتمبر/ أيلول، أصدر قرارا خلص إلى أن فيسبوك تصرفت بشكل جائر.  خاطئ. كان المستخدم قد شارك في 10 مايو/ أيار مقالا إخباريا يتناول تهديد "كتائب عز الدين القسام"، الجناح العسكري لـ "حركة حماس" الفلسطينية، بإطلاق صواريخ ردا على التصعيد والقمع الإسرائيلي للفلسطينيين في القدس الشرقية في الأراضي المحتلة. وأقر المجلس بأن إعادة نشر خبر عن مسألة ذات اهتمام عام عاجل هو تعبير محمي وأن حذف المنشور يقيّد هذا التعبير دون الحد من الضرر خارج الإنترنت.  على أرض الواقع.

أقر المجلس بتلقّي تعليقات علنية عامة من جهات مختلفة تزعم أن فيسبوك أزال أو خفّض بشكل غير متناسب محتوى المستخدمين من الفلسطينيين والعرب، لا سيما مقارنة بتعامله مع المنشورات التي تهدد بالعنف ضد العرب أو الفلسطينيين داخل إسرائيل. كما قال المجلس إنه تلقى تعليقات علنية  عامة تزعم أن فيسبوك لم يفعل ما يكفي لحذف المحتوى الذي يحرّض على العنف ضد المدنيين الإسرائيليين.

تصنيف المنظمات كـ  بال""خطرة": خطر على حرية التعبير

في بعض الحالات، أزالت فيسبوك المحتوى بموجب معاييرها وسياساتها المتعلقة بـ  عن "معيار  الأفراد الخطروين والمنظمات الخطرة"، والذتي لا يتسمح "للمنظمات أو الأفراد" الذين يتبنّون سعيا عنيفا أو يشاركون فيه بالتواجد على المنصة. وكان هذا المعيار أساسا لحذف المقال  المنشورالإخباري عن كتائب عز الدين القسام. وانتقد مجلس الإشراف في قراره "غموض" هذه السياسة.

تيعتمد فيسبوك على قائمة المنظمات المُصنفة كـ "منظمة إرهابية أجنبية" من قبل الولايات المتحدة، من بين قوائم أخرى. وتشمل تلك القائمة حركات سياسية ذاتو أجنحة مسلحة أيضا، مثل "كالجبهة الشعبية لتحرير فلسطين" وحركة حماس. عبر التسليم بالتصنيفات  الإذعان الأمريكية الفضفاضة  الواسعة والشاملة، تيحظر فيسبوك على القادة، أو المؤسسين، أو الأعضاء البارزين في الحركات السياسية الفلسطينية الرئيسية استخدام منصتها. تيقوم الشركة بذلك على الرغم من أنها، وبحسب ما هو معروف علنا، لا يحظر القانون الأمريكي على  الولايات المتحدة المجموعات المدرجة في القائمة استخدام منصات مجانية أو متاحة مجانا مثل كفيسبوك ولا يعتبر  يسمحالسماح للمجموعات المدرجة في القائمة باستخدام مثل هذه المنصات أنه  تسعى إلى "توفير الدعم المادي" في انتهاك للقانون الأمريكي. الولايات المتحدة.

تدعو سياسة فيسبوك أيضا إلى حذف المديح المنشورات المادحة أو الدعم الداعمة للحركات السياسية الفلسطينية الرئيسية، حتى عندما لا تجرّضتدعو هذه المنشورات بشكل صريح عإلى العنف.

علاوة على ذلك، تجرّم السلطات الإسرائيلية النشاط السياسي في الضفة الغربية باستخدام قوانين صارمة لتقييد التعبير السلمي وحظر أكثر من 430 منظمة، بما فيها  ذلك جميع الحركات السياسية الفلسطينية الرئيسية، كما وثقت هيومن رايتس ووتش. هذه القيود الكاسحة على الحقوق المدنية هي جزء من جريمتَيائم الحكومة الإسرائيلية ضد الإنسانية المتمثلتينة في الفصل العنصري والاضطهاد ضد ملايين الفلسطينيين.

على فيسبوك نشر قائمتها الخاصة بالأفراد الخطرون والمنظمات الخطرة علناللعامة وأن تيضمن أن السياسة والإنفاذ المعنيَّين ذات الصلة والإنفاذ لا يقيدان التعبير المحمي، بما في ذلك ما يتعلق بالإرهاب وانتهاكات حقوق الإنسان والحركات السياسية، بما يتماشى مع المعايير الدولية لحقوق الإنسان وتوصيات مجلس الإشراف. تحديدا، يجب  وأن تيحدد من هي أي من المنظمات المحظورة من قبل السلطات الإسرائيلية التي تخضع خاضعة لسياسة الأفراد الخطريون والمنظمات الخطرة.

الاعتماد على الأتمتة

يجب أن يتضمن التدقيق لتحديد ما إذا كان قد تم تطبيق الإشراف على محتوى فيسبوك دون تحيز يجب أن يتضمن فحصا لاستخدام الإشراف الآلي على المحتوى. وفقا لتقارير الشفافية الدورية لفيسبوك حول تطبيق الشركة سياساتها الخاصة، هفي الفترة من أبريل/نيسان إلى يونيو/حزيران 2021، أشارت كل من فيسبوك وإنستغرام إلى أنه، ومن خلال استخدام أدواتهما الآلية، تم تحديد 99.7% من المحتوى الذي اعتبر أنه يُحتمل أن ينتهك سياسة الأفراد الخطروين والمنظمات الخطرة قبل أن يميّيزه الإنسان. بالنسبة لخطاب الكراهية، تبلغ النسبة 97.6% لفيسبوك و95.1% لإنستغرام في نفس الفترة.

أداء يعدّ الإشراف الآلي على المحتوى ضعيفا بشكل ملحوظ في تفسير العوامل السياقية التي يمكن أن تكون أساسية لتحديد ما إذا كان منشور ما ت إحدى المنشورات تشيشكل دعما أو تمجيدا للإرهاب. يمكن أن يؤدي ذلك إلى قيود واسعة على التعبير الكلام وبالتالي تصنيفا غير دقيق للمستخدمين باعتبارهم عنيفين أو لديهم طابع  إجراميين أو عدواني.  مسيئين. وقد أدى التدقيق  التعديل الآلي في  لالمحتوى والذي تصنّفه المنصات بالـ "إرهابي والمتطرف والعنيف" في سياقات أخرى إلى إزالة أدلة جرائم الحرب والفظائع المتعلقة بحقوق الإنسان من منصات وسائل التواصل الاجتماعي، حتى قبل أن يلحظ المحققون وجود هذه الأدلة المحتملة في بعض الحالات.

أدت الإجراءات  العمليات التي تهدف إلى حذف المحتوى المتطرف في بعض الأحيان، لا سيما باستخدام الأدوات الآلية بشكل ضار،  عكسي إلى حذف المنشورات المناهضة للإرهاب، بما فيها  ذلك المواد الصحفية والساخرة منها وغيرها التي يمكن، بموجب الأطر القانونية التي تحترم الحقوق، اعتبارها خطابا محميا. على سبيل المثال، وردأفادت تقارير أن خوارزميات فيسبوك أساءت تفسير منشور لصحفي مستقل كان يرأس خدمة الأخبار العربية في "بي بي سي عربي" أدان فيه أسامة بن لادن حيث اعتُبر داعما له. ونتيجة لذلك، مُنع الصحفي من الظهور في بث مباشر له وذلك قبل وقت قصير من ظهور علني.  البث. هذا النوع من الحذف التلقائي للمحتوى يعيق الصحافة والكتابات الأخرى ويهدد القدرة المستقبلية للآليات القضائية على توفير الانتصاف للضحايا ومحاسبة مرتكبي الجرائم الخطيرة.

التدقيق في ممارسات فيسبوك يجب أن يحقق في الدورالذي يسمح بتصنيف جماعة ما على أنها إرهابية عبر الإشراف الآلي على المحتوى. في إحدى الحوادث، وضعت  قام إنستغرام قيودا على  بتقييد الوسم #Aqsa (#الاقصى أو #الأقصى) وحذفت المنشورات التي وثّقت عنف الشرطة الإسرائيلية في المسجد الأقصى في القدس، قبل أن يتعترف بالخطأ وتيعيد بعضا من المحتوى.

أفاد موقعذكرت "بازفيد نيوز" أن منشورا داخليا من فيسبوك أشار إلى أن المحتوى قد حُذف لأن الأقصى هو أيضا اسم منظمة " كتائب شهداء الأقصى" الخاضعة للعقوبات الحكومية الأمريكية. الحكومة الولايات المتحدة. راجعت هيومن رايتس ووتش أربع لقطات شاشة وثّقت أن  محدودية إنستغرام حدّت المنشورات التي تحوي  باستخدام وسم #الأقصى والمنشورات عن المتظاهرات الفلسطينية في المسجد الأقصى. ردت القوات الإسرائيلية على المتظاهرات في المسجد الأقصى بإطلاق الغاز المسيل للدموع والقنابل الصوتية والرصاص المعدني المغلف بالمطاط بما في ذلك داخل المسجد. أدى الرد الإسرائيلي إلى إصابة 1,000 فلسطيني بين 7 مايو/أيار و 10 مايو/أيار. كما أصيب ما لا يقل عن 32 عنصر أمن ضابطا إسرائيليا.

زاد استخدام الأدوات الآلية للتدقيق في  لتعديل المحتوى بسبب الزيادة المستمرة للمحتوى الذي يقدمه مستخدمو الإنترنت. من المهم لشركات مثل فيسبوك التعرف علىتحديد القيود التي تعيق هذه الأدوات وزيادة استثماراتها في الأشخاص لمراجعة المحتوى لتجنب، أو على الأقل تصحيح أخطاء الإنفاذ أو على الأقل تصحيحها  بسرعة أكبر، لا سيما في المواقف الحساسة.

في رسالة إلى هيومن رايتس ووتش، أشارت فيسبوك إلى الحادث على أنه "خطأ يقيد المحتوى مؤقتا". يجب أن يبحث التدقيق في كيفية لعب الأتمتة دورا في هذا التنفيذ  التطبيق الخاطئ لسياسات فيسبوك.

الافتقار إلى الشفافية حول الطلبات الحكومية

يجب أن يقيّم التدقيق المستقل أيضا علاقة فيسبوك بوحدة الجرائم الالكترونية التابعة للحكومة الإسرائيلية، والتي تنشئ نظام إنفاذ موازٍ للحكومة للسعي إلى فرض رقابة على المحتوى دون أوامر قانونية رسمية. بينما تيبلغ فيسبوك بانتظام عن الأوامر القانونية، فإنها لا تيبلغ عن الطلبات الحكومية بناء على الانتهاكات المزعومة لمعاييرها المجتمعية.

قد تؤدي هذه العملية إلى التحايل على الإجراءات القضائية المخصصة للتصدي  لمعالجة للخطاب غير القانوني، وإلى قيود على الخطاب القانوني ناتجة عن طلب حكومي  التي بدأت الحكومة إنفاذه دون إبلاغ مستخدمي وسائل التواصل الاجتماعي المستهدفين. بالنتيجة، حُرم أولئك من حقوق الإجراءات القانونية الواجبة التي كانوا سيحصلون عليها لو سعت الحكومة إلى تقييد المحتوى من خلال الإجراءات القانونية. في  12 نيسان/12 أبريل/نيسان، رفضت المحكمة العليا الإسرائيلية التماسا قدمته كل من  "عدالة" و "جمعية حقوق المواطن في إسرائيل" لوقف عمليات وحدة الجرائم الإلكترونية.

رفضت فيسبوك الرد على أسئلة مجلس الإشراف حول عدد الطلبات التي قدمتها الحكومة الإسرائيلية لحذف المحتوى خلال القتال في مايو/أيار 2021. واكتفت الشركة بالتعليق بشأن القضية التي أصدر بشأنها حكم عليها المجلس قرارا: "لم تيتلق فيسبوك طلبا قانونيا صالحا من سلطة حكومية فيما يتعلق بالمحتوى الذي نشره المستخدم في هذه القضية".

الأخطاء الفنية لا توضح الصورة كاملة

اعترفت فيسبوك بالعديد من المشاكل  المشكلات التي تؤثرعلى الفلسطينيين والمحتوى الذي يقدمونه، وأرجعت بعضها إلى "خلل فني" وخطأ بشري. إلا أن  ومع ذلك، فإن هذه التفسيرات لا تشرح  تفسر نطاق القيود والقمع المرصودَين.

في بعض الأزمات السياسية أو حالات الطوارئ العامة الأخرى، أعلنت فيسبوك عن ما يسمى بإجراءات "كسر الزجاج". يتضمن ذلك تقييد انتشار البث المباشر على منصاتها وإجراء تعديلات على خوارزمياتها التي تصنف وترتب المحتوى لتقليل احتمالية رؤية المستخدمين للمحتوى الذي يحتمل أن ينتهك سياساتها. أفادت اقارير  وأٌفيد أن فيسبوك اعتمدت مثل هذه الإجراءات في إثيوبيا، وميانمار، وسريلانكا، والولايات المتحدة. لم تيعلن فيسبوك عن أي إجراءات خاصة اتخذتها في سياق المحتوى المتعلق بإسرائيل وفلسطين، باستثناء إنشاء "مركز عمليات خاصة" لمراقبة المحتوى على منصاتها فيما يتعلق بتصعيد مايو/أيار 2021 في إسرائيل وفلسطين. طلبت هيومن رايتس ووتش معلومات عن "مركز العمليات الخاصة" هذا، لكن لم تتلق ردا.

تعد هذه الموجة الأخيرة من عمليات حجب وحذف المحتوى هي جزءا من نمط أوسع من الرقابة المبلغ عنها ضد الفلسطينيين ومؤيديهم من قبل شركات التواصل الاجتماعي، والتي وثّقتها منظمات المجتمع المدني لسنوات. تسلط هذه القيود الضوء على ضرورة  الحاجة إلى التكليف بإجراء تدقيق شامل ومستقل يفحص السياسات الأساسية لفيسبوك وإنفاذها لإيجاد أي تحيّز.  تلك السياسات تحيّزا.

الحاجة إلى تحقيق مستقل

يجب أن تيضمن فيسبوك تشاور المحققين عن كثب مع المجتمع المدني في بداية التحقيق، بحيث يعكس التحقيق المخاوف الأكثر إلحاحا للمتأثرين بسياساته. كما يجب أن تعلن نتائج التحقيق العام المستقل، كما فعلت مع تقييمها لتأثير حقوق الإنسان على ميانمار والتدقيق بشأن الحقوق المدنية في الولايات المتحدة، وأن تقدم نتائجها إلى القيادة التنفيذية لفيسبوك وأن تيتشاور فيسبوك باستمرار مع المجتمع المدني حول كيفية تنفيذ توصياته.

طرحت هيومن رايتس ووتش عدة أسئلة عدة في رسالتها إلى فيسبوك التي لم تلق ردا.  إلى فيسبوك. يجب أن يعالج التحقيق هذه الأسئلة فيما يتعلق بتصاعد القتال ة في مايو/أيار، وبشكل أعمّ.  ومن هذه التساؤلات:

• ما هي التغييرات التي أجرتاها فيسبوك على خوارزمياتها لتقليل انتشار، أو تقليص، التعبير  الكلام الذي رُجّح أنه ينتهك انتهاكه السياسات المتعلقة بخطاب الكراهية، والعنف، والتحريض، أو يتناول  تناوله الأفراد الخطروين والمنظمات الخطرة؟

• ما هي طرق الكشف الآلي المُستخدمة، بما في ذلك المصطلحات والمصنِّفات التي تم اعتمادها  للإبلاغ عن محتوى محتمل لخطاب الكراهية أو العنف والتحريض، مما يسمح بوضع علامة عليها تلقائيا للحد من انتشاره و / أو حذفه؟

• ما هي معدلات الخطأ في لالإنفاذ التي اعتبرت مقبولة؟

• ما هي السياسات المطبقة على المحتوى المتعلق بإسرائيل وفلسطين الغير المنشورة علنا؟

• هل وضعت فيسبوك أي برامج حماية لمنع التأثير غير المبرر لموظفي السياسة العامة، بمن فيهم المسؤولون الإسرائيليون السابقون وغيرهم من المسؤولين الحكوميين، على قرارات تعديل المحتوى فيما يتعلق بإسرائيل وفلسطين؟

 

ملاحظة: أحد موظفي هيومن رايتس ووتش عضو في مجلس الإشراف على فيسبوك، بصفته الشخصية. لا يعمل الموظف على القضايا المتعلقة بحقوق الإنسان والتكنولوجيا في هيومن رايتس ووتش. أي موقف تتخذه هيومن رايتس ووتش من مجلس الإشراف مستقل ولا يتحدد أو يتأثر بعضوية موظفها فيه.

Your tax deductible gift can help stop human rights violations and save lives around the world.