Skip to main content

פייסבוק מצנזרת שיח על זכויות אדם בישראל/פלסטין

יש לקיים חקירה עצמאית וליישר קו עם סטנדרטים בינלאומיים

מפגין פלסטיני מחזיק כרזה עם לוגו של פייסבוק.  © 2016 Mohammed Talatene/Anadolu Agency/Getty Images

(וושינגטון הבירה) – ארגון Human Rights Watch אמר היום כי פייסבוק מחקה וחסמה שלא כדין תוכן שהועלה על ידי פלסטינים ותומכיהם, לרבות בנושא הפרות של זכויות האדם בישראל ובפלסטין במהלך מעשי האיבה בחודש מאי 2021. אין די בהודאת החברה בטעויותיה ובניסיונותיה לתקן את מקצתן כיוון שאינם נותנים מענה להיקף הנכבד של הגבלות התוכן שדווחו, ואינם מסבירים מדוע הוטלו מלכתחילה.

על פייסבוק לאמץ את המלצותיה של ועדת הפיקוח שלה מיום 14 בספטמבר 2021 ולהסמיך גוף שיחקור באופן עצמאי את מיתון התוכן בכל הנוגע לישראל ולפלסטין, ובייחוד כל הטיה או אפליה במדיניותה, בפעולות האכיפה שלה ובמערכותיה. כמו כן, עליה לפרסם את ממצאי החקירה. הוועדה הקציבה לפייסבוק 30 יום ממועד ההחלטה כדי להגיב על המלצותיה.

לדברי דבורה בראון, חוקרת בכירה ואחראית סנגור על זכויות דיגיטליות בארגון Human Rights Watch, "פייסבוק חסמה תוכן שפרסמו פלסטינים ותומכיהם בסוגיות של זכויות האדם בישראל ובפלסטין. בשעה שמרחב הסנגור על זכויות מצטמצם במקומות רבים בעולם, הצנזורה של פייסבוק מאיימת להגביל פלטפורמה קריטית ללמידה על נושאים אלה ולעיסוק בהם".

בעקבות ההסלמה באלימות בחלקים מישראל ומהשטח הפלסטיני הכבוש במהלך חודש מאי שהביאה לידי הפרת זכויות אדם, עלה הצורך ברשתות החברתיות לשם תיעודה, העלאת המודעות אליה וגינוי ההפרות. הפרת הזכויות כללה מאמצים לפנות פלסטינים בכפייה מבתיהם, דיכוי אכזרי של מפגינים, התקפות על מקומות פולחן, אלימות בין-קהילתית, ירי רקטות חסר הבחנה ותקיפות אוויריות שהרגו אזרחים.

ארגון Human Rights Watch תיעד כיצד אינסטגרם, שבבעלות פייסבוק, הסירה פוסטים, לרבות תוכן שפורסם כבר על ידי גופי חדשות מן המיינסטרים. במקרה אחד, אינסטגרם הסירה צילום מסך של כותרות ותמונות משלושה מאמרי דעה שפורסמו בניו יורק טיימס, שכלל תוספת של משתמש אינסטגרם שדחקה בפלסטינים "לא לוותר לעולם" על זכויותיהם. הפוסט לא שינה את התוכן בשום דרך שאפשר לפרש כהסתה לאלימות או לשנאה.

במקרה אחר, אינסטגרם הסירה תצלום של בניין עם הכיתוב: "זוהי תמונת הבניין של משפחתי לפני שנפגע מטילים ישראליים ביום שבת, 15 במאי 2021. יש לנו שלוש דירות בבניין הזה”. החברה הסירה גם פרסום מחדש של קריקטורה פוליטית המכילה מסר על אודות דיכוי הפלסטינים ועל מאבקם עם ישראל שאינו מלחמת דת.

אינסטגרם טענה שכל הפוסטים הללו הוסרו משום שהכילו "שיח או סמלי שנאה". הסרתם של תכנים אלה מלמדת שאינסטגרם מגבילה את חופש הביטוי בנושאים שיש בהם עניין ציבורי. העובדה ששלושת הפוסטים הללו פורסמו מחדש לאחר שהוגשו בעניינם תלונות, מעידה שמנגנוני הזיהוי והדיווח של אינסטגרם פגומים ומניבים תוצאות שגויות. לדברי ארגון Human Rights Watch, אפילו כאשר חברות המדיה החברתית מפרסמות מחדש חומרים שהוסרו שלא כדין, ההסרה השגויה מעכבת את זרימת המידע בנושאי זכויות אדם ברגעים קריטיים.

משתמשים וארגונים לזכויות דיגיטליות דיווחו גם הם על מאות פוסטים שנמחקו, על חשבונות שהוגבלו והושעו, על קבוצות שהושבתו, על צמצום חשיפה לתוכן, על צמצום מעורבות הגולשים בתוכן ועל חסימת האשטאגים. ארגון Human Rights Watch סקר צילומי מסך של מי ששיתפו תוכן על האלימות המסלימה ודיווחו על הגבלות שהוטלו על חשבונותיהם, לרבות מניעת פרסום תוכן, חסימה של שידור חי של סרטונים ופרסום סרטונים בפייסבוק או אפילו חסימה של סימון לייקים לפוסט.

ארגון Human Rights Watch לא הצליח לאמת או לקבוע בוודאות כי בכל מקרה ומקרה מדובר בהגבלה בלתי-מוצדקת, בשל היעדר גישה לנתוני היסוד הנדרשים לצורך אימות, ומכיוון שפייסבוק סירבה לפרט על אודות מקרים וחשבונות ספציפיים בתואנה שעליה לשמור על פרטיות. מספר ההגבלות המדווחות והיקפן מצדיקים חקירה עצמאית.

ועדת הפיקוח המליצה לפייסבוק להעסיק גורם חיצוני ועצמאי שיבחן ביסודיות אם היא יישמה את מיתון התוכן שלה בערבית ובעברית ללא משוא פנים, ולאחר מכן שייתן פומבי לדוח ולמסקנותיו. המלצה זו מהדהדת קריאות רבות של ארגוני זכויות אדם וארגונים לזכויות דיגיטליות הדורשות הליך ביקורת פומבי.

נוסף על הסרת תוכן בהתאם למדיניותה שלה, לעיתים קרובות פייסבוק מסירה תוכן לבקשת ממשלות. ממשלת ישראל פעלה באופן אגרסיבי להסרת תכנים מהמדיה החברתית. יחידת הסייבר הישראלית, המשתייכת לפרקליטות המדינה, מסמנת תכנים ומגישה לחברות המדיה החברתית בקשות להסרתם "מרצון". תחת הגשת בקשה לצו בית משפט לשם הסרת תוכן מקוון על פי הדין הפלילי הישראלי, יחידת הסייבר פונה ישירות לפלטפורמות בהתבסס על תנאי השירות שלהן עצמן. בדו"ח של פרקליטות המדינה משנת 2018 צוין שיעור היענות גבוה במיוחד לבקשות אלה להסרה "מרצון" – 90 אחוז בכל הפלטפורמות.

ככל הידוע לארגון Human Rights Watch, פייסבוק מעולם לא חלקה על טענה זו. במכתב לארגון Human Rights Watch הצהירה החברה כי היא נוקטת "הליך בינלאומי אחיד לטיפול בבקשות ממשלתיות להסרת תוכן". פייסבוק גם סיפקה קישור להליכיה להערכת תוכן המפר את החוק המקומי, אך בטקסט לא מוזכרות בקשות של ממשלות להסרת תוכן "מרצון" על סמך תנאי השימוש של החברה.

בציינה את התפקיד שממלאות ממשלות בכל הנוגע להסרת תוכן, ועדת הפיקוח המליצה כי פייסבוק תהפוך את התהליך לשקוף. כמו כן, היא המליצה שהחברה תבחין בין בקשות ממשלתיות המובילות להסרה אוניברסלית של תכנים בהתבסס על הפרת "הסטנדרטים הקהילתיים" של החברה, לבין בקשות המובילות להסרה או לחסימה מקומית בהתבסס על הפרת החוק המדינתי. לדברי ארגון Human Rights Watch, על פייסבוק ליישם המלצה זו, ובפרט לחשוף את מספרן של הבקשות להסרת תוכן שמגישה יחידת הסייבר של ממשלת ישראל ואת טבען וכיצד היא הגיבה בכל מקרה ומקרה.

הגנה על חופש הביטוי בסוגיות הנוגעות לישראל ולפלסטין חשובה במיוחד נוכח מרחב השיח ההולך ומצטמצם. נוסף על כך, הרשויות הישראליות והרשויות הפלסטיניות בגדה המערבית וברצועת עזה מדכאות בשיטתיות את חופש הביטוי, ובכמה ארצות נוספות, לרבות ארה"ב וגרמניה, ננקטו צעדים להגבלת מרחב הפעולה של אופני סנגור פרו-פלסטיניים מסוימים.

ארגון Human Rights Watch כתב לחברת פייסבוק בחודש יוני 2021 ושאל על אמצעים נקודתיים ועל פרקטיקות שהשתרשו בדבר מיתון תכנים הנוגעים לישראל ולפלסטין. בתגובתה, מסרה החברה שכבר התנצלה על "השפעתן של פעולות אלה על קהילת המשתמשים שלה בישראל ובפלסטין ועל מי שמתבטאים גלובלית בנושאים פלסטיניים" וסיפקה מידע נוסף בנוגע למדיניותה ולפרקטיקות שלה. עם זאת, החברה לא השיבה על אף אחת מהשאלות הספציפיות שהציג לה ארגון Human Rights Watch ולא סיפקה הסבר מניח את הדעת לאף אחד מהנושאים שהועלו.

לדברי בראון, "פייסבוק מספקת פלטפורמה חיונית בייחוד בהקשר הישראלי והפלסטיני, שבו הרשויות הישראליות מבצעות את הפשעים נגד האנושות של אפרטהייד ורדיפה נגד מיליונים, ושבו פלסטינים וישראלים ביצעו פשעי מלחמה [...] במקום לכבד את זכותם של אנשים להתבטא, פייסבוק משתיקה רבים בשרירותיות וללא נימוק ומשעתקת אל הרשת כמה מהדפוסים של פערי הכוח ושל הפרת הזכויות שאנו רואים בשטח".

מחיקת תוכן ומיתונו בנושא זכויות אדם ובנושאים אחרים
בחודש מאי הובילה המתיחות ההולכת וגוברת בין ישראל לפלסטינים ל-11 ימי לחימה בין כוחות ישראליים לארגונים פלסטיניים חמושים ברצועת עזה. "חאמלה" (בערבית, "קמפיין"), המרכז הערבי לפיתוח המדיה החברתית, דיווח כי בין ה-6 ל-19 במאי הוא תיעד "עלייה דרמטית בצנזורן של התבטאויות פוליטיות פלסטיניות באינטרנט".

הארגון דיווח כי במהלך שבועיים בלבד הוא תיעד 500 מקרים שהיוו לדבריו תוכן שהוסר, חשבונות שנסגרו, האשטאגים שהוסתרו, צמצום חשיפה לתכנים ספציפיים, מחיקת תוכן מארכיונים והגבלת גישה לחשבונות. 85 אחוז מההגבלות הללו הוטלו על ידי פייסבוק ואינסטגרם.

ארגון הזכויות הדיגיטליות "סאדה סוציאל" מסר כי בחודש מאי בלבד תיעד יותר מ-700 מקרים של הגבלת גישה לתוכן פלסטיני או הסרתו ברשתות מדיה חברתית. ב-7 במאי גינתה קבוצה של 30 ארגוני זכויות אדם וזכויות דיגיטליות את חברות המדיה החברתית בגין "השתקה שיטתית של משתמשים המוחים על פינוי משפחות פלסטיניות מבתיהן בשכונת שיח' ג'ראח בירושלים והמתעדים את האירועים".

נוסף על הסרת תוכן, הצמידה פייסבוק לפוסטים מסוימים תווית אזהרה של "תוכן רגיש", וכדי לצפות בהם על המשתמשים היה להקליק על מסך ולקרוא הודעה כי התוכן עלול להיות "מטריד". ארגון Human Rights Watch מצא עדויות להצמדת אזהרות כאלו מטעם פייסבוק לפוסטים שהעלו מודעות לסוגיות של זכויות אדם, אף שלא היו בהם תכנים מטרידים כגון תוכן גרפי אלים או כינויים גזעניים.

ב-24 במאי למשל הצמידה אינסטגרם תווית כזו לכמה "סטוריז" שפרסם מוחמד אל-כורד, פעיל פלסטיני ותושב שיח' ג'ראח, לרבות "סטורי" שהכיל תמונה שפורסמה קודם לכן בחשבון האינסטגרם של משתמש אחר, ובה נראים כלי רכב של משטרת ישראל וכלי רכב נוסף שעליו כיתוב בעברית. התמונה נועדה להעלות את המודעות לפסיקת בג"ץ ולנוכחות שוטרי מג"ב בשכונת שיח' ג'ראח. נכון ל-30 בספטמבר תמונה זו הופיעה עדיין בפיד האינסטגרם המקורי ללא תווית אזהרה.

במכתבה לארגון Human Rights Watch מחודש יולי, מסרה פייסבוק כי היא משתמשת באזהרות כדי להתאים את פרסומיה ל"רגישויות שונות לגבי תכנים גרפיים ואלימים" של משתמשי הפלטפורמות שלה. מסיבה זו, היא מוסיפה תווית אזהרה ל"תוכן שהוא גרפי או אלים במידה חריגה ביותר, כך שלא יהיה זמין לאנשים מתחת לגיל 18" וכדי שמשתמשים "יהיו מודעים לאופי הגרפי או האלים של התוכן לפני שהם מקליקים לצפייה, על אף שהפוסט שהוזכר לעיל אינו כולל תוכן היכול להיחשב ל"גרפי או אלים", על פי הסטנדרטים של פייסבוק.

פייסבוק אמרה כי "תוויות מסוימות מוצמדות לקרוסלות שלמות של תמונות, גם אם רק אחת מהן חורגת מהסטנדרטים". הצמדת תווית המונעת כברירת מחדל את הצפייה בתוכן, מגבילה את הגישה לתוכן זה. לדברי ארגון Human Rights Watch, צעד זה עשוי להיות מוצדק לגבי תוכן גרפי ואלים מסוגים מסוימים, אך הצמדת תווית כזו לכל התמונות, כשהיא יאה רק למקצתן, היא הגבלה שרירותית של חופש הביטוי. לארגון Human Rights Watch אין אפשרות לוודא אילו תמונות נוספות היו בקרוסלה.

לדברי ארגון חאמלה, 46 אחוז מהתכנים שהוסרו מאינסטגרם, נמחקו ללא הודעה או אזהרה מוקדמת. ב-20 אחוז נוספים, הודיעה אינסטגרם למשתמש אך לא סיפקה הצדקה ספציפית להגבלת התוכן.

ארגון Human Rights Watch בחן גם צילומי מסך של משתמשי מדיה חברתית שדיווחו על ירידה במעורבות ובצפיות של משתמשים אחרים בפוסטים שלהם או על היעדר תוכן מחשבונותיהם בפידים של משתמשים אחרים. הסבר אפשרי עשוי להיות התאמות באלגוריתם ההמלצות של פייסבוק ושל אינסטגרם שנועדו לצמצם את החשיפה לתוכן מסוים.

ועדת הפיקוח חקרה מקרה אחד של הסרת תוכן על ההסלמה באלימות בחודש מאי. ב-15 בספטמבר היא קבעה שפייסבוק נהגה שלא כדין. המשתמש שיתף ב-10 במאי כתבת חדשות שבה דווח על איום של גדודי עז א-דין אל-קסאם, הזרוע הצבאית של חמאס, לירות רקטות בתגובה להתגברות הדיכוי של הפלסטינים במזרח ירושלים הכבושה. הוועדה הכירה בכך שפרסום מחדש של ידיעה בנושא דחוף בעל עניין ציבורי הוא ביטוי מוגן וכי הסרת הפוסט הגבילה מחד גיסא ביטוי כזה ומאידך גיסא לא צמצמה אלימות מחוץ לרשת.

הוועדה ציינה כי קיבלה פניות מגורמים שונים בציבור שטענו כי פייסבוק הסירה באופן לא מידתי תוכן של משתמשים פלסטינים או תוכן בערבית או הפחיתה את החשיפה אליו, בייחוד בהשוואה לטיפולה בפוסטים של איומים באלימות נגד ערבים או נגד פלסטינים בתוך ישראל. כמו כן מסרה הוועדה כי קיבלה הערות מהציבור שבהן נטען כי פייסבוק לא עשתה די כדי להסיר תוכן המסית לאלימות נגד אזרחים ישראלים.

הגדרת ארגונים כ"מסוכנים": סכנה לחופש הביטוי

במקרים מסוימים, הסירה פייסבוק תוכן בהתאם לסטנדרטים הקהילתיים של החברה באשר ל"אנשים וארגונים מסוכנים", "שאינם מתירים נוכחות בפייסבוק של ארגונים או אנשים המכריזים על חזון אלים או עוסקים באלימות". מכוח סטנדרטים אלה הסירה פייסבוק את הפוסט שכלל את כתבת החדשות על גדודי עז א-דין אל-קסאם. ועדת הפיקוח מתחה בהחלטתה ביקורת על מדיניותה ה"מעורפלת" של פייסבוק.

פייסבוק מסתמכת, בין היתר, על רשימת הארגונים שארה"ב הכריזה עליהם כ"ארגוני טרור זרים" וכן על רשימות נוספות. רשימה זו כוללת תנועות פוליטיות בעלות זרועות צבאיות, כמו החזית העממית לשחרור פלסטין וחמאס. אימוץ ההגדרות האמריקאיות הרחבות והגורפות מוביל לשלילת השימוש בפלטפורמות של פייסבוק ממנהיגים, ממייסדים או מחברים בולטים בתנועות הפוליטיות הפלסטיניות העיקריות. היא נוקטת צעד זה על אף שככל הידוע, החוק האמריקאי אינו אוסר על ארגונים המופיעים ברשימה להשתמש בפלטפורמות הזמינות לציבור בחינם כמו פייסבוק, ואינו רואה במתן היתר לארגונים אלה להשתמש בפלטפורמות כאלה "מתן שירות או העמדת אמצעים" העולה כדי הפרת החוק.

מדיניותה של פייסבוק קוראת גם להסרה של התבטאויות הכוללות דברי שבח לתנועות הפוליטיות הפלסטיניות העיקריות או מביעות בהן תמיכה, גם כאשר אין בדברים משום קריאה מפורשת לאלימות.

על פייסבוק לפרסם את רשימת האנשים והארגונים המסוכנים שלה. עליה לוודא שמדיניותה ושצעדי האכיפה שהיא נוקטת בנושא זה לא יגבילו ביטוי מוגן, לרבות בנוגע לטרור, להפרת זכויות אדם ולתנועות פוליטיות, בהתאם לסטנדרטים הבינלאומיים של זכויות האדם ובאופן העולה בקנה אחד עם המלצות ועדת הפיקוח. בפרט, עליה להבהיר אילו מהארגונים ברשימת האנשים והארגונים המסוכנים שלה נמצאים גם ברשימה הישראלית של הארגונים המסוכנים.

הסתמכות על כלי ניטור אוטומטיים

על הליך הביקורת, שמטרתו לבחון אם מדיניות מיתון התוכן של פייסבוק מוחלת ללא הטיה, לכלול גם בחינה של השימוש במיתון אוטומטי של תוכן. על פי דיווחי השקיפות התקופתיים של פייסבוק אשר לדרכי האכיפה של מדיניותה, בתקופה שבין אפריל ליוני 2021 ציינו פייסבוק ואינסטגרם כי לפני שסומנו להסרה בידי אדם, זוהה 99.7 אחוז מהתוכן שלדעתן עשוי לחרוג ממדיניות האנשים והארגונים המסוכנים של החברה, באמצעות כלי הניטור האוטומטיים. בכל הנוגע לסימון שיח שנאה באותה תקופה, האחוזים עמדו על 97.6 בפייסבוק ועל 95.1 באינסטגרם.

מיתון אוטומטי של תוכן נודע לשמצה ככושל בהבנת ההקשר, ההכרחית כדי לקבוע אם יש בפוסט משום הבעת תמיכה בטרור או האדרת טרור. כשל זה עלול להוביל להטלת הגבלות רחבות מדי על התבטאויות ולתיוג לא מדויק של דוברים כאלימים, כעבריינים או כפוגעניים. מיתון אוטומטי של תכנים שפלטפורמות אלה מגדירות כ"טרוריסטי, קיצוני ואלים" הוביל בהקשרים אחרים למחיקת עדויות על פשעי מלחמה ועל הפרות מחרידות של זכויות האדם מפלטפורמות מדיה חברתית. במקרים מסוימים התוכן הוסר לפני שנודע לחוקרים בנושא על ראיות פוטנציאליות אלה.

תהליכים שנועדו להסרת תכנים קיצוניים, ובייחוד שימוש בכלים אוטומטיים, הובילו לעיתים באופן מופרך להסרת התבטאויות נגד טרור דווקא, לרבות תכנים סאטיריים, עיתונאיים ואחרים, הנחשבים לדיבור מוגן במסגרות משפטיות המכבדות את זכויות האדם. לדוגמה, דווח שהאלגוריתמים של פייסבוק פירשו באופן שגוי פוסט, שגינה את אוסאמה בן לאדן מפרי עטו של עיתונאי עצמאי שעמד בעבר בראש שירות החדשות של ה-BBC בערבית, כתוכן התומך בו. עקב כך, נחסמה בפני העיתונאי האפשרות לשדר בשידור חי זמן קצר לפני שעמד להופיע בציבור. סוג זה של הסרת תוכן אוטומטית פוגע בעיתונות ובכתיבה מסוגים אחרים ומעמיד בסכנה את יכולתם העתידית של מנגנוני שיפוט להעניק סעד לקורבנות של פשעים חמורים ולמצות את הדין עם מבצעיהם.

במסגרת הביקורת על נוהלי פייסבוק, יש לבחון כיצד משפיעה הגדרתה של קבוצה כטרוריסטית על מיתון אוטומטי של תוכן. במקרה אחד הגבילה אינסטגרם את ההאשטאג  #AlAqsa(#الاقصى או #الأقصى) והסירה פרסומים על אלימות משטרת ישראל במסגד אל-אקצא בירושלים, עד אשר הודתה בטעותה ועל פי דיווחים פרסמה פייסבוק מחדש חלק מהתוכן.

חברת התקשורת Buzzfeed News דיווחה כי בפוסט פנימי בפייסבוק צוין שהתוכן הוסר משום שאל-אקצא "הוא גם שמו של ארגון שעליו הטילה ממשלת ארה"ב סנקציות, "גדודי חללי אל-אקצא". ארגון Human Rights Watch בחן ארבעה צילומי מסך שתיעדו כיצד אינסטגרם הגבילה פוסטים שבהם הופיע ההאשטאג AlAqsa# ופוסטים על הפגנות פלסטיניות במסגד אל-אקצא. בתגובה, הכוחות הישראליים ירו גז מדמיע וכדורי פלדה מצופים גומי והשליכו רימוני הלם, לרבות בתוך המסגד עצמו. באירועים בין 7 ל-10 במאי נפצעו 1,000 פלסטינים ולפחות 32 שוטרים ישראלים.

השימוש בכלים אוטומטיים למיתון תוכן הואץ בשל הגידול הבלתי-פוסק בכמות התוכן המיוצרת ברשת. חשוב שחברות כמו פייסבוק יכירו במגבלותיהם של כלים אלה ויעסיקו יותר בודקי תוכן אנושיים כדי למנוע טעויות, בייחוד באכיפה במצבים רגישים, או לכל הפחות כדי שטעויות אלה יאותרו ויתוקנו מהר יותר.

במכתבה לארגון Human Rights Watch, תיארה פייסבוק את האירוע כ"טעות שהובילה להגבלה זמנית של תוכן". במסגרת הביקורת יש לבחון אם יש לתלות את היישום השגוי של מדיניות פייסבוק באוטומציה.

חוסר שקיפות אשר לבקשות הממשלה

במסגרת הליך הביקורת העצמאי יש לבחון גם את מערכת היחסים של פייסבוק עם יחידת הסייבר של ממשלת ישראל, המהווה עבורה אפיק אכיפה מקביל המאפשר לה לבקש שתכנים יצונזרו ללא צווים משפטיים. אומנם פייסבוק מדווחת באופן קבוע על צווים משפטיים, אך אינה מדווחת על בקשות ממשלתיות המבוססות על הפרות לכאורה של הסטנדרטים הקהילתיים שלה.

אפיק זה עלול להוביל לעקיפה של הליכים שיפוטיים ככלי לטיפול בהתבטאויות בלתי-חוקיות ולהטלת הגבלות יזומות של הממשלה על התבטאויות חוקיות, מבלי ליידע את משתמשי המדיה החברתית שעליהם הן מוטלות. התוצאה שוללת מהם את זכות ההליך ההוגן שעומדת להם כאשר הממשלה פונה להליכים משפטיים כדי להגביל את התוכן. ב-12 באפריל דחה בג"ץ עתירה שהגישו הארגונים עדאלה והאגודה לזכויות האזרח בישראל בדרישה להפסיק פעילות זו של יחידת הסייבר.

פייסבוק סירבה לדווח לוועדת הפיקוח כמה בקשות הגישה ממשלת ישראל להסרת תכנים במהלך מעשי האיבה במאי 2021. החברה רק מסרה שבמקרה הספציפי שהוועדה החליטה לגביו, "פייסבוק לא קיבלה פנייה משפטית מבוססת מרשות ממשלתית אשר לתוכן שהמשתמש פרסם במקרה זה".

ההיענות לבקשות ממשלת ישראל מעוררת דאגה, שכן הרשויות הישראליות מגדירות פעילות פוליטית בגדה המערבית כמעשה פלילי. כפי שתיעד Human Rights Watch, הרשויות מחילות חוקים דרקוניים כדי להגביל התבטאויות לא אלימות וכדי להוציא אל מחוץ לחוק יותר מ-430 ארגונים, לרבות כל התנועות הפלסטיניות הבולטות. הגבלות גורפות אלה על זכויות אזרחיות הן חלק מהפשעים נגד האנושות של אפרטהייד ורדיפה שממשלת ישראל מבצעת נגד מיליוני פלסטינים.

אין די בתואנת "תקלות טכניות" כדי להסביר את היקף התופעה

פייסבוק הכירה בכמה היבטים בהתנהלותה המשפיעים על משתמשים פלסטינים ועל התוכן שהם מפרסמים כגון "תקלות טכניות" וטעויות אנוש. אולם, אין בדבריה משום הסבר להיקף ההגבלות וחסימת התכנים.

במשברים פוליטיים או במצבי חירום אחרים הכריזה פייסבוק על נקיטת אמצעי חירום מהירים. אלה כללו הגבלת הפצתם של שידורי וידיאו חיים בפלטפורמות שלה והתאמות באלגוריתמים שלה, המסווגים והמדרגים תוכן כדי להפחית את הסבירות שמשתמשים ייחשפו לתכנים המפרים את מדיניותה. על פי דיווחים, פייסבוק נקטה אמצעים כאלה באתיופיה, מיאנמר, סרי לנקה וארה"ב. פייסבוק לא הכירה בפומבי בנקיטת אמצעים מיוחדים כלשהם אשר לתוכן הנוגע לישראל ולפלסטין, והודתה רק שהקימה "מרכז מבצעים מיוחד" לפיקוח על התוכן בפלטפורמות שלה אשר להסלמה בישראל ובפלסטין במאי 2021. ארגון Human Rights Watch ביקש מידע על "מרכז המבצעים המיוחד", אך פייסבוק לא הגיבה על הבקשה.

גל אחרון זה של הסרת תכנים הוא חלק מדפוס רחב יותר של צנזורה שחברות המדיה מטילות, על פי דיווחים, על פלסטינים ועל תומכיהם, אשר ארגוני החברה האזרחית מתעדים מזה שנים. הגבלות אלה מדגישות את הצורך בביקורת מקיפה ועצמאית שבמסגרתה ייבחנו הטיות שמונחות בבסיס מדיניותה של פייסבוק ובדרכי אכיפתה.

אחריותן של חברות המדיה החברתית

על עסקים מוטלת האחריות לכבד את זכויות האדם באמצעות זיהוי ההשפעות השליליות של פעילותם על זכויות האדם, נטרולן והנגשת סעדים במקרה הצורך. עבור חברות המדיה החברתית, אחריות זו כוללת שקיפות ומתן דין וחשבון בכל הנוגע למיתון התוכן שלהן, כדי לוודא שהחלטות על הסרת תוכן אינן גורפות או מוטות מדי.

עקרונות סנטה קלרה בנושא שקיפות ואחריות במיתון תוכן מנחים את החברות כיצד למלא את חובותיהן אשר לשמירה על חופש הביטוי. בהתבסס על עקרונות אלה, על חברות להסביר למשתמשים בבירור מדוע התכנים או החשבונות שלהם נחסמו, לרבות ציון הסעיף הספציפי בסטנדרטים הקהילתיים שהתוכן הפר לכאורה.

על החברות גם להסביר כיצד התוכן זוהה, נבחן והוסר – על ידי משתמשים, כלים אוטומטיים או מנהלי תוכן אנושיים – ולספק הזדמנות ממשית לערער בזמן אמת על כל הסרה של תוכן או השעיה של חשבון. פייסבוק הביעה תמיכה בעקרונות סנטה קלרה, אך לא יישמה אותם במלואם.

הצורך בחקירה עצמאית

על פייסבוק לוודא שהחוקרים ייוועצו משמעותית עם החברה האזרחית כבר בראשית החקירה, כדי שתשקף את הסוגיות הדחופות ביותר בתחום זכויות האדם עבור הנפגעים ממדיניותה. עליה לתת פומבי לתוצאות החקירה העצמאית, כפי שעשתה בנוגע להערכת השפעותיה של פייסבוק על זכויות האדם במיאנמר ולהליך הביקורת בנושא זכויות האזרח בארה"ב, ולהציג את ממצאיה בפני שכבת הניהול של החברה. על פייסבוק להיוועץ באופן רציף עם גורמי החברה האזרחית לגבי אופן יישום ההמלצות.

ארגון Human Rights Watch הציג במכתבו לפייסבוק כמה שאלות שעליהן לא זכה למענה. במסגרת החקירה יש לתת מענה לשאלות אלה בכל הנוגע למעשי האיבה במאי, ובאופן כללי:

  • כיצד שינתה פייסבוק את האלגוריתמים שלה כדי להפחית ולצמצם הפצה של התבטאויות שהיא קבעה כי סביר שיפרו את מדיניותה בנושא שיח של שנאה, אלימות והסתה או בכל הנוגע לאנשים ולארגונים מסוכנים?
  • באילו שיטות זיהוי אוטומטיות השתמשה החברה, לרבות המונחים והסיווגים ששימשו לסימונו של תוכן ככזה העלול לעלות כדי הגדרה של שיח שנאה או להכיל אלימות והסתה, שיטות שאפשרו את סימונו האוטומטי של תוכן לצורך צמצום חשיפה ו/או הסרה?
  • מהו שיעור הטעויות הנחשב קביל במסגרת אכיפת הסטנדרטים?
  • איזו מדיניות חסויה הוחלה על תוכן הנוגע לישראל ולפלסטין?
  • האם יש לפייסבוק מערכות ניטור כלשהן שתפקידן למנוע השפעה בלתי-ראויה של צוות המדיניות הציבורית שלה, לרבות אנשים שמילאו בעבר תפקידים רשמיים בממשלת ישראל ובממשלות אחרות, על החלטות בתחום מיתון תוכן בכל הנוגע לישראל ולפלסטין?

 

Your tax deductible gift can help stop human rights violations and save lives around the world.