Skip to main content

Социальные сети удаляют доказательства военных преступлений

Необходимо архивирование «опасного» контента

В YouTube (принадлежит Google) говорят, что используют "суперсовременную технологию машинного обучения", предназначенную для выявления и удаления миллионов единиц контента, включая контент, идентифицируемый как "насильственный или графический", "ненавистнический и абьюзивный", "пропагандирующий насилие и насильственный экстремизм", а также "спам, некорректную информацию и мошеннические рассылки". © 2017 Jaap Arriens/NurPhoto via Getty Images

Удаление контента, в котором операторы социальных сетей усматривают признаки терроризма, насильственного экстремизма или разжигания ненависти, исключает возможность использования впоследствии этих материалов для расследования серьезных преступлений против прав человека, включая военные преступления, говорится в публикуемом сегодня докладе Human Rights Watch. Сама по себе необходимость удаления пропагандирующего или провоцирующего насилие контента не вызывает вопросов, однако нужно при этом обеспечивать его архивирование на тот случай, если в дальнейшем встанет вопрос о привлечении каких-либо акторов к ответственности.

42-страничный доклад «Видео недоступно. Социальные сети удаляют доказательства военных преступлений» призывает все заинтересованные стороны, включая сами соцсети, общими усилиями разработать независимый механизм сохранения потенциальных доказательств тяжких преступлений. Необходимо обеспечить доступ к такому архиву для национальных и международных расследований, а также для неправительственных организаций, журналистов и ученых. Правозащитные группы с 2017 г. настоятельно предлагают компаниям-операторам соцстей повысить прозрачность и подотчетность в вопросах удаления контента.

«Некоторые материалы, которые удаляются из Facebook, YouTube и других сетей, представляют собой важнейший и незаменимый источник доказательств грубейших нарушений прав человека, - говорит Белкис Вилле, старший исследователь кризисов и конфликтов в Human Rights Watch. – В условиях, когда прокуроры, исследователи и журналисты все шире используют в своей работе общедоступные фотографии и видео из соцстей, такие платформы должны делать больше, чтобы обеспечить всем этим акторам доступ к потенциальным доказательствам тяжких преступлений».

Материалы социальных сетей, особенно фотографии и видео, размещаемые как теми, кто совершает нарушения прав человека, так и пострадавшими и очевидцами, играют все более важную роль в целом ряде расследований военных и других тяжких международных преступлений, в том числе в рамках Международного уголовного суда и национальных уголовных процедур в Европе. Такой контент также помогает СМИ и гражданскому обществу документировать массовые жестокости и другие нарушения, как в случае с использованием химического оружия в Сирии, репрессиями в Судане и полицейским произволом в США.

При работе над докладом Human Rights Watch проинтервьюировала семерых сотрудников неправительственных организаций, трех юристов, двух специалистов по архивированию, одного экс-прокурора с опытом работы в международных трибуналах, пятерых действующих участников международных расследований, трех сотрудников национальных правоохранительных органов, одного чиновника ЕС и одного депутата Европарламента.

Мы также изучили контент Facebook, Twitter и YouTube, который использовался в материалах Human Rights Watch с 2007 г. Выяснилось, что из 5 396 единиц контента, на которые приводятся ссылки в 4 739 материалах (подавляющее большинство их было опубликовано в последние пять лет), 619 единиц, или 11%, удалено.

В мае 2020 г. мы направляли Facebook, Twitter и Google письма со ссылками на этот удаленный контент и интересовались, можем ли мы получить к нему доступ для архивирования, однако такого доступа не получили.

В последние годы соцсети, включая Facebook, YouTube и Twitter, заметно нарастили активность в том, что касается удаления постов, которые в компании-операторе платформы сочтут нарушающими корпоративную политику или внешние рекомендации и стандарты в регионе осуществления деятельности. Это включает контент, в котором усматриваются признаки терроризма или насильственного экстремизма, ненавистнических высказываний, организованной преступности, проявлений на почве ненависти и угроз насилием.

Компании удаляют посты по сигналам пользователей и по решению модераторов, однако сегодня для выявления и удаления недопустимого контента все чаще используются алгоритмы. Иногда это происходит настолько быстро, что пост не успевает набрать ни одного просмотра. Правительства в целом благожелательно относятся к таком тренду, призывая компании удалять опасный контент как можно быстрее. Остается неясным, сохраняют ли платформы удаленный или заблокированный контент и если да, то в течение какого времени.

У нас нет претензий к тому, что компании оперативно удаляют или блокируют контент, который может провоцировать насилие, причинять вред отдельным лицам или создавать угрозы для национальной безопасности или общественного порядка, если используемые при этом стандарты отвечают международным нормам о правах человека и принципам соблюдения надлежащих процедур. Однако необратимое удаление контента может привести к его недоступности для важных международных инициатив по обеспечению уголовного преследования и помешать этой работе.

Пока не существует механизма, который позволял бы сохранять и архивировать удаленный соцсетями контент, содержащий важные доказательства нарушений прав человека, не говоря уже о том, чтобы обеспечивать к нему доступ тем, кто занимается расследованием международных преступлений. В большинстве стран национальные правоохранительные системы имеют возможность заставить соцсети передавать тот или иной контент на основании ордеров, повесток и судебных решений, однако те, кто проводит международные расследования, не обладают такими возможностями, поскольку у них нет полномочий и влияния правоохранительных органов.

Независимым организациям и журналистам принадлежит важная роль в документировании грубых нарушений по всему миру, причем нередко в таких ситуациях официального расследования по соответствующим фактам не проводится. В некоторых случаях эта работа приводила к инициированию судебных процедур. Однако у них нет доступа к удаленному контенту, а в случае с алгоритмическим удалением они, как, кстати, и официальные следственные органы, даже никогда не узнают о его существовании.

Как заметил в интервью Human Rights Watch расследующий военные преступления сотрудник европейских правоохранительных органов, «я ежедневно сталкиваюсь по работе с проблемой удаленного контента. Постоянно натыкаешься на потенциально важные доказательства, а доступа к ним у меня уже нет».

Привлечение конкретных лиц к ответственности за тяжкие преступления способно оказать сдерживающее воздействие и укрепить законность, отмечает Human Rights Watch. Инициативы в области уголовной юстиции также могут помочь восстановлению достоинства пострадавших от нарушений через признание тяжести причиненного им вреда и протоколирование фактов, исключающее попытки переписывать историю. Международное право обязывает государства обеспечивать уголовное преследование геноцида, преступлений против человечности и военных преступлений.

Сегодня как никогда актуально, чтобы компании-операторы соцсетей и все заинтересованные стороны общими усилиями разработали план создания независимого механизма, который мог бы взять на себя функции посредника в контактах с интернет-платформами и сохранения контента. Такой архив должен заниматься вопросами выборочного предоставления доступа для целей исследования и расследования при соблюдении прав человека и стандартов приватности данных.

Параллельно соцсетям следует повысить прозрачность своих процедур удаления контента, в том числе алгоритмического, отмечает Human Rights Watch. Они должны следить затем, чтобы их внутренние механизмы не были слишком широкими, не допускали тенденциозного похода и обеспечивали реальные возможности обжаловать удаление или блокировку.

«Мы понимаем всю сложность задач, которые ставятся перед соцсетями, включая соблюдение должного баланса между интересами свободы слова и приватности с одной стороны и удалением опасного контента – с другой, - говорит Белкис Вилле. – Здесь могло бы реально помочь привлечение опыта традиционных архивов, что позволило бы интернет-платформам обеспечить гарантии свободы слова и приватности без ущерба для усилий по обеспечению ответственности».

Your tax deductible gift can help stop human rights violations and save lives around the world.

Регион / Страна