«Meta» «ненадлежащим образом удалила» видеоролик о похищении людей ХАМАСом, считает Наблюдательный совет
Инструменты автоматической модерации контента, развернутые на фоне «всплеска жестокого и графического контента» в «Фейсбуке» и «Инстаграме» после того, как 7 октября зашли слишком далеко в удалении постов, которые пользователи социальных сетей должны были видеть, постановил 19 декабря независимый Наблюдательный совет их материнской компании «Meta» (признана в РФ экстремистской организацией), пишет журналистка JTA Филисса Крамер.
Этот вывод был сделан в результате анализа двух случаев, когда модераторы – люди восстанавливали контент, удаленный компьютерной модерацией. Один из них касался видеоролика в «Фейсбуке», на котором видно, как террорист ХАМАСа 7 октября похищает женщину. Другим был видеоролик из «Инстаграма», на котором показаны последствия удара возле больницы «Шифа» в секторе Газа.
Эти дела были первыми, рассмотренными Наблюдательным советом «Meta» в рамках нового ускоренного процесса, призванного обеспечить более быстрое реагирование на насущные проблемы. В обоих случаях сообщения были удалены, поскольку «Meta» снизила планку, при которой ее компьютерные программы автоматически помечали контент, касающийся Израиля и Газы, как нарушающий политику компании в отношении контента с изображением насилия, разжигания ненависти, насилия и подстрекательства, а также издевательств и буллинга.
«Это означало, что «Meta» более агрессивно использовала свои автоматизированные инструменты для удаления контента, который мог нарушить ее политику», — говорится в решении совета. «Хотя это снизило вероятность того, что «Meta» не сможет удалить контент, нарушающий ее политику, который в противном случае мог бы избежать обнаружения, или где возможности для проверки человеком были ограничены, это также увеличило вероятность того, что «Meta» ошибочно удалит ненарушающий контент, связанный с конфликтом».
По состоянию на прошлую неделю, как написал совет, компания до сих пор не подняла «пороги доверия» до уровней, существовавших до 7 октября, а это означает, что риск удаления ненарушающего контента остается выше, чем до атаки. Как и во многих предыдущих случаях, совет призвал «Meta» усовершенствовать свои системы для защиты от алгоритмов, неправильно удаляющих посты, предназначенные для информирования об экстремизме или противодействия ему. Случайное удаление образовательного и информационного контента преследовало компанию в течение многих лет, особенно резко, когда «Meta» запретила отрицание Холокоста в 2020 году.
«Эти решения было очень трудно принять, и они потребовали долгих и сложных обсуждений в Наблюдательном совете», — заявил председатель совета Майкл МакКоннелл. «Совет сосредоточил внимание на защите права на свободу выражения мнений людей об этих ужасных событиях, обеспечивая при этом, чтобы ни одно из заявлений не подстрекало к насилию или ненависти. Эти свидетельства важны не только для выступающих, но для пользователей по всему миру, которые ищут своевременную и разнообразную информацию о новаторских событиях, некоторые из которых могут быть важными доказательствами потенциальных серьезных нарушений международных норм в области прав человека и гуманитарного права».
«Meta» — не единственная компания, которая подвергается тщательной проверке из-за использования контента, связанного с войной между Израилем и ХАМАСом. «ТикТок» подвергся критике из-за преобладания пропалестинского контента на популярной видеоплатформе. А 19 декабря Европейский Союз объявил об официальном расследовании в отношении «X» с использованием новых регуляторных полномочий, предоставленных в прошлом году, и после предварительного расследования резкого увеличения «террористического и насильственного контента и разжигания ненависти» после 7 октября.