logo

TikTok обучает своих модераторов на видео сексуального насилия над детьми

TikTok обучает своих модераторов на видео сексуального насилия над детьми

Справочным материалом для сторонних модераторов контента TikTok служит множество изображений с детьми, подвергшимися сексуализированному насилию, ― и все это находится в почти неограниченном корпоративном доступе. Об этом сообщили бывшие подрядчики соцсети, передает golos-naroda.kz со ссылкой на Forbes.

Бывший сотрудник TikTok Нассер (некоторые фамилии в материале изменены) знал, что в процессе обучения на должность модератора контента TikTok ему придётся иметь дело с неприятными материалами. Но когда ему и другим новичкам на обучении показали изображения сексуального характера без цензуры с участием детей, для него это стало настоящим шоком.

Нассер работал в сторонней компании Teleperformance, которая модерирует контент социальной сети. Нового сотрудника взяли на специальный проект, в рамках которого планировалось научить искусственный интеллект (ИИ) TikTok выявлять на платформе худшее из худшего. Спустя всего несколько дней после начала работы Нассеру и его коллегам показали натуралистические изображения и видео, где дети подвергаются действиям сексуального характера, ― все ролики и фотографии, удалённые из TikTok.

«У меня самого есть дочь, и мне кажется, что неправильно, когда это смотрит толпа незнакомых людей. Думаю, что такое для обучения использовать нельзя», – сообщил Forbes Нассер, который ушел из Teleperformance в 2020 году).

Уитни Тернер, работавшая в Teleperformance по этой же программе TikTok в Эль-Пасо на протяжении чуть больше года и уволившаяся в 2021-м, тоже вспоминает, как на обучении ей показывали визуальные материалы с сексуализированным насилием над детьми. Сотруднице дали доступ к общей таблице.

Сама Уитни и её бывшие коллеги утверждают, что в файле полно материалов, нарушающих правила сообщества TikTok, в том числе сотни изображений с детьми, которых заставляют раздеваться или насилуют.

Бывшие модераторы заявляют, что документ под названием DRR (англ. Daily Required Reading, «обязательная ежедневная вычитка») находился в широком доступе для сотрудников Teleperformance и TikTok ещё этим летом. Несмотря на то что некоторым модераторам, задействованным по другим направлениям, просмотр этого документа был запрещен, многие источники рассказали Forbes о том, что свободный доступ к файлу имели сотни работников из обеих компаний. DRR и другие справочные материалы хранились в программе Lark, корпоративной системе китайского гиганта ByteDance, владельца социальной сети.

Уитни была настолько ошеломлена небрежным обращением с материалами, что сообщила об этом в ФБР и впоследствии, в июне, встречалась по этому поводу с агентом. В ФБР на вопросы о том, предвидится ли какое-то расследование, не ответили.

«Я модерировала контент и думала: это же чей-то сын, чья-то дочь. И их родители даже не знают, что у нас сохранены эти фотографии, эти видео, этот ужас, настоящее преступление. Будь родители в курсе, я уверена, они бы сожгли TikTok дотла», – поделилась Уитни.

Президент глобального подразделения по доверию и безопасности Teleperformance Акаш Пугалия заявил Forbes, что ролики откровенного содержания с участием детей компания в целях обучения не применяет. Кроме того, он добавил, что фирма не хранит подобный контент в своих «инструментах калибровки», хотя, что это за инструменты и для чего используются, он не пояснил. Отвечать на другие вопросы из обширного списка о том, сколько людей имеют через DRR доступ к материалам с насилием в отношении детей и как Teleperformance охраняет визуальный данные, управленец тоже отказался.

TikTok ― далеко не единственная платформа, которая борется с материалами сексуального насилия над несовершеннолетними. Крупнейшие социальные сети мира давно прибегают к машинному обучению и помощи сторонних проверяющих, чтобы находить и удалять подобные записи до того, как они разлетятся по интернету. Многие фирмы сотрудничают с Национальным центром по поиску пропавших и подвергшихся насилию детей (National Center for Missing & Exploited Children), чтобы сообщать о подобных постах в своём приложении органам правопорядка.

Однако уникально то, как TikTok и его сторонние консультанты обращаются с таким контентом. Эксперты называют сложившийся подход в лучшем случае небрежным и халатным, а в худшем ― опасным и травмирующим снова и снова. Специалисты подчеркивают, что изображения сексуального характера с детьми при обучении модерации контента ― не важно, с цензурой или без, ― лишь унижает жертв каждый раз заново. Кроме того, хранение записей в документе с общим доступом безответственно и излишне.

Изображения насилия над детьми и их эксплуатации противозаконны, и существуют строгие правила по обращению с такими данными в случае обнаружения. Материал подлежит незамедлительной блокировке, и о нём необходимо сообщать в систему CyberTipline Национального центра по поиску пропавших и подвергшихся насилию детей. Там персонал анализирует файлы и ищет их первоисточник, чтобы уведомить соответствующие правоохранительные органы.

Как только компания сообщает о материале в профильный центр, ей официально разрешается хранить контент в течение 90 дней для помощи следствию. Но федеральный закон США чётко требует от предприятий «минимизировать число сотрудников, которым даётся доступ» к незаконному контенту, «хранить материалы в безопасном месте» и «обеспечивать полное уничтожение любого визуального изображения по запросу от органов правопорядка».