Крупнейшее независимое исследование ненависти на TikTok показало, что антиазиатские и пронацистские видео собирают миллионы просмотров, часто с использованием поп-песен, чтобы ускользнуть от автоматических модераторов платформы.
основные моменты:
- Отчет TikTok «Hatescape» стал результатом трех месяцев исследования.
- Исследователи обнаружили, что простых действий, таких как орфографическая ошибка, достаточно, чтобы скрыть видео от модераторов.
- В приложение включены несколько техник дриблинга.
В отчете Института стратегического диалога (ISD), лондонского исследовательского центра по борьбе с экстремизмом, говорится, что ведущая социальная платформа «популярна среди тех, кто намеревается использовать онлайн-пространства для разжигания, распространения и пропаганды ненависти и экстремизма».
Отчет Hatescape, результат трех месяцев исследования, показал, что некоторые его расистские или террористические материалы были мотивированы австралийцами или связаны с ними.
В одном из видео, которое набрало более двух миллионов просмотров, изображен мужчина европеоидной расы, поедающий летучую мышь, что является оскорбительной ссылкой на стереотипы о китайцах.
Другие видео, в которых австралийцы предстают в образе человека в черном или полицейского во время «инсценировки» убийства Джорджа Флойда, смерть которого вызвала в прошлом году мировые протесты под названием «Жизнь черных имеет значение».
«Подобные вещи повторяются повсюду», — сказал автор исследования Киран О’Коннор.
«Комментарии ниже как бы подчеркивают затронутые вами темы и то, как они порождают неприятные ситуации».
Хотя неудивительно, что маргинальные группы используют платформы социальных сетей для публикации разжигающих ненависть материалов, эксперты говорят, что TikTok породил творческие способы распространения контента и предотвращения автоматического удаления.
Эти причуды включали в себя такую простую вещь, как изменение саундтрека, но до сих пор неясно, что именно работает.
«TikTok, как известно, очень сложная платформа для изучения, по одной причине, что это новый жанр и не так много методологии», — сказал Ариэль Богл, аналитик Международного центра электронной политики (ICPC).
«Он также управляется алгоритмом, который остается очень загадочным».
О’Коннор сказал, что в его выборке из 1030 видеороликов, составленных с использованием библиотеки хэштегов и популярных фраз, размещенных маргинальными группами, был такой же ужасный контент о всех видах защищенных групп.
Что касается антиазиатского контента, широко используются хэштеги, связанные с COVID-19, что, по словам О’Коннора, сделало контент более доступным для обнаружения и может сделать его доступным для людей, которые иначе не увидели бы его.
«Вот почему так много создателей отмечают свой контент этими общими словами и фразами», — сказал он.
Почти половина видео в выборке были пронацистскими материалами, многие из которых демонстрировали прямые сцены стрельбы в Крайстчерче или включали людей, читающих прямо из манифеста стрелка.
Контент является незаконным во многих юрисдикциях, и некоторые сообщения могут содержать ссылку, которая направляет зрителей на зашифрованный канал обмена сообщениями с более экстремистским контентом.
Также было обнаружено, что TikTok привлекает другие типы маргиналов, такие как группы против трансгендеров или идеологию мужчин по-своему, что является ответвлением движения против женщин.
По словам г-на О’Коннора, на момент завершения исследования более 80 процентов видео все еще оставались живыми, но ABC понимает, что с тех пор платформа удалила их все после того, как они были отмечены ISD.
Хотя TikTok заявил, что удаляет подавляющее большинство контента, нарушающего его политику, в течение 24 часов, многие функции, используемые для обхода его модераторов, встроены в платформу.
И г-жа Богл, и ISD указали на упрощенные способы избежать модерации, такие как добавление дополнительного номера в заблокированный аккаунт или неправильное написание ключевых слов или фраз.
Другие обходные маневры связаны с использованием функции приложения «Stitch» или «Duet», чтобы просто объединить его с другим видео, чего во многих случаях оказалось достаточно, чтобы избежать цензуры.
«Всегда есть какая-то игра в кошки-мышки с модерацией в TikTok, — сказал Богл.
TikTok также может отключать звук в видеороликах, которые содержат звук, нарушающий принципы сообщества, но эффективное решение — использовать песни из каталогов приложения.
По словам О’Коннора, любимой песней маргинальных групп была «Little Dark Age» MGMT.
В образце ISD также заметно фигурировал человек из Готье, которого я знал, а также работа Кейт Буш «Running Up That Hill».
Ни одна из этих песен не несет в себе особого смысла.
О’Коннор сказал, что, хотя TikTok извлекла уроки из ловушек и ошибок, которые допускали другие компании, работающие в социальных сетях, и большинство видео, о которых сообщалось, имели низкую вовлеченность, он сказал, что компании нужно больше прозрачности в том, как она изменяет свой контент.
«Есть пробел в применении подхода TikTok к ненависти и экстремизму … Этот контент был удален, но непоследовательно», — сказал он.
Представитель TikTok заявила, что социальные сети высоко ценят исследования, проведенные ISD и другими организациями.
«TikTok строго запрещает насильственный экстремизм и ненавистническое поведение, и наша специальная команда будет удалять любой такой контент, поскольку он нарушает наши правила и подрывает творческий и радостный опыт, который люди ожидают от нашей платформы», — сказала она в заявлении.
«Мы высоко ценим наше сотрудничество с ISD и другими организациями, чьи критические исследования отраслевых проблем помогают нам продвигать наши стратегии по обеспечению безопасности и удобства нашей платформы».
More Stories
Улицы с сладостями: лучшие улицы рядом с вами, где можно заняться сладостями или сладостями
Северная Корея заявила, что Северная Корея запускает межконтинентальную баллистическую ракету большой дальности в море Военные новости
Испания пострадала от сильнейшего за последние десятилетия наводнения, когда дождь обрушился на Валенсию