Миллионы людей случайно увидели видео покушения на правого политического активиста Чарли Кирка в своих лентах в TikTok, X (заблокирована в РФ) и на других платформах вскоре после преступления. Как сообщает портал Wired, эти кадры предлагались пользователям часто без предупреждения, иногда даже с автовоспроизведением. Это событие демонстрирует, насколько плохо работает модерация контента в социальных сетях.
Взрослые пользователи могут осознанно использовать эти платформы и столкнуться с жестоким контентом. Дети и подростки, с другой стороны, часто не знают, что такие видеоролики проскальзывают сквозь фильтры платформ и внезапно появляются в их лентах. Кроме того, дети, как правило, слишком малы, чтобы понимать, как распознавать опасность такого контента или защищать себя.
Платформы не разглашают информацию о своей модерации контента. Какие инструменты ИИ используются и как, сколько модераторов-людей фактически задействовано, как контент приоритизируется и помечается — всё это остаётся неясным. Обсуждение возрастных ограничений необходимо продолжить, пишет портал Wired.
Председатель Европейской комиссии Урсула фон дер Ляйен недавно выступила за чёткое возрастное ограничение — пользоваться популярными соцсетями можно будет, по её плану, с 16 лет. Австралия служит примером соответствующей инициативы: в конце прошлого года правительство приняло закон, ограничивающий использование таких социальных сетей, как X и TikTok, лицам, не достигшим 16 лет.
Видеозаписи (такие, как кадры с покушением на Чарли Кирка) — убедительный аргумент в пользу серьёзного отношения к этой теме. За прошедшие годы платформы сократили свою модерацию, заменили людей искусственным интеллектом и, таким образом, устранили именно те защитные механизмы, которые должны применяться в подобных ситуациях.

