Внутренняя политика OpenAI в отношении модерации контента стала более прозрачной. Как выяснилось, компания не только блокирует нарушающие правила аккаунты, но и заходит дальше. При обнаружении в ChatGPT-диалогах признаков "реальной угрозы физической безопасности" человека, информация может быть направлена в правоохранительные структуры.
Процесс выявления таких угроз двухэтапный. Сначала нейросетевые алгоритмы-фильтры сканируют переписку на наличие тревожных маркеров. Затем в дело вступают люди: потенциально опасные диалоги поступают на проверку узкой группе модераторов. Именно они принимают финальное решение — забанить пользователя или уведомить полицию.
Данный прецедент вызвал жаркие споры среди экспертов по цифровой безопасности и правозащитников. Ключевая претензия звучат так: вместо помощи человеку в состоянии ментального кризиса такая практика может привести к его криминализации и усугублению ситуации.
Ранее Сэм Альтман позиционировал ChatGPT как конфиденциальный инструмент, проводя параллели с врачебной тайной. Теперь же юристы предупреждают: делиться с чат-ботом по-настоящему личной информацией стало рискованно.
По заявлению OpenAI, сегодня данные передают только в исключительных случаях. Однако, мало сомнений в том, что в будущем под давлением государств и корпораций масштабы слежки могут вырасти. Ситуация наглядно демонстрирует, как технологические компании балансируют между безопасностью общества, давлением регуляторов и правом пользователей на приватность.

