В OpenAI заявили, что переписка с ChatGPT может уйти в полицию

Компания OpenAI официально подтвердила практику передачи данных правоохранительным органам. Речь идёт о диалогах, в которых искусственный интеллект обнаруживает прямые угрозы причинения вреда людям. Это заявление всколыхнуло сообщество, поставив под вопрос реальный уровень конфиденциальности в нейросетях.
31 августа 2025, воскресенье 19:09
Hardware_inc для раздела Блоги

Внутренняя политика OpenAI в отношении модерации контента стала более прозрачной. Как выяснилось, компания не только блокирует нарушающие правила аккаунты, но и заходит дальше. При обнаружении в ChatGPT-диалогах признаков "реальной угрозы физической безопасности" человека, информация может быть направлена в правоохранительные структуры.

Процесс выявления таких угроз двухэтапный. Сначала нейросетевые алгоритмы-фильтры сканируют переписку на наличие тревожных маркеров. Затем в дело вступают люди: потенциально опасные диалоги поступают на проверку узкой группе модераторов. Именно они принимают финальное решение — забанить пользователя или уведомить полицию.

Данный прецедент вызвал жаркие споры среди экспертов по цифровой безопасности и правозащитников. Ключевая претензия звучат так: вместо помощи человеку в состоянии ментального кризиса такая практика может привести к его криминализации и усугублению ситуации.

Ранее Сэм Альтман позиционировал ChatGPT как конфиденциальный инструмент, проводя параллели с врачебной тайной. Теперь же юристы предупреждают: делиться с чат-ботом по-настоящему личной информацией стало рискованно.

По заявлению OpenAI, сегодня данные передают только в исключительных случаях. Однако, мало сомнений в том, что в будущем под давлением государств и корпораций масштабы слежки могут вырасти. Ситуация наглядно демонстрирует, как технологические компании балансируют между безопасностью общества, давлением регуляторов и правом пользователей на приватность.