Процесс выявления таких угроз двухэтапный. Сначала нейросетевые алгоритмы-фильтры сканируют переписку на наличие тревожных маркеров. Затем в дело вступают люди: потенциально опасные диалоги поступают на проверку узкой группе модераторов. Именно они принимают финальное решение — забанить пользователя или уведомить полицию.
Данный прецедент вызвал жаркие споры среди экспертов по цифровой безопасности и правозащитников. Ключевая претензия звучат так: вместо помощи человеку в состоянии ментального кризиса такая практика может привести к его криминализации и усугублению ситуации.
Ранее Сэм Альтман позиционировал ChatGPT как конфиденциальный инструмент, проводя параллели с врачебной тайной. Теперь же юристы предупреждают: делиться с чат-ботом по-настоящему личной информацией стало рискованно.
По заявлению OpenAI, сегодня данные передают только в исключительных случаях. Однако, мало сомнений в том, что в будущем под давлением государств и корпораций масштабы слежки могут вырасти. Ситуация наглядно демонстрирует, как технологические компании балансируют между безопасностью общества, давлением регуляторов и правом пользователей на приватность.