Компания OpenAI изменила состав команды, занимавшейся внутренней безопасностью, в том числе — защитой архитектуры своих ИИ-моделей от несанкционированного распространения. Увольнения затронули сотрудников, отвечавших за предотвращение утечки информации за пределы компании.
По данным издания The Information, изменения коснулись команды, следившей за тем, чтобы параметры и веса моделей — ключевые элементы ИИ-систем, определяющие их поведение, — не попадали к посторонним. Эти данные составляют основу конкурентных преимуществ OpenAI и считаются критически важными для всей отрасли.
Компания подтвердила кадровые перестановки, сославшись на необходимость адаптации к новым угрозам. В числе причин — рост числа внешних рисков, включая корпоративный шпионаж и попытки незаконного копирования моделей со стороны других компаний или государств.
Решение последовало за вступлением в силу американских правил AI Diffusion, направленных на защиту стратегических ИИ-технологий. Эти нормы ограничивают передачу весов моделей за рубеж, особенно в страны, находящиеся под контролем экспортного регулирования США. Также они требуют специальных лицензий на распространение таких данных.
Администрация США заявила, что китайские компании уже предпринимали попытки обойти ограничения через дочерние структуры. На этом фоне защита архитектуры моделей — в том числе параметров, управляющих их выводами, — стала предметом особого внимания.
OpenAI ранее заключила контракты с Минобороны США и участвует в создании национальной инфраструктуры ИИ. В таких условиях контроль над утечками данных приобретает особую значимость — и любые изменения в команде безопасности воспринимаются как чувствительное решение.