В недавнем заявлении Google объявила об изменении своих публичных принципов в области искусственного интеллекта. Теперь компания исключила требование избегать разработки технологий, способных причинить вред, в том числе связанных с оружием. Вместо этого Google подчеркнула, что намерена сотрудничать с государственными структурами, разделяющими «основные ценности», для защиты людей и обеспечения национальной безопасности.

Такое изменение позиции вызвало волну критики среди бывших сотрудников, работающих в области этического ИИ. Маргарет Митчелл, бывший руководитель команды по этике ИИ в Google, выразила опасения, что данный шаг нивелирует многолетнюю работу специалистов и активистов, направленную на сохранение этических стандартов. По её словам, это может означать, что компания перейдёт к прямому внедрению технологий, потенциально способных нанести вред.
Внутренние дебаты в компании давно сосредоточены вокруг вопроса баланса между соблюдением этических норм и необходимостью конкурировать на быстро меняющемся рынке. После появления ChatGPT Google оказалась под давлением, что заставило её ускорить разработку собственных ИИ-решений. Некоторые аналитики считают, что данное изменение может стать сигналом о готовящихся масштабных шагах в области ИИ, в том числе связанных с оборонной промышленностью.
Новость вызывает широкий резонанс не только в технологическом сообществе, но и среди пользователей, обеспокоенных тем, что отказ от прежних принципов может повлиять на безопасность и этичность будущих ИИ-продуктов. Остаётся лишь ждать дальнейших комментариев от руководства Google и следить за развитием событий в сфере искусственного интеллекта.

