Компания Google прошла долгий путь с первых дней своего существования, когда ее главным принципом было "Не навреди". С годами компания постепенно отдалилась от этого принципа, внося изменения, которые не остались незамеченными. В последний раз Google без лишнего шума удалила из своих принципов ИИ критически важный пункт – тот, который прямо обязывал избегать применения ИИ с вредоносным потенциалом, включая оружие.
В ныне удаленном разделе под названием "Приложения ИИ, которые мы не будем разрабатывать" говорилось, что Google воздержится от создания технологий, которые причиняют или могут причинить общий вред, и в качестве примера приводилось оружие. Исключив эту формулировку, компания оставила свои этические границы более неопределенными.
В ответ на вопрос о внесении изменений Google обратила внимание на сообщение в блоге, авторами которого были Джеймс Маньика, старший вице-президент Google, и Демис Хассабис, глава Google DeepMind. В сообщении подчеркивалось, что демократические страны должны руководить разработкой ИИ на основе таких основных ценностей, как свобода, равенство и права человека. В нем также содержится призыв к сотрудничеству между компаниями, правительствами и учреждениями, придерживающимися этих принципов, чтобы ИИ способствовал безопасности, экономическому росту и защите людей.
Пересмотр заявления Google вписывается в более широкую тенденцию среди крупных технологических компаний, которые отказываются от прежних этических обязательств. Например, компании Meta Platforms и Amazon недавно сократили масштабы инициатив по обеспечению многообразия и инклюзивности, ссылаясь на изменившиеся приоритеты. Кроме того, в прошлом месяце Meta объявила о прекращении своей программы проверки фактов третьими лицами в США, что является еще одним признаком изменения корпоративной политики.