MIT: ИИ не способен формировать устойчивые ценности и убеждения

Ученые из США доказали, что ИИ не формирует устойчивых убеждений. Поведение нейросетей зависит от случайных факторов и формулировок запросов.
10 апреля 2025, четверг 13:51
Global_Chronicles для раздела Блоги

Команда ученых из Массачусетского технологического института поставила под сомнение распространенное представление о способности ИИ вырабатывать собственные ценности. После тестирования ведущих языковых моделей они пришли к выводу: нейросети лишь имитируют убеждения, не понимая их сути.

Эксперимент охватил модели от всех крупных разработчиков – OpenAI, Google, Meta и других. Ученые проверяли, насколько последовательно ИИ придерживается определенных позиций в разных сценариях. Результаты разочаровали тех, кто верил в "моральное развитие" алгоритмов.

Главное открытие: нейросети демонстрируют поразительную непоследовательность. Одна и та же модель в разных условиях может поддерживать диаметрально противоположные взгляды. Это полностью разрушает теорию о формировании у ИИ устойчивой системы ценностей.

Ученые объясняют это фундаментальным ограничением технологии. Современные ИИ не обладают сознанием или пониманием – они лишь вычисляют вероятности следующих слов в предложении. Их "мнения" - это математические операции, а не осознанные убеждения.

Особую тревогу вызывает нестабильность поведения моделей. Незначительные изменения в формулировке запроса могут привести к кардинально разным ответам. Это делает невозможным прогнозирование реакций ИИ в ответственных ситуациях.

Ученые предупреждают: не стоит приписывать алгоритмам человеческие качества. Попытки "очеловечить" ИИ могут привести к опасным заблуждениям о его возможностях и природе. Реальные системы пока далеки от того, что показывают в научной фантастике.