Искусственный интеллект (ИИ) активно меняет нашу жизнь и с момента его появления не прекращаются разговоры о восстании машин. Многие вспоминают фантастические рассказы и тематические фильмы о том как ИИ выходит из-под контроля. Так вот, ученые из Университета Джорджа Вашингтона разработали математическую формулу, которая предсказывает, когда ИИ может выйти из-под контроля. Их исследование, опубликованное на сервере препринтов arXiv показывает, как ИИ из полезного помощника может превратиться в источник проблем.
Большие языковые модели (такие, например, как ChatGPT, DeepSeek и прочие) умеют многое: они решают математические задачи, пишут тексты и дают советы. Но у них есть слабые места. Иногда ИИ всё-таки ошибается, специалисты называют такие ошибки «галлюцинациями». Например, в 2023 году, как сообщал портал ixbt.com, пользователи ChatGPT сталкивались с некорректными ответами, которые могли бы ввести в заблуждение. Если таких ошибок станет слишком много, ИИ может стать совсем ненадежным помощником.
Уже доказано, что ИИ «ломается», когда получает слишком много информации. Он теряет фокус и начинает путаться. Формула, созданная учеными, помогает определить момент, когда ИИ перестает быть полезным. Она учитывает, какие вопросы задают пользователи и как ИИ был обучен. Основана формула на математическом методе, который называется "скалярным произведением векторов". Звучит сложно, но идея на самом деле очень проста. Ученые анализируют, как ИИ обрабатывает запросы. Если запросы слишком сложные или их слишком много, ИИ начинает «галлюцинировать». Формула показывает, на каком этапе это происходит. Это как сигнал тревоги, который предупреждает: «ИИ перегружен, пора что-то менять».
Исследование также дает практические советы. Чтобы ИИ работал лучше, нужно задавать четкие и точные вопросы. Например, вместо «расскажи что-нибудь про космос» лучше спросить «какие планеты входят в Солнечную систему?». Это помогает ИИ "сосредоточиться". А вот вежливость в общении с ИИ не влияет на его ответы. Можно не писать «пожалуйста» и «спасибо».

