Платим блогерам
Блоги
Fantoci
Однако эксперты предупреждают, что новая технология не решит основную проблему и создаст ложное чувство безопасности.

Microsoft представила инновационное решение для борьбы с одной из самых насущных проблем искусственного интеллекта – склонностью к так называемым "галлюцинациям". Новый инструмент, получивший название Correction, призван автоматически выявлять и исправлять ложные или неточные сведения, генерируемые языковыми моделями.

Согласно информации из технологических СМИ, технологический гигант из Редмонда разработал инновационный инструмент Correction. Эта программа призвана автоматически выявлять и исправлять неточности в текстах, созданных системами искусственного интеллекта. На данный момент Correction проходит тестирование в рамках платформы Azure AI Content Safety. Разработчики утверждают, что их продукт совместим с различными генеративными моделями, включая последние версии от Meta и OpenAI.

Принцип работы нового инструмента состоит из двух ключевых этапов. Первоначально специальный алгоритм анализирует текст на предмет потенциальных ошибок или вымышленных данных. При обнаружении несоответствий включается языковая модель, которая пытается скорректировать информацию, опираясь на проверенные источники.

В Microsoft подчеркивают, что Correction способен существенно повысить качество и надежность контента, создаваемого искусственным интеллектом. Особые надежды возлагаются на применение этой технологии в таких критически важных областях, как здравоохранение, где точность информации играет решающую роль.

Тем не менее, не все эксперты разделяют оптимизм создателей Correction. Некоторые специалисты опасаются, что предложенное решение может создать иллюзию безопасности, не устраняя фундаментальных причин возникновения "галлюцинаций" у искусственного интеллекта.

Один из ведущих исследователей в области искусственного интеллекта высказал мнение, что подход Microsoft лишь маскирует проблему, не решая ее по существу. По его словам, даже если новая технология позволит повысить точность генерируемого контента до 99%, основная опасность будет скрываться именно в том небольшом проценте ошибок, которые останутся незамеченными.

Источник: techcrunch.com
+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают