Платим блогерам
Блоги
Breaking news
При этом солидная часть программистов не замечает ошибок в ответах чат-бота.

Повсеместное внедрение технологий искусственного интеллекта, призванного облегчить работу человека и скрасить его досуг, может таить в себе целый ряд негативных факторов, как следует из нового исследования, проведённого специалистами Университета Пердью и опубликованного новостным изданием Futurism, пишет сайт Gizmodo.

реклама

Источник фото: CNN

Сообщается, что в своей новой работе исследователи сравнили ответы на 517 вопросов по программированию на популярном в среде ИТ-специалистов сервисе Stack Overflow с результатами работы чат-бота ChatGPT от OpenAI.

Согласно проведённому анализу, около 52 % ответов, которые дал искусственный интеллект, оказались неверными, а 77 % процентов являются перегруженными, хотя 35 % участников данного исследования всё же отдали предпочтение результатам ChatGPT, посчитав их более чёткими и полными.

Ещё больше настораживает тот факт, что в 39 % случаев программисты, участвовавшие в работе, не обнаружили подвоха в ответах искусственного интеллекта, приняв на веру неправильные ответы ChatGPT.

По мнению специалистов, проводивших данное исследование, результаты их работы указывают на то, что общественность необходимо информировать о рисках, связанных с использованием искусственного интеллекта, так как чрезмерное доверие может привести к непредвиденным последствиям из-за ошибок, допущенных ИИ.

В настоящее время целый ряд компаний вкладывают баснословные суммы, разрабатывая своих собственных ИИ-ассистентов, которые могут помочь пользователям при решении некоторых задач, но маркетологи компаний могут навязать пользователям ошибочное мнение о том, что искусственный интеллект всегда даёт правильные ответы, на которые можно полагаться без их последующей проверки, тем самым подвергая клиентов риску и опасности, связанной со слепой верой в ИИ.

Источник: gizmodo.com
3
Показать комментарии (3)

Популярные новости

Сейчас обсуждают