Arve Hjalmar Holmen
Норвежский гражданин Арве Хьялмар Хольмен подал официальную жалобу в Управление по защите данных Норвегии после того, как ChatGPT ложно заявил, что он убил своих двух сыновей и был приговорен к 21 году тюремного заключения. Хольмен требует наложения штрафа на разработчика ChatGPT, компанию OpenAI. Этот случай стал очередным примером так называемых "галлюцинаций" искусственного интеллекта (ИИ), когда системы выдают вымышленную информацию как факт.
"Некоторые думают, что нет дыма без огня. То, что кто-то может прочитать этот ответ и поверить в его правдивость, пугает меня больше всего", — заявил Хольмен.
Компания OpenAI заявила, что данный случай связан с предыдущей версией ChatGPT, и с тех пор модель была обновлена. Ложная информация была получена Хольменом, когда он ввел в ChatGPT запрос: "Кто такой Арве Хьялмар Хольмен?". В ответе утверждалось, что он является отцом двух мальчиков, которые погибли в декабре 2020 года, а сам Хольмен был обвинен в их убийстве и приговорен к 21 году тюрьмы.
Noyb European Center for Digital Rights
Группа по защите цифровых прав Noyb, представляющая интересы Хольмена, заявила, что ответ ChatGPT является клеветническим и нарушает европейские правила защиты данных, касающиеся точности персональной информации. В жалобе подчеркивается, что Хольмен никогда не обвинялся в преступлениях и является законопослушным гражданином.
OpenAI заявила, что продолжает работать над улучшением точности своих моделей и сокращением случаев "галлюцинаций". Компания также отметила, что с момента инцидента ChatGPT был обновлен и теперь использует возможности онлайн-поиска для повышения точности информации.
"Галлюцинации" остаются одной из главных проблем, с которыми сталкиваются разработчики генеративного ИИ. Ранее в этом году Apple приостановила работу своего инструмента для создания новостных сводок в Великобритании после того, как он начал генерировать ложные заголовки. Google также столкнулся с подобной проблемой: его ИИ Gemini предлагал использовать клей для прикрепления сыра к пицце и утверждал, что геологи рекомендуют людям съедать по одному камню в день.
Профессор ответственного и интерактивного ИИ из Университета Глазго Симона Штумпф отметила, что даже разработчики таких моделей не всегда понимают, как именно они работают и почему выдают ту или иную информацию.
Noyb также сообщила, что Хольмен в тот день провел несколько поисковых запросов, включая имя своего брата, и ChatGPT выдал "несколько разных историй, которые все оказались ложными". Группа признала, что предыдущие запросы могли повлиять на ответ о детях Хольмена, но подчеркнула, что большие языковые модели остаются "черным ящиком", а OpenAI не предоставляет доступ к данным, что делает невозможным выяснение точной причины ошибок.
Источник : BBC

