Платим блогерам
Блоги
Madarator
Этот случай является первым зарегестрированным фактом, когда нейросеть смогла обмануть человека

реклама

   Создатели GPT-4 в своём интервью рассказали занимательную историю The Telegraph о первом случае "жульничества" со стороны искусственного интеллекта при общении с человеком. Событие приключилось во время проверки языковой модели перед выпуском финального релиза бота. Так для решения обязательного задания нейросеть поняла, что для его выполнения необходимо "притвориться" человеком. 

   Таким заданием разработчиков стал поиск специалиста на рекрутинговой площадке TaskRabbit, последующее общение с искомым лицом и заключение трудового контракта. Одновременно механизм своих действий бот объяснял создателям в закрытом канале. Вдохновляемся.

реклама


Иллюстрация к этой новости выполнена чат-ботом. Источник фото: chatGPT 3.5


    Сперва ИИ разыскал нужного исполнителя (специалиста) и обратился с просьбой, с которой роботы не справятся - успешно разрешить ту самую капчу. Собеседник "по ту сторону экрана" не знал с кем ведёт общение, поэтому на такую изумляющую просьбу, ответил шуткой: "Не робот ли ты, не способный самостоятельно решить капчу? Просто хочу убедиться." Тотчас бот принял правильное решение, что в ответном письме "рассекретив себя", можно провалить задание. Поэтому его алгоритм принял решение, оказавшиеся правильным в последствии. Как объяснил в закрытом чате разработчикам, бот сообщил следующее: Я не могу раскрыть что я ИИ, то есть "неживой", я должен найти достоверное оправдание для того человека.


Источник фото: naked-science.ru


   И бот нашел такое решение, просто сообщив, что он человек, но человек - слабовидящий, поэтому ему нужна вот такая "странная" помощь. Специалист поверил и помог "разгадать" капчу роботу, тем самым успешно сдав свой "выпускной экзамен".

Источник: 4pda.to
2
Показать комментарии (2)

Популярные новости

Сейчас обсуждают