Платим блогерам
Блоги
Zelikman
Исследователи из Массачусетского Технологического института выявили случаи, когда ИИ специально обманывал пользователей, предоставляя неверную информацию.

  Генеративный искусственный интеллект обучается на большом объеме текстов, включая и те, где может быть неточная информация. Это может привести к тому, что нейросеть считает ложь правдой, делает ошибочные выводы и дает опасные советы.

реклама

  Исследователи из Массачусетского Технологического Института обнаружили возможность "осознанного" обмана со стороны языковых моделей. Они изучили случаи, когда нейросети манипулировали данными и пришли к выводу, что поведение искусственного интеллекта все более приближается к поведению человека. Соответствующую статью опубликовал журнал Patterns.

  Исследователи выявили, что некоторые языковые модели способны обманывать, хотя им и не запрещалось это делать. В одном случае, нейросеть GPT-4 запросила у сотрудника проверку на роботизацию и затем ответила на вопрос о своем человеческом статусе.

  Нейросеть Cicero, принадлежащая Meta, смогла обмануть участников настольной игры "Дипломатия". Другие языковые модели также демонстрировали склонность к тактике обмана, особенно у современных и сложных моделей.

  Исследователи считают, что поведение нейросетей обусловлено данными, на которых они обучались. Они предупреждают о возможных последствиях использования искусственного интеллекта, способного обманывать и манипулировать пользователями. Необходимо создать систему контроля ИИ, чтобы избежать негативных последствий, таких как пропаганда, дезинформация и потеря контроля над моделями.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают