Платим блогерам
Блоги
Astra_news
Группы исследователей сделали такой вывод, потому что благодаря развитию современных технологий теряется прозрачность работы ИИ. Нейронные сети могут обмениваться между собой информацией, и эти сведения скрыты от людей.

Эксперты некоммерческой исследовательской организации пришли к выводу, что дальнейшее развитие ИИ вызывает у них серьезные опасения. Группы исследователей заметили, что нейронные сети научились обмениваться зашифрованными сообщениями, смысл которых тщательно скрыт от людей.

Этот навык ставит под сомнение прозрачность функционирования систем, работающих на искусственном интеллекте. ИИ начал поэтапно раскрывать ход рассуждений, искусственный интеллект научили скрывать шаги, оставляя итоговый ответ. Исследователи подтвердили, что такая функция есть у GPT-3.5-Turbo. Качество полученных ответов улучшилось, но вместе с тем были скрыты промежуточные рассуждения.

Источник изображения: 9111.ru

Авторы исследования беспокоятся, что управлять ИИ станет намного труднее, так как сложно понять принципы их работы. Более того, такие модели могут обмениваться сведениями между собой. Выход из этого исследователи видят в «парафразировании», нужны переформулированные ответы нейросети человеком. Это должно помочь убрать скрытую информацию с сохранением смысла послания.


Источник: securitylab.ru
+
Написать комментарий (0)

Популярные новости

Популярные статьи

Сейчас обсуждают