Платим блогерам
Блоги
amv212
Создание человекоподобного ИИ - это не просто имитация человеческого поведения, технология должна быть способна обрабатывать информацию, или "думать" как человек, если мы хотим, чтобы на нее можно было полностью положиться

Создание человекоподобного искусственного интеллекта - это не просто моделирование поведения человека: для того чтобы на него можно было полностью положиться, он должен уметь обрабатывать информацию, или "думать" как человек.

В новом исследовании, опубликованном в журнале Patterns под руководством Школы психологии и нейронауки Университета Глазго, используется 3D-моделирование для анализа того, каким образом нейронные сети - часть широкого семейства машинного обучения - обрабатывают информацию, чтобы наглядно показать, насколько процесс обработки информации соответствует человеческому уровню.


Графическая абстракция. J.Patter.2021

 


Ожидается, что результаты этой новой работы проложат путь к созданию более надежной технологии ИИ, которая будет обрабатывать информацию подобно человеку и совершать ошибки, которые мы сможем понять и предсказать.

Одна из проблем, которая все еще стоит перед разработкой ИИ, заключается в том, как более точно понять процесс машинного мышления, и соответствует ли он тому, как человек обрабатывает информацию, чтобы обеспечить точность. Глубокие нейронные сети часто представляются как лучшая на сегодняшний день модель человеческого поведения при принятии решений, достигающая или даже превосходящая человеческую производительность в некоторых задачах. Однако даже простые на первый взгляд задачи по визуальному анализу могут выявить явные несоответствия и ошибки в моделях искусственного интеллекта по сравнению с человеком.

В настоящее время технология глубоких нейронных сетей используется в таких приложениях, как распознавание лиц, и хотя она очень успешна в этих областях, ученые все еще не до конца понимают, как эти сети обрабатывают информацию, и  следовательно, и то когда могут возникать ошибки.

В новом научном эксперименте группа специалистов решила эту проблему, смоделировав визуальный импульс, который был предоставлен глубокой нейронной сети, преобразовав его различными способами, чтобы продемонстрировать сходство распознавания, благодаря обработке аналогичной информации между человеком и моделью искусственного интеллекта.

Профессор Филипп Шинс, старший автор исследования и руководитель Института нейронауки и технологий Университета Глазго, сказал: "При создании моделей искусственного интеллекта, которые ведут себя как люди, например, узнают лицо человека, когда видят его, мы должны быть уверены, что модель искусственного интеллекта использует ту же информацию, которую использовал бы  человек для его распознавания. Если искусственный интеллект этого не сделает, у нас может возникнуть иллюзия, что система работает так же, как и человек, но потом окажется, что она ошибается в каких-то новых или непроверенных обстоятельствах".

Исследователи использовали серию меняющихся трехмерных изображений лиц и попросили людей оценить сходство этих случайно созданных образов с четырьмя знакомыми лицами. Затем они использовали эту информацию для проверки того, делают ли глубокие нейронные сети такие же оценки по тем же принципам. При этом  проверялось не только то, принимают ли люди и искусственный интеллект одинаковые решения, но и то, основываются ли они на одной и той же информации. Важно, что благодаря своему подходу исследователи могут получить визуализацию этих результатов в виде трехмерных лиц, которые управляют поведением людей и сетей. Например, сеть, которая правильно классифицировала 2 000 личностей, управлялась при помощи карикатуры на лицо человека, показывая, что она идентифицировала лица, обрабатывая совсем другую информацию о лице, в отличие от людей.

Научные сотрудники надеются, что эта работа проложит путь к созданию более надежной технологии искусственного интеллекта, которая будет вести себя более приближенно к человеческому поведению и совершать меньше непредсказуемых ошибок.

Исследование "Grounding deep neural network predictions of human categorization behavior in understandable functional features: The case of face identity", опубликовано в журнале Patterns.

https://www.sciencedirect.com/science/article/pii/S2666389921002038

Telegram-канал @overclockers_news - теперь в новом формате. Подписывайся, чтобы быть в курсе всех новостей!
Источник: sciencedirect.com
4
Показать комментарии (4)

Популярные новости

Сейчас обсуждают