Платим блогерам
Редакция
Новости IT-рынка admin
Ускоряемое на GPU машинное обучение и анализ данных значительно улучшат распознавание объектов, речи, звуков, изображений и видео

реклама

Сегодня, 18 июня 2013 года, NVIDIA объявила о том, что в результате сотрудничества с командой ученых из Стэнфордского Университета была создана крупнейшая в мире искусственная нейронная сеть, предназначенная для изучения процесса обучения человеческого мозга. Данная сеть в 6.5 раз больше предыдущего рекордсмена, созданного командой Google в 2012 году.

Компьютеризированные нейронные сети могут “научиться” моделировать поведение мозга, включая распознавание объектов, персонажей, голосов и звуков тем же способом, каким это делает мозг.

Однако создание масштабных нейронных сетей обходится очень дорого с точки зрения вычислительных ресурсов. Например, в Google на создание сети, которая научилась самостоятельно распознавать кошек в серии роликов YouTube, ушло порядка 1000 серверов на базе CPU, что эквивалентно 16000 процессорных ядер. Построенная сеть характеризовалась 1.7 млрд. параметров, виртуально отражающих связи между нейронами.

реклама

В отличие от Googe, команда Стэнфорда, возглавляемая директором лаборатории искусственного интеллекта при университете Эндрю Нг (Andrew Ng), построила такого же масштаба сеть всего на трех серверах, оснащенных графическими процессорами NVIDIA® для ускорения обработки больших объемов данных, генерируемых сетью. С помощью 16 серверов на базе графических процессоров NVIDIA команда смогла создать сеть с 11.2 млрд. параметров, что в 6.5 раз больше, чем у сети Google, представленной в 2012 году.

Чем больше и мощнее нейронная сеть, тем точнее она справляется с такими задачами, как распознавание объектов, позволяя с помощью компьютера моделировать поведение, близкое к человеческому. Работа команды ученых из Стэнфорда была опубликована вчера на Международной Конференции по Машинному Обучению.

“Обеспечивая скорость вычислений намного выше, чем CPU, графические процессоры позволяют проводить моделирование больших массивов данных в крупномасштабных нейросетях , - отмечает Самит Гупта (Sumit Gupta), директор направления Tesla в NVIDIA. - Теперь любой ученый или компания могут применять машинное обучение для решения разнообразных задач с помощью всего нескольких GPU-ускоряемых серверов”.

GPU ускорители в основе машинного обучения

Машинное обучение, быстро развивающийся сегмент области искусственного интеллекта, - это наука о выполнении действий компьютером без предварительного программирования. В прошлом десятилетии машинное обучение дало нам самоуправляемые автомобили и эффективный поиск в сети, а также позволило заглянуть глубоко внутрь человеческого генома. Многие ученые считают, что это лучший способ познания человеческого интеллекта.

Одной из компаний, применяющей GPU в этой области, является Nuance, лидер в разработке технологий распознавания речи и естественных языков. Nuance учит свои модели нейросетей понимать речь пользователей с помощью терабайтов аудио данных. После обучения модели могут распознавать образцы произнесенных слов путем их сопоставления с изученным материалом.

“Графические процессоры значительно ускоряют обучение наших нейросетей, что позволяет нам быстро внедрять новые алгоритмы и методы обучения, - говорит Влад Сейноха (Vlad Sejnoha), технический директор Nuance. - Такие модели повышают точность для всех ключевых технологий Nuance в сегменте здравоохранения, мобильной потребительской электроники и в корпоративном сегменте”.

NVIDIA примет участие в Международной Конференции по Супервычислениям 2013 (ISC), которая пройдет в Лейпциге, Германия, с 16 по 20 июня (стенд №220).

Показать комментарии (2)

Популярные статьи

Сейчас обсуждают