Платим блогерам
Редакция
Новости Hardware GreenCo
Есть два мнения: моё и неправильное.

реклама

Пять лет назад компания Intel начала продвигать заказные конфигурации процессоров семейства Xeon. Позже это трансформировалось в выпуск ускорителей на матрицах FPGA, для чего даже была куплена компания Altera. Забыли о заказных Xeon не просто так. За это время NVIDIA предложила ускорители на графических процессорах, которые лучше прочих решений вписались в новую тему с машинным обучением и, в конечном итоге, в решение задач с элементами искусственного интеллекта. Решениями NVIDIA воспользовались Microsoft, Facebook, Google и другие компании, а Intel, которая удерживала 99 % серверного рынка, вдруг оказалась не в теме.

За прошедшее с тех пор время Intel учла ошибки и достаточно продвинулась в разработке "железа" для ИИ, нейронных сетей и глубокого машинного обучения. Накопленный за годы потенциал компания усилила покупкой специализированных компаний, например, Nervana и той же Altera. В общем, теперь у Intel есть, чем козырнуть. На этом фоне Intel снова завела привычную пластинку: GPU NVIDIA не годятся для машинного обучения, и ничего нет лучше Xeon. Эти "свежие" мысли журналисту издания Barrons высказал руководитель подразделения Intel по разработке платформ для ИИ Гади Сингер (Gadi Singer).

реклама

Следует сказать, что в своё время этот руководитель передового подразделения Intel возглавлял группу по проектированию процессоров Itanium. Проект не оправдал ожидания, но Сингер получил полезный опыт в виде знания о том, что без развитой поддержки в виде программного обеспечения аппаратная платформа "не взлетит", а если да, то не высоко. Поэтому, когда два года назад все заговорили об ИИ и машинном обучении, Intel начала одну за одной строгать соответствующие инструкции для Xeon. Сегодня этот процесс далеко не окончен, но Intel устами Сингера утверждает, что её серверные платформы идеальны для работы с фрейморками типа TensorFlow, Mxnet и Caffe, тогда как GPU-платформы NVIDIA с её наборами команд CUDA — это прошлый век. Людям нравится открытый код, CUDA этого не позволяет.

Что касается архитектурных решений, то GPU также не могут считаться идеальными платформами для машинного обучения. Графические процессоры в данном случае оперируют последовательностью инструкций, а оперировать надо массивами с изменением порядка исполнения инструкций на лету. Процессоры Xeon такое осилят, а GPU NVIDIA — нет. Данное утверждение особенно интересно тем, что, по слухам, Intel готовит свой ускоритель для ИИ и машинного обучения на своём же графическом процессоре, анонс которого, если источники не врут, состоится в первых числах января 2019 года.

Показать комментарии (2)

Сейчас обсуждают