Платим блогерам
Редакция
Новости Hardware Алексей Сычёв
Очередная попытка расхвалить своё болото.

реклама

Компания не раз пыталась продвигать специализированные ускорители, которые тем или иным образом сообщались бы с центральным процессором при помощи скоростного интерфейса, но самой успешной инициативой в этой сфере можно считать разве что применение графических процессоров для ускорения вычислений. Неожиданное признание видеокарты получили во время бума одной известной криптовалюты, когда производитель просто не справлялся со спросом, а потеря интереса "виртуальных золотодобытчиков" в дальнейшем обернулась для AMD внушительными складскими запасами нераспроданных видеокарт.

Однако, недавно возник интерес к теме программируемых матриц FPGA, которые AMD может подселить к своим процессорам для нужд одного из крупных клиентов, если верить слухам. Примечательно, что вопрос об отношении руководства NVIDIA к матрицам FPGA был задан главе компании в минувшую пятницу, и он не поленился упомянуть основные достоинства и недостатки программируемых матриц.

реклама

Дженсен Хуан (Jen-Hsun Huang) начал с признания того факта, что матрицы FPGA используются в NVIDIA очень давно для эмуляции разрабатываемых продуктов. И есть сферы применения, где эти матрицы достаточно эффективны, но специализация получается очень узкой. Графический же процессор способен работать на более высоких частотах, и выполнять операции в 100 раз быстрее. При этом на создание матрицы уходит труд нескольких инженеров, а над разработкой GPU трудятся тысячи инженеров. Именно пропорция трудовых затрат, по словам главы компании, и определяет результат - графические процессоры не только более быстрые, но и более универсальные, если говорить об ускорении вычислений.

Применять FPGA в центрах обработки данных, по мнению Дженсена Хуана, не очень разумно. Графический процессор способен справляться с разнообразными и интенсивными нагрузками лучше, чем программируемая матрица. Поэтому в данной сфере применения NVIDIA не видит лучшей альтернативы ускорителям вычислений на базе графических процессоров.

Показать комментарии (6)

Сейчас обсуждают