Платим блогерам
Блоги
itmanager85
Оказалось, что при задействовании тензорных ядер (которые имеют смешанную точность) Tesla V100 отрыв последней на тех же задачах глубокого обучения достигает 3,5-3,7X раз в пользу решения nVidia

реклама

Оказалось, что паритет MI60 и V100 в глубоком машинном обучении достигается только в стандартной точности операции с плавающей точкой (FP32), которая впрочем нередко бывает необходима, например, для достижения точности 99,99% для FaceID (который используется в банковской индентификации и ряде других случаев). 

реклама

Но при задействовании тензорных ядер (которые имеют смешанную точность) Tesla V100 отрыв последней на тех же задачах глубокого обучения достигает 3,5-3,7X раз в пользу решения nVidia. А конкурентом 300W MI60 в этом случае становится 70W Tesla T4. 

В общем, будем надеяться, что AMD знает, что делает - хотя конечно несколько смущает, что даже при равной производительности в FP32 - решение AMD потребляет на 20% больше электроэнергии (300W vs 250W), и это при значительно более тонком техпроцессе (7 nm vs 12 nm) и, как следствие, в x2.4 меньшей площади чипа.

17
Показать комментарии (17)

Популярные новости

Сейчас обсуждают