
NVIDIA сообщила о расширении семейства вычислительных платформ HGX AI. К ним присоединяется ускоритель A100 с HBM2e видеопамятью объемом 80/40 ГБ и интерфейсом PCIe, а также сетевая платформа NDR 400G InfiniBand, созданная с входящей в состав NVIDIA компанией Mellanox, и программное обеспечение Magnum IO GPUDirect Storage.
Вариант ускорителя A100 в форм-факторе SXM4 компания представила еще в ноябре прошлого года, теперь появился его PCIe аналог с аналогичной функциональностью. Кроме различия в интерфейсе и форм-факторе можно отметить меньший тепловой пакет PCIe варианта, он ограничен 250 Вт, что существенно меньше, чем у 400-ваттной A100 SXM4. В основе A100 графический процессор с 6912 CUDA-ядрами и HBM2e видеопамять объемом 80 или 40 ГБ с огромной пропускной способностью: в первом случае она достигает 1935 ГБ/с, а во втором — 1555 ГБ/с.
Функция GPUDirect Storage схожа с технологиями RTX IO и Microsoft DirectStorage для потребителей. Она позволяет напрямую перемещать данные с быстрого NVMe накопителя в видеопамять, ускоряя загрузку, снижая задержки ввода-вывода и высвобождая ресурсы центрального процессора.
