Компания NVIDIA представила две новые платформы. Одна из них основана на существующей архитектуре Hopper, а другая — на недавно разработанной Blackwell. Эти решения предназначены для использования в корпоративных серверах и обеспечивают ускорение рабочих нагрузок в области искусственного интеллекта.
С выходом NVIDIA H200 NVL, компания намекает, что карты на базе Hopper с интерфейсом PCIe теперь доступны для общего пользования. Они способны подключать до четырех ускорителей через NVLINK и обеспечивают в семь раз большую пропускную способность по сравнению с PCIe. NVIDIA утверждает, что решения H200 NVL легко интегрируются в любой центр обработки данных и предлагают множество гибких серверных конфигураций.
Решение Hopper H200 NVL предлагает в 1,5 раза больше памяти HBM, на 1,7 раза увеличивает производительность вывода LLM и демонстрирует прирост в 1,3 раза в производительности HPC. Это решение включает 114 SM с общим количеством CUDA-ядер 14 592, 456 тензорных ядер и обеспечивает производительность до 3 TFLOPs в FP8. Графический процессор получил 80 Гб памяти HBM2e, соединенной через 5120-битный интерфейс, и его TDP составляет 350 Вт.
Впервые представлен NVIDIA GB200 NVL4, который является абсолютно новым модулем и значительно расширяет исходную платформу GB200 Grace Blackwell Superchip AI. Он увеличивает вычислительные мощности как CPU, так и GPU, а также добавляет больший объём памяти.
Клиенты получают два графических процессора Blackwell GB200, установленных на более широкой плате с двумя чипами Grace. Этот модуль разработан, как односерверное решение, включающее домен NVLINK, который состоит из 4 графических процессоров и 1,3 ТБ оперативной памяти. В плане производительности модуль обещает улучшение моделирования на 2,2 раза, а также увеличение производительности обучения и вывода на 1,8 раза. Что касается теплового функционального диапазона, то можно предположить, что более крупное решение GB200 NVL4 будет требовать порядка 6 кВт электричества.