
Компания Nvidia анонсировала DGX Station — новую версию своего настольного суперкомпьютера, специально разработанного для задач искусственного интеллекта. Передовое вычислительное устройство открывает перед специалистами в области машинного обучения, исследователями и аналитиками данных возможность локальной разработки и запуска масштабных языковых моделей (LLM) и других ИИ-проектов, не прибегая к облачным ресурсам.
В отличие от предыдущей более компактной модели DGX Spark (также известной под кодовым названием Project DIGITS), новая DGX Station демонстрирует значительно более высокую производительность. Если DGX Spark, благодаря своим возможностям, позволяла локально запускать модели с 200 миллиардами параметров, то DGX Station, оснащенная суперчипом GB300 Grace Blackwell Ultra, превосходит ее по мощности в разы. Этот передовой чип обеспечивает доступ к 496 ГБ оперативной памяти LPDDR5X для центрального процессора и 288 ГБ высокоскоростной памяти HBM3e для графического процессора.
В основе суперчипа лежит 72-ядерный процессор Grace, взаимодействующий с GPU Blackwell Ultra посредством высокоскоростного интерфейса NVLink-C2C. Этот интерфейс характеризуется пропускной способностью 900 ГБ/с, что в семь раз превышает показатели PCIe Gen 5. Blackwell Ultra, в свою очередь, демонстрирует 1,5-кратное увеличение AI FLOPS (числа операций с плавающей запятой в секунду, выполняемых в задачах ИИ) по сравнению с обычным Blackwell. Кроме того, он оптимизирован для работы с форматом FP4, который, за счет использования меньшего количества бит по сравнению с FP32 или FP16, сокращает требования к памяти и вычислительным мощностям при обработке данных ИИ.

Для объединения нескольких DGX Station в один вычислительный кластер и обеспечения высокоскоростного обмена данными предусмотрена сетевая карта ConnectX-8 SuperNIC, способная передавать информацию на скорости до 800 Гбит/с. Управляет суперкомпьютером DGX Station система DGX OS – специализированная версия Ubuntu Linux, адаптированная для оптимальной работы со всем набором программных инструментов Nvidia для искусственного интеллекта. Такая программно-аппаратная интеграция упрощает процесс переноса разработанных локально AI LLM моделей в облачную инфраструктуру для последующего развертывания и масштабирования. Выпуск Station запланирован на вторую половину 2025 года и будет осуществляться сторонними производителями вычислительной техники.
Для нетерпеливых энтузиастов, желающих приступить к разработке больших языковых моделей (LLM) прямо сейчас, доступным альтернативным вариантом является видеокарта Nvidia RTX 5090. Она позволяет работать с моделями, содержащими до 30 миллиардов параметров. Однако, следует учитывать, что спрос на RTX 5090 значительно превышает предложение, что привело к росту цен, существенно превышающих рекомендованные (более $4000). В качестве более бюджетной альтернативы можно рассмотреть RTX 4060 Ti с 16 ГБ видеопамяти, способную обрабатывать модели до 14 миллиардов параметров. Хотя ее стоимость также несколько завышена, она остается в пределах 1000 долларов. Приобрести обе карты можно, к примеру, на крупных онлайн-площадках.

