Платим блогерам
Редакция
Новости IT-рынка admin
Ведущие поставщики Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta и Supermicro предлагают системы NVIDIA A100 для разных областей мировой промышленности

реклама


16 ноября 2020 NVIDIA представила графический процессор NVIDIA® A100 80GB для супервычислительной платформы NVIDIA HGX™ AI, с вдвое большей памятью, чем у предшественника, обеспечивая исследователям и инженерам беспрецедентную скорость работы и производительность, которая позволит совершать новые открытия в области искусственного интеллекта и науки.



Новый процессор A100 с технологией HBM2e обладает удвоенным объемом высокоскоростной памяти до 80 ГБ по сравнению с A100 40GB и обеспечивает полосу пропускания более 2 терабайт в секунду. Это позволяет быстро передавать данные на A100, самый быстрый в мире GPU для центров обработки данных, и еще больше ускорять приложения и использовать еще более крупные модели и наборы данных.

«Для достижения высоких результатов в исследованиях высокопроизводительных вычислений и искусственного интеллекта необходимо создавать самые большие модели, но для этого требуется больше объема памяти и пропускной способности, чем когда бы то ни было, - сказал Брайан Катанзаро (Bryan Catanzaro), вице-президент NVIDIA по прикладным исследованиям в области глубокого обучения. - Графический процессор A100 80GB обеспечивает вдвое больший объем памяти, чем его предшественник, который был представлен всего полгода назад, и преодолевает барьер в 2 ТБ/с, позволяя исследователям решать самые важные мировые задачи науки и больших данных».

GPU NVIDIA A100 80GB доступен в системах NVIDIA DGXTM A100 и NVIDIA DGX StationTM A100, которые также анонсированы сегодня и появятся в продаже уже в этом квартале.

Ведущие поставщики систем Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta и Supermicro начнут поставки систем, построенных на интегрированных базовых платах HGX A100 в конфигурациях с четырьмя или восемью GPU A100 80 ГБ, в первом полугодии 2021 года.

Работа с ресурсоемкими нагрузками

80ГБ модель, обладающая широкими возможностями A100 40GB, идеально подходит для широкого спектра приложений с высокими требованиями к памяти.

Для обучения ИИ в моделях рекомендательных систем, таких, как DLRM, есть огромные таблицы, представляющие миллиарды пользователей и миллиарды продуктов. A100 80GB обеспечивает ускорение до 3-х раз, поэтому компании могут быстро переобучать эти модели для создания более точных рекомендаций.

A100 80GB также позволяет обучать самые большие модели с большим количеством параметров, подходящих для одного сервера на базе HGX, такого как GPT-2, модель обработки естественного языка со сверхчеловеческой способностью генерировать текст. Это устраняет необходимость в параллельных архитектурах данных или моделей, которые могут занимать много времени при создании и медленно работать на множестве узлов.

Благодаря технологии MIG (multi-instance GPU) процессор A100 можно разделить на инстансы, до семи, каждый с 10 ГБ памяти. Это обеспечивает безопасную аппаратную изоляцию и максимально увеличивает использование GPU для множества небольших рабочих задач. Для инференса моделей автоматического распознавания речи, таких как RNN-T, один инстанс MIG A100 80GB может работать с пакетами гораздо большего размера, обеспечивая в 1,25 раза более высокую скорость инференса в работе.

В тесте аналитики больших данных для розничной торговли в терабайтном диапазоне A100 80GB повышает производительность до 2 раз, что делает его идеальной платформой для быстрого получения аналитических данных по самым большим наборам данных. Компании могут принимать ключевые решения в реальном времени по мере динамического обновления данных.

A100 80GB может обеспечить огромное ускорение и в научных приложениях, таких, как прогнозирование погоды и квантовая химия. Quantum Espresso, приложение имитации материалов, увеличило пропускную способность почти в 2 раза с одним узлом A100 80 ГБ.

«Высокая пропускная способность и большая емкость памяти критически важны для достижения высокой производительности в суперкомпьютерных приложениях, - говорит Сатоши Мацуока (Satoshi Matsuoka), директор Центра вычислительных наук RIKEN. - NVIDIA A100 с 80 ГБ памяти HBM2e, обеспечивающей высочайшую пропускную способность в 2 ТБ в секунду, поможет значительно повысить производительность приложений».

Ключевые характеристики A100 80GB

A100 80GB включает в себя множество потрясающих функций архитектуры NVIDIA Ampere:
  • Тензорные ядра третьего поколения: до 20 раз выше скорость в ИИ по сравнению с предыдущим поколением Volta с новым форматом TF32, а также в 2.5 раза выше в вычислениях FP64 для HPC, в 20 раз выше в вычислениях INT8 для инференса и поддержка формата BF16.
  • Больше и быстрее память HBM2e: удвоение пропускной способности памяти и впервые в индустрии полоса пропускания свыше 2 ТБ/с.
  • Технология MIG: удвоение памяти на изолированный инстанс, до семи MIG-систем с 10ГБ памяти каждая.
  • Структурная разреженность: ускорение до 2 раз в инференсе разреженных моделей.
  • NVLink и NVSwitch третьего поколения: удвоение полосы пропускания между GPU по сравнению с предыдущей технологией связи ускоряет передачу данных на GPU для ресурсоемких задач до 600 ГБ/с.
Супервычислительная платформа NVIDIA HGX AI

Графический процессор A100 80 ГБ – это ключевой элемент супервычислительной платформы NVIDIA HGX AI, которая объединяет всю мощь графических процессоров NVIDIA, технологий NVIDIA NVLink®, NVIDIA InfiniBand и полностью оптимизированного программного стека NVIDIA AI и HPC для высочайшей производительности приложений. Это позволяет исследователям и ученым сочетать высокопроизводительные вычисления, аналитику данных и глубокое обучение для продвижения научного прогресса.

Подробнее о NVIDIA A100 80GB смотрите в выступлении NVIDIA на конференции SC20 в 2:00 по московскому времени.
Написать комментарий (0)

Сейчас обсуждают