Платим блогерам
Блоги
Zelikman
Компания представила данную модель в прошлом году, но не раскрывала технических характеристик и особенностей

  Компания Nvidia впервые показала суперкомпьютер Eos на конференции по суперкомпьютерам в ноябре 2023 года. Данная машина является центром обработки данных, разработанным для приложений искусственного интеллекта. Хотя характеристики Eos не были раскрыты, энтузиасты получили возможность взглянуть на этот суперкомпьютер благодаря приглашению от компании.

  Eos оснащен 576 платформами Nvidia dgx H100, каждая из которых имеет восемь графических ускорителей H100 tensor core, что в сумме составляет 4608 процессоров. Также в компьютере установлена сеть и программное обеспечение Nvidia Quantum-2 infiniband. Все это в совокупности достигает общую производительность fp8 ai на уровне 18,4 эксафлопс.

  Благодаря своей сетевой архитектуре, что позволяет передавать данные со скоростью до 400 гбит/с, Eos способен обучать крупномасштабные языковые модели, системы рекомендаций, выполнять квантовое моделирование и решать другие задачи искусственного интеллекта. Компания Nvidia отмечает, что при разработке Eos были использованы знания, полученные от предыдущих суперкомпьютеров Nvidia dgx, таких как Saturn 5 и Selene. Разработчики Eos активно используют его в своих исследованиях и работе в области искусственного интеллекта.


  В прошлом году Eos вызвал бурю удивления, заняв 9-е место в списке top500 самых быстрых суперкомпьютеров в мире. Этот успех особо отмечен Servethehome, поскольку компания Nvidia в некоторое время перестала активно работать над повышением производительности искусственного интеллекта с использованием двойной точности. Самым быстрым суперкомпьютером согласно рейтингу top500 по-прежнему является система Frontier, расположенная в национальной лаборатории ок-ридж в теннесси, с производительностью hpl 1194 пфлопс/с, тогда как Eos показывает результат в 121,4 пфлопс. Однако с течением времени, вероятно, Eos сможет улучшить свои показатели.

  В ноябре прошлого года Eos успешно прошел тест на обучение модели GPT-3 с 175 миллиардами параметров по стандартам mlperf. Этот процесс был выполнен всего за 3,9 минуты, что почти втрое быстрее, чем результат, достигнутый шесть месяцев назад за 10,9 минут. Компания Nvidia утверждает, что благодаря использованию части данных GPT-3, Eos сейчас может обучаться всего за восемь дней, что в 73 раза быстрее, чем система со стандартной производительностью при GPT-3, использующая 512 графических процессоров A100, выпущенных в 2020 году.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают