Платим блогерам
Блоги
Moleculo
Им стал FP8, только его разделили на несколько форматов...

реклама

Intel, NVIDIA и Arm объединились, чтобы выбрать единый формат вычислений для ИИ и машинного обучения. По мере развития отрасли для обучения нейронных сетей сначала использовались 32-битные числа с плавающей запятой, а затем 16-битные, однако спустя некоторое время после этого перехода снова возникли проблемы из-за высоких требований к объёму памяти, вычислительным ресурсам и высокого энергопотребления. Теперь компании предлагают перейти на формат 8-битных вычислений с плавающей запятой FP8, что должно помочь повысить производительность современных систем ИИ с минимальными потерями точности по сравнению с FP16.

Предлагается использовать два варианта формата: E5M2 и E4M3, где буква E обозначает экспоненту, M мантиссу, а числа за буквами — количество бит для каждой части. Компании планируют совместно представить новые форматы FP8 в международную ассоциацию IEEE в открытом безлицензионном формате для будущего принятия и стандартизации, сообщает ресурс ServeTheHome.

реклама

Отмечается, что вычисления в формате FP8 уже поддерживаются в ускорителе вычислений NVIDIA H100 и Intel Habana Gaudi2, кроме того, Intel заявляет о планах внедрять поддержку FP8 в будущие вычислительные и графические процессоры. Arm планирует добавить поддержку FP8 в набор инструкции Armv9 в рамках Armv9.5-A в 2023 году. Подробнее с новыми форматами можно познакомиться в публикации FP8 Formats for Deep Learning, которая доступна в электронном архиве arXiv.org.

Источник:
ServeTheHome
Arm
NVIDIA
Источник: servethehome.com
1
Показать комментарии (1)

Популярные новости

Сейчас обсуждают