реклама
Как нам уже известно, компания Google с 2015 года разрабатывает аппаратную платформу для выполнения тензорных (матричных) вычислений. Первым воплощением проекта стала заказная БИС (ASIC) Tensor Processing Units или TPU. Это 40-Вт чип с возможностью выполнять до 90 "тера-операций" в секунду. По словам Google, в задачах, связанных с глубоким машинным обучением, TPU в 15-30 раз эффективнее разработок NVIDIA и Intel (с чем, например, NVIDIA категорически не согласна). Вчера компания Google представила второе поколение ускорителей TPU — Cloud TPU.
реклама
Техническое описание платформы (спецификации) остались за кадром рассказа о новинке. Так, компания не сообщила о типе используемой памяти, которая может также оказаться памятью HBM2, GDDR5 или DDR4. Все компоненты на плате, включая обвязку TPU, скрыты радиаторами. Всё, что Google сообщила — это способность одного ускорителя работать с производительностью до 180 терафлопс на операциях с плавающей запятой. Возможно, речь идёт о производительности для тензорных вычислений. Если это так, то новый GPU NVIDIA GV100 на тензерных операциях обеспечивает до 120 терафлопс, что делает разработку Google не такой выдающейся.
Отметим, первые ускорители Google TPU были заточены на операции по принятию решений (inferences). Второе поколение TPU способно ускорять как операции по принятию решений, так и операции по обучению (training). На каждой плате расположены по четыре ускорителя TPU. Всего в каждом "коконе" (pod'е), как их называет Google, размещаются 64 TPU. Производительность pod'a 11,5 петафлопс. Восемь TPU нового поколения, утверждает Google, способны за 6 часов выполнить задачу, которую 32 "самые современные топовые видеокарты" будут выполнять целый день.
Воспользоваться платформой Cloud TPU могут все желающие. Правда, за деньги. Для разработчиков бесплатно будут доступны 1000 TPU. Доступ к ускорителям возможен через облачный сервис Google Cloud Compute наравне с доступом к аналогичным платформам на ускорителях NVIDIA или Intel.