Платим блогерам
Редакция
Новости Hardware GreenCo
О чём умолчал Дженсен Хуан.

реклама

Вчера мастер разговорного жанра — директор NVIDIA, Дженсен Хуан (Jen-Hsun Huang) — рассказал о графической архитектуре компании образца 2016 года. Это будет архитектура Pascal, в апреле прошлого года внезапно пришедшая на смену ожидавшейся ранее архитектуре Volta. В принципе, к сказанному год назад добавить почти нечего. Но определённые выводы сделать уже можно. И мы в конце этой заметки обязательно их сделаем.

Пока же уточним, что GPU на базе Pascal будет поддержан 32 Гбайт памяти типа HBM (High Bandwidth Memory). Поскольку адаптеры на основе архитектуры Pascal выйдут не ранее первой половины 2016 года, то они будут нести на общей подложке с GPU либо четыре 8-Гбайт восьмислойных микросхемы HBM, либо восемь 4-Гбайт четырёхслойных чипа HBM. Компания SK Hynix как раз к этому времени начнёт массовый выпуск обоих типов таких микросхем памяти. Шеф NVIDIA подчёркивает, что будет именно такая конструкция модуля — GPU и расположенные рядом на общей подложке микросхемы HBM, а не на плате адаптера. Это позволит интерфейсу HBM развить максимальную пропускную способность — в три раза большую, чем позволяет архитектура Maxwell.

реклама

Также директор NVIDIA напомнил, что GPU Pascal получит встроенный интерфейс NVLink на базе частично видоизменённого интерфейса PCI Express. Благодаря NVLink появляется возможность соединить быстрой шиной два и более GPU. По прошлым сообщениям, в состав GPU Pascal может быть встроено два блока NVLink, и скорость каждого будет на уровне 20 Гбайт/с.

Наконец, компания уточнила, что GPU Pascal преуспеет в смешанных расчётах, иллюстрируя сказанное прогнозом совмещения вычислений с точностью 16FP и 32FP. Отметим, о работе Pascal с вычислениями с двойной точностью (64FP) нет ни слова. Из этого можно сделать осторожный вывод (сделать который мы обещали), что на базе Pascal снова будет выпущен GPU, ориентированный больше на домашний рынок, чем на рынок суперкомпьютеров. Есть подозрение, что компания снова пытается усидеть на двух стульях, вместо того, чтобы работать над двумя специализированными графическими архитектурами. Впрочем, в данном случае нам-то как раз жаловаться грех.

Интересно, что компания нашла лазейку для вывода Pascal на рынок суперкомпьютеров даже в таком урезанном виде (без упора на FP64). Речь идёт о вычислениях на базе нейронных сетей со значительным распараллеливанием команд 16FP и 32FP. Это сравнительно новая тема с глубоким обучением. Не зря ведь NVIDIA выступает спонсором соревнований ImageNet Large Scale Visual Recognition Challenge? Там как раз необходима обработка графической информации, на базе которой строится работа машинного интеллекта. Совокупно, благодаря HBM и архитектурным улучшениям, Pascal по "параметру" глубокое обучение окажется в 10 раз быстрее Maxwell. Похоже, NVIDIA вовремя заметила новую "фишку" и теперь стремится использовать её на полную катушку. Возможно, именно с этим связано внезапное появление на горизонте Pascal вместо ориентированной на продукты Tesla (и FP64) архитектуры Volta. Продолжаем следить за развитием событий!

Написать комментарий (0)

Популярные статьи

Сейчас обсуждают