Платим блогерам
Блоги
kosmos_news
Суперчип Groq обрабатывает более 1200 токенов в секунду (T/s). Это больше, чем у Llama, Gemma от Google и Mixtral 8x7B.

До сих пор в инструментах ИИ и больших языковых моделях (LLM) большое внимание уделялось количеству параметров и размеру контекстных окон. Американский стартап Groq (не путать с моделью ИИ «Grok» от xAI) в настоящее время акцентирует внимание на количестве токенов (в данном случае — это последовательность текстовых символов), которые могут обрабатываться в секунду. Потому что благодаря своим чипам искусственного интеллекта, которые компания называет языковыми процессорами (LPU), она намного превосходит облачных гигантов, которые в основном работают с чипами Nvidia.
На сайте Groq, который был основан Джонатаном Россом в Кремниевой долине в 2016 году, можно убедиться в чрезвычайно быстрой вычислительной мощности LPU. В интерфейсе чат-бота можно выбрать LLM с открытым исходным кодом Llama 3, Gemma от Google и Mixtral 8x7B от Mistral AI, а затем посмотреть скорость обработки подсказок. Чат-бот Llama 3 8B генерирует более 1200 токенов в секунду.

Это огромное количество. Если посмотреть на производительность облачных провайдеров, таких как Amazon (Bedrock) или Microsoft Azure, которые также используют Llama 3, то, когда дело доходит до значения T/s, они, как правило, находятся в нижнем трехзначном диапазоне. Groq значительно превосходит их:

Суть в том, что чипы Groq в сочетании с LLM могут генерировать очень быстрые ответы, тогда как с такими приложениями, как ChatGPT, Microsoft Copilot, можно ждать ответов дольше, особенно при больших объемах входных данных. 

реклама

LPU был разработан для преодоления двух проблемных мест LLM: плотности вычислений и пропускной способности памяти. С точки зрения LLM, LPU имеет большую вычислительную мощность, чем GPU или CPU. Это решение сокращает время расчета каждого слова, позволяя генерировать текстовые последовательности намного быстрее.

«Устраняя узкие места внешней памяти, механизм вывода результатов LPU также может на несколько порядков повысить производительность LLM по сравнению с графическими процессорами», — утверждает Groq.

Основатель стартапа в области искусственного интеллекта Джонатан Росс очень известен в индустрии чипов. Росс раньше работал в Google и запустил там тензорные процессоры (TPU) — чипы, которые сейчас необходимы для машинного обучения и разработки искусственного интеллекта. До сих пор Nvidia доминировала в генеративном искусственном интеллекте со своими графическими процессорами, но Groq и некоторые другие стартапы привлекают все больше и больше внимания.

1
Показать комментарии (1)

Популярные новости

Сейчас обсуждают