Благодаря этому партнерству Amazon Web Services (AWS) станет первым поставщиком облачных услуг, использующим суперчипы NVIDIA GH200 Grace Hopper с новой технологией NVLink. Он будет доступен в Amazon Elastic Compute Cloud (Amazon EC2), что сделает тысячи суперчипов GH200 доступными в большом масштабе. Это позволит клиентам запускать крупномасштабные рабочие нагрузки AI/ML.
NVIDIA DGX Cloud услуга обучения искусственному интеллекту теперь также будет работать на AWS. По словам NVIDIA, этот новый сервис сможет запускать большие языковые модели которые могут превышать 1 триллион параметров. Клиенты также получат доступ к интегрированному программному обеспечению NVIDIA AI Enterprise и даже смогут связаться с экспертами NVIDIA AI.
Более того NVIDIA и AWS также планируют разработать самый быстрый в мире суперкомпьютер для искусственного интеллекта на базе графического процессора. Эта попытка получила название Project Ceiba. Суперкомпьютер будет оснащен 16 384 суперчипами NVIDIA GH200 и сможет обрабатывать 65 экзафлопс. NVIDIA заявляет, что будет использовать суперкомпьютер "для исследований и разработок в целях развития искусственного интеллекта для LLM, графики и моделирования, цифровой биологии, робототехники, беспилотных автомобилей, прогнозирования климата Земли-2 и многого другого".
Это укрепляющееся партнерство является хорошей новостью для генеративного ИИ. Он будет использовать основные компетенции NVIDIA и AWS, чтобы предлагать лучшие предложения компаниям и исследователям, работающим в области искусственного интеллекта.