Китайский гигант в области электронной коммерции, компания Alibaba, сделала общедоступной свою модель искусственного интеллекта для создания видео и изображений под названием Wan 2.1. Это решение способствует её широкому применению и усиливает конкурентоспособность в ИИ-индустрии.
Публикации ИИ-моделей с открытым исходным кодом стали популярной практикой в сфере искусственного интеллекта, основным примером такого подхода в начале года стал инновационный стартап DeepSeek. Alibaba выпустила четыре варианта Wan 2.1: T2V-1.3B, T2V-14B, I2V-14B-720P и I2V-14B-480P, которые могут генерировать медиа-контент на основе текстовых запросов или существующих изображений. Числа «1.3B» и «14B» сигнализируют о количестве параметров в 1,3 миллиарда и 14 миллиардов соответственно.
Эти модели доступны пользователям по всей планете через платформы HuggingFace и ModelScope (входит в состав Alibaba Cloud) для научных, исследовательских и деловых целей. В январе Alibaba показала новую версию своей ИИ-модели для генерации видео, ранее называвшейся Wanx, а теперь просто Wan. Этот проект получил высокие оценки в тестах Vbench, специально разработанных для оценки качества генераторов видео, особенно за взаимодействие объектов.
Недавно компания также представила предварительную версию ИИ-модели для анализа и рассуждений QwQ-Max, которая тоже вскоре станет проектом с открытым исходным кодом. В течение ближайших трёх лет Alibaba планирует вложить более 380 миллиардов юаней ($52 млрд) в развитие облачных технологий и ИИ-инфраструктуры.

