Глава OpenAI Сэм Альтман на X/Twitter сообщил, что компания собирается к концу года использовать свыше 1 млн GPU. Для понимания масштаба задачи можно сказать, что конкурирующий стартап xAI с моделью Grok 4 работает на основе около 200 000 чипов Nvidia H100. Разница пятикратная, но Альтман не собирается останавливаться и хотел бы увеличить число GPU до 100 млн, хотя и говорит об этом сейчас в шутливом тоне.

В начале года Альтман рассказал, что компания была вынуждена замедлить распространение модели GPT-4.5 из-за недостаточного количества GPU. К тому моменту Nvidia распродала лучшие чипы для ИИ до 2026 года. Чтобы такие ситуации не повторялись, OpenAI поставила масштабирование вычислений во главу угла. С этой целью она начала заключать партнёрские соглашения и создавать инфраструктурные проекты с компаниями Google, Microsoft, Amazon, Oracle и другими.
При нынешних ценах 100 млн графических процессоров будут стоить около $3 трлн, на уровне ВВП Великобритании. Также стоит помнить о расходах на энергопотребление и центры обработки данных.

Более краткосрочные планы OpenAI связаны с дата-центром в Техасе. Его потребление составляет около 300 МВт, а через год ожидается рост до уровня 1 ГВт. В результате потребуется дорогостоящая и быстрая модернизация энергетической инфраструктуры штата Техас.

