int(1885)
array(0) {
}

Amazon покупает 1 млн видеокарт Nvidia для искусственного интеллекта

Pnglpngljpg

Nvidia и Amazon Web Services заключили крупную сделку по поставке чипов для искусственного интеллекта, которая закрепляет доминирование Nvidia в облачном рынке ИИ и задаёт ориентир для всей индустрии до 2027 года. Amazon Web Services планирует развернуть более 1 млн графических процессоров Nvidia в своих дата-центрах по всему миру в период до конца 2027 года. Эта инфраструктура станет основой для корпоративных сервисов ИИ, генеративных моделей и так называемых agentic AI — систем, которые умеют планировать, рассуждать и действовать автономно в сложных рабочих процессах. Сделка включает не только сами GPU (включая новые архитектуры Blackwell и Rubin), но и сетевые решения Nvidia и серверные системы, оптимизированные для работы с ИИ под нагрузкой. По сути, AWS «встраивает» полный спектр устройств Nvidia от вычислений до сетей — в свою облачную платформу, усиливая техническое лидерство в гонке облачных провайдеров.

Ключевой фокус сотрудничества — масштабирование, то есть запуска уже обученных моделей в реальных продуктах и сервисах. По оценкам Deloitte, на обработку данных уже приходится около двух третей всего вычислительного ресурса ИИ, тогда как в 2023 году это была примерно треть. Рынок чипов, оптимизированных под ИИ, в 2026 году может превысить 50 млрд долларов, при этом общий рынок ИИ‑чипов в дата‑центрах оценивается примерно в 200 млрд. «Чипы в этой сделке ориентированы на запуск моделей ИИ в масштабе, с упором на снижение стоимости использования», отмечает сооснователь ZenGen Labs Дермот Макграт, добавляя, что именно рост inference‑нагрузок меняет архитектуру инфраструктуры и конкурентную расстановку сил. Он подчеркивает, что возможность AWS комбинировать в одних системах чипы Nvidia и собственные процессоры даёт клиентам больше гибкости по сравнению с более «закрытыми» конкурентами.

Читайте также
Anoenojpg Читайте также

Банки и биткоин: 15 из 25 топ‑банков США запускают торговлю и хранение криптовалют

Nvidia как новый «слой инфраструктуры»

Комментируя сделку, Макграт назвал Nvidia «инфраструктурным слоем под облачными провайдерами, а не просто поставщиком чипов». Это означает, что компании вроде AWS всё больше зависят не только от отдельных GPU, но и от сетей, стойкой архитектуры и программных стэков Nvidia, глубоко интегрированных в их дата‑центры.

Инвестор Берна Миса описывает происходящее как «инфраструктурный переворот»: Nvidia встраивает свой полный спектр вычислений, сетей и inference в дата‑центры AWS, которые долгие годы работали на преимущественно собственном оборудовании. «Когда вы настолько глубоко сидите в стеке клиента, стоимость переключения и контекстный слой, который из этого вырастает, становятся вашим рвом», поясняет она.

Баланс независимости и зависимости

Параллельно AWS продолжает развивать свои чипы Trainium и Inferentia, стремясь к долгосрочной независимости от внешних вендоров. Однако в краткосрочной перспективе, по словам основателя инфраструктурной компании Gather Beyond Пичапен Пратипаванич, облачным провайдерам всё ещё «нужна Nvidia, чтобы оставаться конкурентоспособными», поэтому возникает уникальная ситуация одновременного сотрудничества и конкуренции. Сделка разворачивается на фоне геополитических рисков: власти США расследуют попытки нелегального вывоза продвинутых чипов Nvidia в Китай, а экспорт самых мощных GPU строго контролируется с 2022 года. На этом фоне углубление партнёрства с AWS внутри США ещё сильнее расширяет разрыв в ИИ‑инфраструктуре между Америкой и китайскими игроками.

Знания События Новости Курсы валют
Автор специализируется в тематике сайта, постоянно отслеживает её по влиятельным русскоязычным и ведущим интернациональным ресурсам. Его высокая квалификация подтверждается руководством FUTUREBY.INFO