Материалы по тегу: nvidia
|
09.12.2025 [11:48], Руслан Авдеев
США разрешили продавать ИИ-ускорители NVIDIA H200 в Китай, но с пошлиной 25 %Президент США Дональд Трамп (Donald Trump) разрешил NVIDIA поставлять ИИ-ускорители H200 в Китай, но в обмен на дополнительный сбор в пользу США в размере 25 % от их стоимости. Это потенциально позволит NVIDIA вернуть многомиллиардный бизнес в КНР — одном из ключевых рынков для продукции компании в мире, сообщает Bloomberg. Трамп сообщил, что уже уведомил руководство КНР об изменениях и что новость была воспринята положительно. Поставки будут осуществляться только «одобренным клиентам», право на экспорт некоторых своих продуктов также получат AMD и Intel. После заявления Трампа акции NVIDIA и AMD выросли приблизительно на 2 % в конце торгов. Intel, вероятно, не особенно выиграет от изменений в обозримом будущем, поэтому её ценные бумаги подорожали менее чем на 1 %. При этом акции китайских SMIC и Hua Hong Semiconductor упали на торгах в Гонконге более чем на 2 %. Речь идёт о победе NVIDIA в стремлении компании убедить правительство США в необходимости ослабить экспортный контроль, мешавший компании продавать в Китай её продукцию. Глава компании Дженсен Хуанг (Jensen Huang) неоднократно говорил, что ограничения только способствуют развитию китайского производства ИИ-полупроводников. По мнению некоторых экспертов, решение рискует подорвать лидерство США в сфере ИИ. Впрочем, NVIDIA пока не уверена, готовы ли в КНР покупать H200. В августе NVIDIA получила разрешение на продажу чипов H20, а AMD — MI308, разработанных с учётом экспортных ограничений, в обмен на выплату США 15 % от продаж в Китае. Впрочем, эта схема так и не заработала. Решение Трампа вызвало критику со стороны части сенаторов, обвинивших президента в предоставлении Пекину инструментов для создания ИИ нового поколения. Формально H200 минимум на поколение опережает все китайские ИИ-чипы Huawei, Cambricon Technologies, Moore Threads и пр. Последняя после успешного IPO на днях объявила о своих глобальных амбициях. Так или иначе, Пекин, желая снизить зависимость от американских технологий, ранее решительно препятствовал внедрению в ЦОД чипов NVIDIA, особенно государственными структурами. Сам Трамп подчёркивает, что защищает национальную безопасность, создаст рабочие места в Америке и сохранит лидерство в сфере ИИ. В октябре Трамп допускал поставки в Китай «урезанных» вариантов Blackwell, но идея так и не получила развития. При этом Хуанг отмечал, что потенциальный рынок для его компании в Китае оценивается в $50 млрд. Нынешние послабления Blackwell и Rubin не касаются. По данным источников, ранее NVIDIA пыталась продавить продажи в Китай чипов B30 или B40, т.ч. экспорт H200 является компромиссным вариантом. В Министерстве торговли сообщают, что оплата американскому правительству будет осуществляться в виде пошлины в размере 25 %, которую будут взимать при поставке чипов с Тайваня в США, только после этого их будут отправлять в Китай. H20 и H200 принадлежат к одному поколению устаревающих ускорителей Hopper. Тем не менее, H200 значительно производительнее H20 и, по некоторым данным, их производительность почти на порядок выше ранее разрешённого для экспорта в КНР максимума производительности чипов. Так или иначе, ранее власти КНР фактически заблокировали импорт H20 в страну, порекомендовав китайским структурам полагаться на ускорители местных компаний и фактически остановив выход на огромный рынок продукции NVIDIA и AMD. На прошлой неделе в Конгрессе заблокировали инициативу, которая ограничила бы продажу в Китай и некоторые другие страны передовых ИИ-чипов. Закон GAIN AI Act обязал бы производителей, включая NVIDIA и AMD, предоставлять преимущественное право на покупку чипов покупателям из США. Американские законодатели уже работают над т.н. SAFE Act, новый закон должен систематизировать действующие в США ограничения на экспорт полупроводников на китайский рынок.
08.12.2025 [16:35], Владимир Мироненко
Помимо циклических сделок NVIDIA теперь раздаёт партнёрам и «кредиты доверия»Несмотря на растущую критику стратегии NVIDIA по финансированию своих клиентов, компания продолжает поддерживать своих партнёров и заказчиков всё новыми способами. Как пишет Data Center Dynamics, в своём недавнем отчёте по форме 10-Q NVIDIA сообщила, что выступила в качестве гаранта своего партнёра, что позволило последнему «обеспечить аренду объекта с ограниченной доступностью, подкреплённую кредитной историей» NVIDIA. Партнёр, имя которого не раскрывается, разместил на эскроу-счете около $470 млн, и у него уже есть соглашение о продаже облачных мощностей, что, по словам NVIDIA, снижает риск. Если компания не выполнит свои обязательства, NVIDIA имеет право взять объект в аренду для внутреннего использования или сдать его в субаренду, но ей придётся выплатить в течение пяти лет $860 млн. За последнее время NVIDIA заключила с покупателями своих ускорителей ряд сделок, отличающихся циклическим характером, что увеличило и без того высказываемые опасения экспертов в растущем пузыре на ИИ-рынке. Компания поддержала, в том числе, такие необлака, как CoreWeave, Nebius, Nscale, Lambda и Crusoe. В некоторых случаях компания выступает в качестве гаранта продаж. В сентябре этого года NVIDIA пообещала выкупить нераспроданные вычислительные мощности у CoreWeave за $6,3 млрд, а также заключила сделку с Lambda на $1,5 млрд на аренду серверов с собственными чипами. NVIDIA также готова инвестировать крупные суммы в разработчиков ИИ-моделей. Она заключила мегасделку на $100 млрд с OpenAI, а также сделку на $10 млрд с Anthropic. Обе сделки пока не завершены, и также привязаны к гарантиям продажи ускорителей. Также сообщается, что NVIDIA обсуждала возможность поддержки кредитов OpenAI на ЦОД, чтобы ускорить реализацию планов по расширению комплекса Stargate. Компания также инвестирует в разработчиков ИИ-моделей Mistral AI, xAI и Cohere, планирует инвестировать $5 млрд в Intel и $2 млрд в разработчика ПО Synopsys, а также поддерживает фонд ЦОД под руководством BlackRock. Уровень инвестиций в поддержание собственных продаж вызвал критику известного инвестора Майкла Берри (Michael Burry), ставшего прообразом одного из героев фильма «Игра на понижение», вынудив NVIDIA оправдываться, заявив, что она отличается от Enron, обанкротившейся из-за бухгалтерского мошенничества, а также от WorldCom или Lucent, оказавшихся в центре скандалов из-за манипуляций с учётом финансов и отчётностью.
08.12.2025 [14:20], Владимир Мироненко
$2 млрд инвестиций NVIDIA в Synopsys несут риски для UALinkОбъявление NVIDIA о расширении сотрудничества с Synopsys, разработчиком ПО для проектирования чипов и членом совета директоров UALink, и инвестициях в размере $2 млрд в совместные инициативы, последовавшее после недавнего решения производителя ИИ-ускорителей инвестировать $5 млрд в Intel, вызвали опасения по поводу его возможного влияния на разработку UALink — альтернативы собственному интерконнекту NVLink. Как отметил Network World, Synopsys входит в совет директоров консорциума Ultra Accelerator Link (UALink) — отраслевой коалиции из более чем 80 компаний, включая AMD, Intel, Google, Microsoft и Meta✴, которая работает над созданием открытой альтернативы технологии NVIDIA NVLink для объединения ИИ-ускорителей в один домен. NVIDIA инвестировала $2 млрд в обыкновенные акции Synopsys ($414,79/ед.), получив долю в разработчике ПО и планируя в рамках партнёрства объединить преимущества своих технологий с ведущими на рынке инженерными решениями Synopsys. В сентябре NVIDIA инвестировала $5 млрд в Intel, объявив о сотрудничестве с целью разработки чипов для ЦОД и ПК с использованием NVLink Fusion. За несколько месяцев до этого Intel взяла на себя обязательство совместно разрабатывать конкурирующий стандарт UAlink. Arm тоже присоединилась к консорциуму UAlink, участвуя при этом и в экосистеме NVLink Fusion.
Источник изображения: NVIDIA Moor Insights & Strategy считает, что с помощью инвестиций NVIDIA укрепляет свою экосистему на фоне вызовов AMD, будь то CPU, GPU или сетевые решения. Вместе с тем аналитики признают, что это «действительно усиливает давление на UALink» — финансовая «доля» NVIDIA в консорциуме UALink может повлиять на разработку открытого стандарта, специально созданного для конкуренции с технологиями самой NVIDIA и предоставления предприятиям более широкого выбора компонентов. Компании считают такие открытые стандарты критически важными для предотвращения привязки к одному поставщику и поддержания конкурентоспособных цен. В апреле консорциум ратифицировал спецификацию UALink 200G 1.0, определяющую открытый стандарт для объединения в один кластер до 1024 ИИ-ускорителей со скоростью 200 Гбит/с на линию. Это прямой конкурент NVLink, хотя и не такой производительный. При этом Synopsys играет ключевую роль в работе консорциума. Она не только вошла в совет директоров UALink, но и анонсировала первые в отрасли компоненты для проектирования UALink, позволяющие создавать ускорители, совместимые с UALink. Gartner признаёт наличие напряжённости: «Сделка между NVIDIA и Synopsys действительно вызывает вопросы о будущем UALink, поскольку Synopsys является ключевым партнёром консорциума и владеет критически важными IP на UALink, который конкурирует с проприетарным NVLink». По оценкам Greyhound Research, Synopsys играет ведущую роль в UALink, поэтому вхождение NVIDIA в структуру акционеров Synopsys может повлиять на заинтересованность последней в работе консорциума. UALink действует благодаря коммерческому согласованию, общим приоритетам НИОКР и близости планов развития участников. Даже потенциальная возможность влияния NVIDIA может подорвать доверие среди членов UALink. «Партнёры по консорциуму должны быть готовы к тому, что будущие версии UALink могут быть сформированы таким образом, что это либо замедлит их развитие, либо будет смещено в сторону компромиссов в дизайне для минимизации конкурентного давления на NVLink», — предупреждает Greyhound Research, призывая консорциум «срочно усилить управление, повысить прозрачность в отношении вклада Synopsys и рассмотреть механизмы защиты, если хочет сохранить доверие». Объявляя о партнёрстве, NVIDIA и Synopsys подчеркнули, что сотрудничество будет сосредоточено на инженерных инструментах на базе ИИ, а не на интерконнектах. В частности, библиотеки NVIDIA CUDA-X будут интегрированы в приложения Synopsys для проектирования микросхем, молекулярного моделирования и электромагнитного анализа. В пресс-релизе по поводу сотрудничества не было никакого упоминания NVLink или интерконнектов. «Поэтому это больше похоже на партнёрство в сфере ПО, чем в сфере интеллектуальной собственности», — пишет Moor Insights & Strategy. Генеральный директор Synopsys Сассин Гази (Sassine Ghazi), подчеркнул, что партнёрство никак не связано с циклическим финансированием. «Мы не намерены и не берём на себя обязательство использовать эти $2 млрд на покупку GPU NVIDIA», — сказал он, добавив, что к партнёрству могут присоединиться другие производители микросхем. Это означает, что компании могут продолжать сотрудничество в рамках более широкой экосистемы, то есть Synopsys продолжит работать с другими поставщиками, конкурирующими с NVIDIA, будь то AMD, Broadcom или один из гиперскейлеров. В ответ на просьбу Network World прокомментировать возможное влияние партнёрства на её приоритеты, Synopsys заявила, что это не меняет её стратегию. В свою очередь, NVIDIA не ответила вопрос ресурса о том, как эти инвестиции могут повлиять на деятельность Synopsys в рамках UALink или на независимость консорциума. Впрочем, аналитики сходятся во мнении, что для консорциума это партнёрство вряд ли можно считать чем-то позитивным. UALink важен для будущих ИИ-платформ AMD. HPE, которая одной из первых поддержала решение AMD Helios AI, будет использовать реализацию UALink over Ethernet (UALoE).
08.12.2025 [09:48], Сергей Карасёв
Вышел мини-компьютер AAEON Boxer-8651AI-Plus на платформе NVIDIA Jetson Orin NXКомпания AAEON представила компьютер небольшого форм-фактора Boxer-8651AI-Plus, спроектированный для выполнения ИИ-задач на периферии (Edge AI). Устройство может эксплуатироваться в неблагоприятных условиях, включая повышенные вибрации и температуры от -25 до +55 °C. В основу положена платформа NVIDIA Jetson Orin NX: доступны модификации с 8 и 16 Гбайт памяти LPDDR5. В первом случае в состав решения входят шесть CPU-ядер Arm Cortex-A78AE, во втором — восемь. Обе версии несут на борту графический блок на архитектуре NVIDIA Ampere с 1024 ядрами. Благодаря поддержке Jetpack 6.2 реализован режим Super Mode, повышающий ИИ-производительность на операциях INT8 (Sparse) со стандартных 100 до 157 TOPS. Компьютер оснащён разъёмами M.2 3042/3052 B+M Key для SSD или модема 4G/5G (плюс слот для SIM-карты) и M.2 2230 E Key для адаптера Wi-Fi/Bluetooth. Доступны четыре порта USB 3.2 Gen2 Type-A, последовательный порт RS-232 (Rx/Tx/CTS/RTS), коннектор Micro-USB, интерфейс HDMI 1.2 с поддержкой разрешения до 1920 × 1080 точек, сетевой порт 1GbE RJ45, а также гнёзда для подключения антенн беспроводной связи. Новинка заключена в корпус с размерами 125 × 90 × 56 мм. Применено пассивное охлаждение; ребристая поверхность способствует более эффективному рассеянию тепла. Масса составляет 0,84 кг. Питание в диапазоне 12–24 В подаётся через 2-контактный разъём. Возможен монтаж компьютера на стену. За безопасность отвечает модуль TPM 2.0.
05.12.2025 [17:29], Руслан Авдеев
Малайзия стала на шаг ближе к ИИ-суверенитету — запущен 600-МВт дата-центр с суперускорителями NVIDIAМалайзия сделала очередной важный шаг на пути достижения суверенитета в области технологий искусственного интеллекта. В Кулае (Kulai, штат Джохор) введена в эксплуатацию первая очередь дата-центра на основе технологий NVIDIA мощностью 600 МВт, сообщает Converge! Digest. Это позволит существенно снизить зависимость от иностранной ИИ-инфраструктуры. Построенный совместно с NVIDIA и YTL Power International (YTLP) центр находится на территории принадлежащего последней технопарка Green Data Center Park. Объект оснастили ИИ-системами NVIDIA GB200 NVL72 для обучения крупных ИИ-моделей и корпоративного инференса. Запуск последовал за дебютом малайзийской ИИ-модели ILMU — первого национального варианта LLM, разработанного в самой стране. Это свидетельствует о желании малайзийского правительства развивать собственные ИИ-компетенции, а не полагаться исключительно на сторонних поставщиков облачных услуг. При этом под давлением США выбор был сделан в пользу американских, а не китайских технологий.
Источник изображения: Ven Jiun (Greg) Chee/unsplash.com Дата-центр укрепляет долгосрочные амбиции страны по превращению в ведущий ИИ-хаб АСЕАН к 2030 году. Власти подчёркивали стратегическую важность суверенных вычислений в ходе недавних переговоров с главой NVIDIA Дженсеном Хуангом (Jensen Huang). В бюджете на 2026 год выделено RM5,9 млрд (более $1,4 млрд) на расширение ИИ-инфраструктуры, масштабирование внедрения ИИ в промышленности и повышение цифровой конкурентоспособности в производстве, телеком-секторе и сфере услуг. Развитие инфраструктуры соответствует общей динамике развития региона, в т.ч. речь про крупные инвестиции в Джохоре и его окрестностях. В настоящее время регион является одним из самых быстрорастущих хабов ЦОД в Юго-Восточной Азии. Всё новые и новые проекты ЦОД указывают на устойчивый спрос на мощности, близость к IT-экосистеме Сингапура и выгодные условия в области энергетики. Конкуренцию Малайзии пытается составить Индонезия. Малайзия определяет создание суверенных вычислительных мощностей и государственно-частное партнёрство как основные принципы стратегии развития цифровой индустрии. Как считают в Converge! Digest, действия Малайзии отражает аналогичные инвестиции в ИИ-вычисления, основанные на принципах суверенитета, осуществляющиеся в Сингапуре, Индонезии, Южной Корее, Японии и на Ближнем Востоке. Повсеместно страны создают специальные кластеры ускорителей для поддержки ИИ-индустрии. Укрепление партнёрства NVIDIA с поддерживаемыми государствами игроками в области ИИ от Сингапура до Саудовской Аравии отражает и растущий спрос на локализованные мощности и специализированные стоечные архитектуры. По мере развития ИИ-проектов в Джохоре Малайзия становится крупным ИИ-хабом с конкурентоспособными ценами в региональной гонке за развитие инфраструктуры. В августе сообщалось, что во II квартале 2025 года штат Джохор (Малайзия) одобрил 42 проекта строительства ЦОД.
04.12.2025 [23:59], Владимир Мироненко
$100-млрд мегасделка NVIDIA и OpenAI дальше громких заявлений пока так и не продвинуласьСпустя два месяца с момента подписания NVIDIA и OpenAI соглашения о намерениях, согласно которому NVIDIA инвестирует в OpenAI до $100 млрд, предоставив ей в аренду ускорители для развёртывания ИИ-инфраструктуры мощностью не менее 10 ГВт, выяснилось, что окончательная сделка до сих пор не подписана, сообщил ресурс Fortune. Исполнительный вице-президент и финансовый директор NVIDIA Колетт Кресс (Colette Kress) на конференции UBS Global Technology and AI Conference в Скоттсдейле (Scottsdale), сообщила инвесторам, что партнёрство с OpenAI по-прежнему находится на стадии согласования. «Мы до сих пор не заключили окончательное соглашение», — заявила Кресс в ответ на вопрос о том, какая часть обязательств NVIDIA фактически зафиксирована договором. С учётом того, что генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) однажды назвал сделку «крупнейшим проектом инфраструктуры ИИ в истории», такой ответ вызывает новые вопросы. По оценкам аналитиков, сделка может принести NVIDIA до $500 млрд выручки. Вместе с объявлением в сентябре о партнёрстве, компании представили план по развёртыванию миллионов ускорителей NVIDIA в течение нескольких лет, подкрепленный мощностями ЦОД до 10 ГВт и обещанием NVIDIA инвестировать в OpenAI до $100 млрд по мере реализации проекта. Эта новость способствовала росту рынка ИИ-инфраструктуры, подняв акции NVIDIA на 4 % и укрепив общее мнение о тесном сотрудничестве двух компаний. Как отметил Fortune, неясно, почему сделка не была заключена, но последний отчёт NVIDIA по 10-Q дает некоторые подсказки. В документе прямо указано, что «нет никаких гарантий, что какие-либо инвестиции будут осуществлены на ожидаемых условиях, если вообще будут», подразумевая не только соглашение по OpenAI, но и запланированные инвестиции NVIDIA в размере $10 млрд в Anthropic, $5 млрд в Intel и $2 млрд в Synopsys. Следует отметить, что фраза об отсутствии гарантий по будущей сделке является стандартной формулировкой, которую добавляют в 10-Q, говоря о планируемых сделках и не только. В разделе «Факторы риска» NVIDIA подробно описывает сложность реализации подобных мегасделок. NVIDIA вынуждена заказывать ускорители, память, сетевое оборудование и другие компоненты более чем за год вперёд, часто по неотменяемым предоплаченным контрактам. NVIDIA предупреждает, что в случае сокращения объёмов, задержки финансирования или изменения направления развития, у неё могут возникнуть «избыточные запасы», «штрафы за отмену заказа» или т.п. В документе отмечается, что прошлые несоответствия между спросом и предложением «значительно навредили её финансовым результатам». NVIDIA сообщила, что наличие «мощностей ЦОД, энергии и капитала» критически важно для клиентов, чтобы развернуть ИИ-системы, которые они устно обязались использовать. Наращивание мощности описывается как «многолетний процесс», который сталкивается с «нормативными и техническими проблемами, а также проблемами строительства». Компания предупреждает, что если клиенты не смогут получить достаточное количество электроэнергии или финансирования, это может «задержать внедрение технологий или сократить масштабы» развёртывания. NVIDIA также признала, что её собственные темпы инноваций затрудняют планирование. Компания перешла на ежегодный цикл выпуска новых архитектур — Hopper, Blackwell, Vera Rubin, — продолжая при этом поддерживать предыдущие поколения. Она отметила, что более высокие темпы развития архитектуры «могут усугубить трудности» с прогнозированием спроса и привести к «снижению спроса на продукты текущего поколения». Эти разъяснения NVIDIA подкрепляют предостережения «медведей» на ИИ-рынке, таких как известный мастер «игры на понижение» Майкл Берри (Michael Burry), который утверждает, что NVIDIA и другие производители чипов чрезмерно продлевают срок службы своих чипов и что их последующее обесценивание приведёт к сбоям в инвестиционном цикле. В ответ на такие обвинения Хуанг заявил, чипы шестилетней давности всё ещё работают на полную мощность. Кроме того, NVIDIA по аналогии с прошлыми циклами подъёмов и спадов рынка, связанными с «модными» вариантами использования, такими как майнинг криптовалют, предупредила, что новые рабочие нагрузки могут спровоцировать аналогичные всплески и спады, которые трудно предугадать, и могут наводнить серый рынок подержанными GPU. Хотя сделку пока не заключили, и теперь неясно, будет ли она подписана, Кресс подчеркнула, что отношения NVIDIA с OpenAI остаются «очень прочным партнёрством», длящимся уже более десяти лет. По её словам, OpenAI считает NVIDIA своим «предпочтительным партнёром» в сфере вычислений. Кресс также добавила, что сделка по OpenAI не входит в прогноз NVIDIA по поставкам GPU для ЦОД на 2025–2026 гг. на сумму $500 млрд. На данный момент закупки ускорителей для OpenAI осуществляются опосредованно, через облачных партнёров, а не по новому прямому соглашению с NVIDIA, указанному в протоколе о намерениях. OpenAI «хочет выйти на прямой контракт», отметила Кресс. «Но, опять же, мы всё ещё работаем над окончательным соглашением», — добавила она. В ответ на вопрос, влияет ли рост популярности Google TPU как потенциального конкурента ускорителям NVIDIA на лидерство компании на рынке, Кресс заявила: «Абсолютно нет». «Сейчас мы сосредоточены на том, чтобы помочь не только разработчикам моделей, но и множеству предприятий, предлагая полный пакет решений», — сказала она. По её словам, конкурентным преимуществом NVIDIA является не какой-то отдельный чип, а вся платформа в целом: аппаратное обеспечение, CUDA и постоянно расширяющаяся библиотека ПО. Именно благодаря этому стеку старые архитектуры по-прежнему широко используются, даже с переходом на Blackwell в качестве нового стандарта. «Все работают на нашей платформе, — сказала Кресс. — Все модели работают на нашей платформе, как в облаке, так и локально». Представитель OpenAI не стал комментировать ситуацию с подписанием сделки, но указал на слова Хуанга во время телефонной конференции, который говорил об OpenAI как о «компании, появляющейся раз в поколение», и его ожидание того, что инвестиции в OpenAI «приведут к необычайной доходности», пишет CNBC.
04.12.2025 [09:48], Владимир Мироненко
Частное ИИ-облако под ключ: Amazon представила AWS AI Factory для развёртывания в собственных ЦОД заказчиковAmazon представила AWS AI Factory — выделенную ИИ-инфраструктуру, включающую ускорители NVIDIA, чипы Trainium, а также сетевые решения, хранилища и базы данных AWS, которую можно развернуть в собственных ЦОД клиентов, обеспечивая их потребность в реализации суверенитета и соблюдении нормативных требований. «Клиенты могут использовать пространство своего существующего ЦОД, сетевое подключение и электроэнергию, в то время как AWS берет на себя все сложности развёртывания и управления интегрированной инфраструктурой», — пояснила компания. AWS отметила, что организации в регулируемых отраслях и государственном секторе при развёртывании своих масштабных проектов в сфере ИИ сталкиваются с проблемой их размещения в соответствующей требованиям инфраструктуре. Создание собственной ИИ-инфраструктуры требует значительных капиталовложений в покупку ускорителей, (до-)оснащение ЦОД и электроэнергию, а также сложных циклов закупок, выбора ИИ-модели для конкретного сценария использования и лицензирования моделей у разных поставщиков ИИ-технологий. Это требует много времени и усложняет эксплуатацию, отвлекая клиентов от основных бизнес-целей. AWS AI Factory позволяет решить эту проблему путём развёртывания готовой к использованию выделенной ИИ-инфраструктуры AWS в собственных дата-центрах клиентов. AWS AI Factory функционирует как частный облачный регион AWS, предоставляя безопасный доступ с низкой задержкой к вычислительным ресурсам, хранилищу данных, базам данных и ИИ-сервисам AWS для обучения и инференса ИИ-моделей. Кроме того, предоставляются управляемые сервисы, обеспечивающие доступ к ведущим базовым моделям без необходимости заключения отдельных контрактов с их поставщиками. Всё это помогает организациям соблюдать требования безопасности, суверенитета данных и нормам обработки и хранения данных, экономя усилия по развёртыванию и управлению инфраструктурой. Компания отметила, что AWS AI Factory разработаны в соответствии со строгими стандартами безопасности AWS, обеспечивая выполнение самых важных рабочих нагрузок на всех уровнях секретности: «Несекретно», «Конфиденциально», «Секретно» и «Совершенно секретно». AWS AI Factory — совместный проект AWS и NVIDIA, благодаря чему клиенты получат доступ к ПО NVIDIA и множеству приложений с ускорением на базе GPU. AWS Nitro и EC2 UltraClasters поддерживают платформы Grace Blackwell и Vera Rubin. AWS и NVIDIA также сотрудничают в рамках стратегического партнёрства с HUMAIN из Саудовской Аравии. AWS создаёт в Саудовской Аравии первую в своём роде «Зону искусственного интеллекта» (AI Zone) в кампусе HUMAIN, включающую до 150 тыс. ИИ-чипов, в том числе ускорители NVIDIA GB300 и Amazon Trainium, выделенную ИИ-инфраструктуру и ИИ-сервисы AWS.
03.12.2025 [13:40], Руслан Авдеев
ИИ-столбы: британский стартап Conflow Power разместит NVIDIA Jetson в уличных фонаряхБританский стартап Conflow Power Group намерен разместить ИИ-оборудование в уличных фонарях. Речь идёт об «умных» фонарях компании iLamp, которые дооснастят вычислительными модулями NVIDIA Jetson, сообщает Datacenter Dynamics. Базовый вариант модели сегодня обойдётся в £7,5 тыс. ($9,9 тыс.). Компания заявляет, что покупатели могли бы зарабатывать сами, требуя плату с ИИ-провайдеров за использование ИИ-оборудования. Ранее в 2025 году Conflow Power анонсировала проект iLamp — обычный фонарный столб, дополненный солнечными панелями и аккумуляторами. Кроме того, конструкция предусматривала поддержку 5G и Wi-Fi, модули управления дорожным движением, видеонаблюдение, датчики контроля окружающей среды и прочие компоненты. Для работы собственно iLamp требуется 80 Вт, но внешнее оборудование вроде Jetson сможет получать до 200–260 Вт.
Источник изображения: Conflow Power Group Conflow Power даже заявляет, что классические ЦОД можно заменить на iLamps, оснащённые модулями NVIDIA Jetson. Фактически речь идёт о создании распределённого дата-центра — экологически безопасного, не требующего водных ресурсов и с низкой задержкой, поскольку серверы находятся рядом с пользователями, говорит компания. По имеющимся данным, Conflow уже ведёт переговоры с несколькими компаниями и даже правительствами о внедрении новой технологии. Ранее в этом году бельгийский стартап Tonomia объявил о сотрудничестве с британским поставщиком ИИ-оборудования Panchaea для формирования eCloud — распределённой ИИ-платформы, размещаемой в системах солнечных панелей на автопарковках. Правда, eCloud предполагает использование более традиционных edge-серверов, а не Jetson AGX Thor или IGX Thor.
03.12.2025 [01:28], Владимир Мироненко
AWS «сдалась на милость» NVIDIA: анонсированы ИИ-ускорители Trainium4 с шиной NVLink FusionAWS готовит Arm-процессоры Graviton5, которые составят компанию ИИ-ускорителям Trainium4 с интерконнектом NVLink Fusion, фирменными EFA-адаптерам и DPU Nitro 6 с движком Nitro Isolation Engine. Но что более важно, все они будут «упакованы» в стойки стандарта NVIDIA MGX. Amazon и NVIDIA объявили о долгосрочном партнёрстве, в рамках которого ИИ-ускорители Trainium4 получит шину NVIDIA NVLink Fusion шестого поколения (по-видимому, 3,6 Тбайт/с в дуплексе), которая позволит создать стоечную платформу нового поколения, причём, что интересно, на базе архитектуры NVIDIA MGX, которая передана в OCP. Пикантность ситуации в том, что AWS годами практически игнорировала OCP, самостоятельно создавая стойки, их компоненты, включая СЖО, и архитектуру ИИ ЦОД в целом. Даже в нынешнем поколении стоек с GB300 NVL72 отказалась от референсного дизайна NVIDIA. NVIDIA же напирает на то, что для гиперскейлерам крайне трудно заниматься кастомными решениями — циклы разработки стоечной архитектуры занимают много времени, поскольку помимо проектирования специализированного ИИ-чипа, гиперскейлеры должны озаботиться вертикальным и горизонтальным масштабированием, интерконнектами, хранилищем, а также самой конструкцией стойки, включая лотки, охлаждение, питание и ПО.
Источник изображения: NVIDIA Вместе с тем управление цепочкой поставок отличается высокой сложностью, так как требуется обеспечить согласованную работу десятков поставщиков, ответственных за десятки тысяч компонентов. И даже одна задержка поставки или замена одного компонента может поставить под угрозу весь проект. Платформа NVIDIA если не устраняет целиком, то хотя бы смягчает эти проблемы, предлагая готовые стандартизированные решения, которые могут поставлять множество игроков рынка. По словам NVIDIA, в отличие от других подходов к масштабированию сетей, NVLink — проверенная и широко распространённая технология. В сочетании с фирменным ПО NVLink Switch обеспечивает увеличение производительности и дохода от ИИ-инференса до трёх раз, объединяя 72 ускорителя в одном домене. Пользователи, внедрившие NVLink Fusion, могут использовать любую часть платформы — каждый компонент может помочь им быстро масштабироваться для удовлетворения требований интенсивного инференса и обучения моделей агентного ИИ, говорит NVIDIA. Что касается самих ускорителей Trainium4, то в сравнении с Trainium3 они будут вшестеро быстрее в FP4-расчётах, втрое быстрее в FP8-вычислениях, а пропускная способность памяти будет увеличена вчетверо. Впрочем, пока собственные ускорители Amazon не всегда могут составить конкуренцию чипам NVIDIA. Любопытно и то, что в рассказе о Trainium3 компания отметила о переходе от PCIe к UALink в коммутаторах NeuronSwitch для фирменного интерконнекта NeuronLink, объединяющего до 144 чипов Trainium. Однако после крупных инвестиций NVIDIA в Synopsys развитие UALink как открытой альтернативы NVLink теперь под вопросом.
02.12.2025 [18:20], Сергей Карасёв
Российская ИИ-система Delta Sprut XL поддерживает до 25 GPU
delta computers
gpu
granite rapids
h200
hardware
intel
nvidia
ocp
rtx
sierra forest
xeon
ии
сделано в россии
сервер
Российская компания Delta Computers представила OCP-систему Delta Sprut XL, предназначенную для ресурсоёмких нагрузок, таких как обучение ИИ-моделей, инференс, научное моделирование и задачи HPC. В основу новинки положена аппаратная платформа Intel Xeon 6. CPU-секция допускает установку двух процессоров Sierra Forest-SP или Granite Rapids-SP с показателем TDP до 330 и 350 Вт соответственно: в первом случае могут быть задействованы в общей сложности до 288 E-ядер, во втором — до 172 P-ядер. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM или DDR5-8000 MRDIMM суммарным объёмом до 8 Тбайт. Могут быть установлены четыре SFF-накопителя U.2 толщиной 15 мм с интерфейсом PCIe 5.0 (NVMe) или восемь таких SSD толщиной 7 мм. Кроме того, есть два коннектора M2.2280 (PCIe). Реализованы четыре слота PCIe 5.0 x16 для карт типоразмера HHHL и слот OCP 3.0 (PCIe 5.0). Присутствуют разъёмы USB 3.0 Type-A и miniDP, а также выделенный сетевой порт управления 1GbE. В системе Delta Sprut XL ускорители на базе GPU устанавливаются в отдельные модули. В общей сложности могут использоваться до 20 карт NVIDIA H200 или до 25 экземпляров NVIDIA RTX Pro 6000 Blackwell Server Edition. Каждый квартет NVIDIA H200 объединён при помощи NVLink. «Delta Computers представляет GPGPU-платформу, способную консолидировать до 20 ускорителей NVIDIA H200 в одном кластере. При этом необходимость использования InfiniBand или 400GbE появляется лишь в случае потребности у заказчика в ещё большем количестве ускорителей — при таком сценарии предусмотрены отдельные слоты расширения для объединения нескольких платформ Delta Sprut XL в единый кластер», — отмечает компания. Питание обеспечивается посредством централизованного шинопровода OCP на 12 или 48 В. Применено встроенное ПО Delta BMC, предназначенное для мониторинга (сбор телеметрии, отслеживание состояния платформы, её модулей и компонентов) и удалённого администрирования серверного оборудования. Эта прошивка включена в реестр Минцифры РФ и сертифицирована ФСТЭК. |
|
