Материалы по тегу: ии
|
25.11.2025 [14:05], Владимир Мироненко
AWS потратит $50 млрд на расширение облачных мощностей для правительства США: +1,3 ГВт на ИИ и HPCAmazon объявила о планах инвестировать до $50 млрд в расширение инфраструктуры ИИ и HPC для правительства США. Компания начнёт реализацию проектов в 2026 году и планирует добавить почти 1,3 ГВт вычислительной мощности в регионах AWS Top Secret, AWS Secret и AWS GovCloud (US) на всех уровнях секретности путём строительства новых ЦОД. Федеральные агентства получат расширенный доступ к комплексным ИИ-сервисам AWS, включая SageMaker, Bedrock, Nova и Anthropic Claude. Также в их распоряжение будут предоставлены ведущие модели класса open-weight foundation, ИИ-ускорители Trainium и ИИ-инфраструктура NVIDIA, что позволит им разрабатывать индивидуальные решения в области ИИ, оптимизировать большие наборы данных и повышать производительность труда, сообщила Amazon. Ранее AWS, Google, Oracle, Microsoft, xAI и др. IT-гиганты предоставили госслужбам США существенные скидки на облачные услуги в рамках программы OneGov. Это позволит государственным агентствам ускорить обработку информации и принятие решений. Интеграция ИИ с моделированием и имитацией позволит им решать за считанные часы самые сложные задачи, на которые раньше уходили недели или месяцы, а также «автоматически обнаруживать угрозы и разрабатывать планы реагирования», обрабатывая спутниковые снимки, данные датчиков и исторические закономерности в «беспрецедентном масштабе». «Наши инвестиции в специализированную правительственную инфраструктуру ИИ и облачные технологии коренным образом изменят подход федеральных агентств к использованию суперкомпьютинга, — заявил генеральный директор AWS Мэтт Гарман. — Мы предоставляем агентствам расширенный доступ к передовым возможностям ИИ, которые позволят им ускорить выполнение критически важных задач — от кибербезопасности до разработки лекарств. Эти инвестиции устраняют технологические барьеры, сдерживавшие развитие правительства, и укрепляют лидирующие позиции Америки в эпоху ИИ». Компания отметила, что этот шаг подчёркивает позицию AWS как лидера в области государственных облачных вычислений, поддерживающего более 11 тыс. государственных учреждений. AWS уже давно предоставляет правительству США выделенные облачные регионы. В 2011 году она запустила AWS GovCloud (US-West), AWS Top Secret-East — изолированное облако для секретных рабочих нагрузок — в 2014 году, AWS Secret Region — в 2017 году, с 2018 года добавила второй регион GovCloud (US-East), AWS Top Secret-West, а в октябре 2025 года — AWS Secret-West. Компания не раскрывает точное местоположение ЦОД и регионов. Как пишет Data Center Dynamics, другие страны также доверяют AWS свою самую секретную информацию. В Великобритании в 2021 году сообщили, что три британских разведывательных агентства использовали AWS для хранения совершенно секретных данных. В 2024 году AWS получила контракт стоимостью $1,3 млрд правительства Австралии на строительство ЦОД для совершенно секретной информации — спецслужбы получат возможность работы без использования открытого интернета.
25.11.2025 [13:42], Андрей Крупин
Yandex B2B Tech открыла доступ к Alice AI LLM — самому мощному семейству нейросетей «Яндекса»Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») сообщила о доступности пользователям облачной платформы Yandex Cloud нового семейства генеративных моделей — Alice AI LLM. Alice AI LLM является флагманской ИИ-разработкой компании «Яндекс». Модель построена на архитектуре MoE (Mixture of Experts) с технологией тренировки на основе обучения с подкреплением (Online RL). Нейросеть понимает около 20 языков (в том числе японский) и может быть использована для решения сложных задач: поиска по базам знаний и генерации результатов на основе найденной информации (RAG-сценарий), анализа документов, построения отчётов и аналитики, извлечения информации и автоматизации заполнения полей, форм и баз CRM, а также для создания «человеко-ориентированных» ИИ-ассистентов.
Источник изображения: пресс-служба «Яндекса» / company.yandex.ru Alice AI LLM доступна через OpenAI-совместимые Completions API и Responses API, а также собственный API генерации текста в форматах REST и gRPC. Модель поддерживает интеграцию с популярными open source-библиотеками LangChain, AutoGPT и LlamaIndex. В Yandex B2B Tech подчёркивают, что стоимость использования Alice AI значительно ниже, чем у опенсорсных нейросетей, благодаря оптимизированному под русский язык разделению текста на токены. В один токен в Alice AI помещаются примерно 4–5 символов на кириллице, а в опенсорсных моделях — примерно 2–3 символа. Таким образом, конечная стоимость использования Alice AI в 1,5–2 раза ниже открытых моделей с той же тарификацией. Кроме того, запросы пользователя к нейросети и ответы модели тарифицируются по-разному: токены «на вход» нейросети стоят в четыре раза дешевле, чем «на выход», что позволяет использовать модель более экономно.
25.11.2025 [11:24], Сергей Карасёв
Стартап Kneron представил чип KL1140 для работы с ИИ-моделями на периферииАмериканский стартап Kneron, по сообщению ресурса SiliconANGLE, разработал ИИ-чип KL1140, предназначенный для запуска больших языковых моделей (LLM) на периферийных устройствах. Утверждается, что изделие обеспечивает ряд существенных преимуществ перед облачными развёртываниями. Kneron, основанная в 2015 году, базируется в Сан-Диего (Калифорния, США). Стартап проектирует чипы для всевозможного оборудования с ИИ-функциями: это могут быть роботы, подключённые автомобили и пр. Ранее Kneron представила решение KL730, которое объединяет четырёхъядерный CPU на архитектуре Arm и акселератор для задач инференса. В 2023 году компания привлекла на развитие $49 млн от Foxconn and HH-CTBC Partnership (Foxconn Co-GP Fund), Alltek, Horizons Ventures, Liteon Technology Corp, Adata и Palpilot. В общей сложности на сегодняшний день Kneron получила более $200 млн от различных инвесторов. Характеристики нового чипа KL1140 полностью пока не раскрываются. Kneron заявляет, что это первый нейронный процессор, способный полноценно работать с сетями-трансформерами на периферии. Связка из четырёх чипов KL1140, как утверждается, обеспечивает производительность на уровне GPU при работе с ИИ-моделями, насчитывающими до 120 млрд параметров. При этом энергопотребление сокращается на 50–66 %. Суммарные затраты на оборудование могут быть снижены в 10 раз по сравнению с существующими облачными решениями. Среди других преимуществ запуска LLM на периферийных устройствах названы уменьшение задержки, отсутствие необходимости отправки конфиденциальных данных на внешние серверы и возможность использования даже без подключения к интернету. Чип KL1140 ориентирован на такие задачи, как обработка естественного языка в реальном времени, голосовые интерфейсы, системы машинного зрения, интеллектуальные платформы видеонаблюдения и др. Разработчики могут применять изделие для безопасного локального развёртывания приложений ИИ без необходимости использования облачных ресурсов.
24.11.2025 [22:25], Владимир Мироненко
Внедрение облачных технологий увеличивает прибыль компаний, показало исследование Yandex B2B Tech и «Яков и Партнёры»Согласно совместному исследованию консалтинговой компании «Яков и Партнёры» и Yandex B2B Tech «Облачные технологии: тренды и перспективы развития», российские компании продолжают наращивать масштабы использования облачных сервисов, получая от внедрения облачных решений заметный финансовый эффект. В основу исследования легли результаты опроса руководителей 200 крупных российских компаний из 17 отраслей. По оценкам экспертов, большей частью высоким уровнем внедрения ИИ могут похвастать компании с высоким уровнем использования облаков — таких 30 %. При низком уровне использования облаков уровень внедрения ИИ составляет не более 2 %. Около половины компаний оценивают эффект от внедрения облачных решений как превышающий 3 % их EBITDA, что значительно больше затрат на облако. В цифровых отраслях финансовый эффект ещё выше: более 5 % EBITDA у компаний в сфере ИТ и технологий электронной коммерции, а также телекоме и медиа. У 73 % респондентов эффект превысил затраты, у 2 % — он оказался выше 25 %, но 23 % опрошенных всё ещё не могут его оценить. При этом главный результат внедрения компании видят не в прямой экономии, а в улучшение масштабируемости, повышении доступности данных и надёжности инфраструктуры. В этих условиях около половины компаний тратят на облачные решения более 5 % от годового ИТ-бюджета, а свыше 30 % планируют увеличить расходы в будущем. Большинство участников опроса (94 %) планируют и дальше использовать облачные технологии, причем 44 % намерены масштабировать существующие решения, 28 % — применять технологии в новых сценариях, 26 % — использовать облачные технологии в тех же объёмах. Половина компаний планирует увеличить количество провайдеров облачных услуг. При этом ключевым критерием при выборе компании называют качество платформы и сопутствующих сервисов, превышающим по значимости цену и модель ценообразования. Согласно опросу, компании быстро переходят к гибридной модели: более 70 % используют одновременно публичное облако и on-premise инфраструктуру. Проникновение решений PaaS и SaaS составляет 65–66 %, при этом свыше половины компаний (52 %) комбинируют IaaS-, PaaS- и SaaS. Компании активно используют PaaS для ускорения разработки, анализа данных и внедрения AI-технологий, в большинстве случаев — несколько типов. Наиболее востребованы решения для хранения и обработки данных (78 % респондентов), инструменты для разработчиков (76 %), сервисы в области ML и ИИ (65 %), оркестрация, управление контейнерными кластерами (40 %) и инструменты аналитики и визуализации данных (27 %). Отмечено, что аналитические платформы ускоряют подготовку отчётов более чем в два раза, автоматизация консультаций снижает нагрузку на клиентскую поддержку на 20 %, а генеративные сервисы для создания карточек товаров увеличивают скорость публикации в десятки раз. В исследовании отмечено, что глобальный рынок публичных облаков увеличился с 2020 по 2024 гг. почти втрое, до почти $600 млрд, и, согласно прогнозу, достигнет $1,26 трлн в 2028 году. По словам «Яков и Партнёры», на публичные облака приходится больше 60 % мирового рынка ПО, и при позитивном сценарии к 2030 году доля может составить порядка 80 %. При этом в России этот рынок всё ещё является недостаточно зрелым, занимая около 35 % рынка ПО. Вместе с тем прогнозируемые темпы его роста будут превышать мировые, и в течение следующих пяти лет рынок вырастет приблизительно в три раза, практически сравнявшись с on-premise. Согласно прогнозу экспертов, в 2030 году российский рынок облаков по основным типам решений достигнет рекордных 1,24 трлн руб. Основными драйверами его роста являются цифровизация отраслей и спрос на гибкие решения. Рынок включает в себя все облачные решения ПО, а также потребление частных облаков и внутригрупповое потребление решений облачных провайдеров. На внешнее потребление приходится около 70 %.
24.11.2025 [18:08], Андрей Крупин
Российская служба каталогов ALD Pro дополнилась ИИ-помощником для системных администраторов«Группа Астра» представила новую разработку — ИИ-ассистент для службы каталогов ALD Pro. Программный комплекс ALD Pro предназначен для автоматизации и централизованного управления рабочими станциями, иерархией подразделений и групповыми политиками, а также прикладными сервисами для IT-инфраструктур организаций различного масштаба. Продукт может использоваться в качестве замены Microsoft Active Directory и учитывает интересы администраторов и пользователей компаний, переходящих на отечественный софт. ALD Pro включён в дорожную карту «Новое общесистемное программное обеспечение»; решению присвоен статус «особо важного продукта» в рамках программы Минцифры России. Система соответствует требованиям ФСТЭК по 2-му уровню доверия и может использоваться в организациях, предъявляющих высокие требования к безопасности корпоративного ПО.
Архитектура платформы ALD Pro (источник изображений: astra.ru) Встроенный в ALD Pro интеллектуальный ассистент избавляет системных администраторов от необходимости вручную искать информацию: теперь точный ответ на любой вопрос по работе со службой каталогов можно получить буквально за несколько секунд. Для формулировки запроса не требуется знание специальных команд или терминов. ИИ-помощник обеспечивает мгновенный доступ к знаниям, минимизируя простои в работе, и автоматизирует рутинный поиск, высвобождая время сотрудников для более важных задач. Кроме того, ассистент значительно ускоряет адаптацию новых сотрудников, предоставляя им встроенную экспертную поддержку и сокращая время на обучение. «На кейсе ALD Pro мы доказали, что локально размещённые большие языковые модели, настроенные под конкретные задачи, демонстрируют свыше 70 % качественных ответов и значительно снижают нагрузку на техническую поддержку. ИИ-помощник — незаменимый инструмент для компаний на этапе импортозамещения, позволяющий им быстро адаптироваться к изменениям. Внедрение таких решений позволяет ускорить онбординг сотрудников и повысить общую продуктивность команд на 30–40 %», — отмечает «Группа Астра».
24.11.2025 [17:46], Владимир Мироненко
Nokia инвестирует $4 млрд в производство и исследования в СШАКомпания Nokia в сотрудничестве с администрацией президента США объявила о планах инвестировать в течение нескольких лет $4 млрд в программы по расширению своих научно-исследовательских и производственных мощностей в США, чтобы ускорить разработки в области технологий мобильного и фиксированного доступа, IP, оптических сетей и сетей для ИИ ЦОД. Компания отметила, что этот шаг дополняет её инвестиции в производство, исследования и разработки в США в размере $2,3 млрд в рамках покупки Infinera. Кроме того, ранее Infinera объявила об инвестициях в размере $456 млн в строительство производственных мощностей в Сан-Хосе (San Jose, Калифорния) и предприятия по тестированию и упаковке в Бетлехеме (Bethlehem, Пенсильвания). $3,5 млрд из объявленной суммы инвестиций Nokia направит на поддержку исследований и разработок в США в области передовых сетевых технологий, включая автоматизацию, квантово-безопасные сети, производство полупроводников, тестирование и упаковку, а также современные материаловедческие разработки. Оставшаяся часть в размере $500 млн будет инвестирована в производство, исследования и разработки в США, в том числе в Техасе, Нью-Джерси и Пенсильвании. Nokia отметила, что эта инициатива укрепляет её внутренние производственные возможности в области мобильных, фиксированных, IP-, оптических и оборонных систем. В минувшую пятницу президент и исполнительный директор Nokia Джастин Хотард (Justin Hotard) заявил, что новые вложения позволят укрепить сетевую инфраструктуру на фоне роста инвестиций в ИИ, сообщил ресурс The Wall Street Journal. На прошлой неделе компания объявила на мероприятии 2025 Capital Markets Day для акционеров и инвесторов о масштабной «перезагрузке», в рамках которой оптимизирует свою деятельность, произведёт перестановки в руководящей команде и будет стремиться к расширению совместных партнёрских отношений в области инноваций в рамках курса на развитие ИИ и облачных вычислений. Добавим, что в конце октября NVIDIA сообщила о намерении приобрести пакет акций финской компании стоимостью $1 млрд.
24.11.2025 [16:21], Руслан Авдеев
PLDT оснастит базовые станции роборуками и ИИ, чтобы оптимизировать покрытие сети в реальном времениSmart Communications, дочерняя структура филиппинской телеком-компании PLDT, проводит пилотные испытания дистанционно управляемых роботизированных рук для базовых станций сотовой связи. Они помогут оптимизировать зону покрытия и повысить производительность сетевых подключений, сообщает Datacenter Dynamics. Особенно это актуально для удалённых районов, куда отправить живого техника сложно и дорого. Компания использует систему Optical Compass and Robot Arm (OCRA) от Humax Networks при поддержке интегратора Telkha. Отмечается, что благодаря этой системе операторы способны удалённо менять положение антенны в пространстве, благодаря чему корректировать настройки можно в режиме реального времени, в том числе во время пиковых дневных нагрузок.
Источник изображения: Humax Networks PLDT и Smart совместно с производителем OCRA — Humax Networks и системным интегратором Telkha запустили пилотную версию системы. Первую роборуку OCRA установили на действующей базовой станции, обслуживающей два объекта — больницу и близлежащий многоэтажный жилой комплекс. Испытания продемонстрировали улучшение уровня сигнала, качества и скорости в обоих локациях. Благодаря использованию OCRA компания сможет точно настраивать положение антенн и оптимизировать покрытие в режиме реального времени. Этот сократит время простоев и поднимет качество обслуживания клиентов. Особенно подчёркивается, что технология позволит инвестировать сэкономленные за счёт её внедрения средства в расширение и совершенствование сети, в конечном счёте это должно принести пользу конечным потребителям. В будущем планируется совместить возможность удалённого управления антеннами с ИИ-системой, что позволит отслеживать и корректировать состояние сети в реальном времени.
24.11.2025 [15:14], Сергей Карасёв
Технологии тысячеядерного RISC-V-ускорителя Esperanto будут переданы в open sourceСтартап Ainekko, специализирующийся на разработке аппаратных и программных решений в сфере ИИ, по сообщению EE Times, приобрёл интеллектуальную собственность и некоторые активы компании Esperanto Technologies. Речь идёт о дизайне чипов, программных инструментах и фреймворке. Фирма Esperanto, основанная в 2014 году, специализировалась на создании высокопроизводительных ускорителей с архитектурой RISC-V для задач НРС и ИИ. В частности, было представлено изделие ET-SoC-1, объединившее 1088 энергоэффективных ядер ET-Minion и четыре высокопроизводительных ядра ET-Maxion. Основной сферой применения чипа был заявлен инференс для рекомендательных систем, в том числе на периферии. Однако в июле нынешнего года стало известно, что Esperanto сворачивает деятельность и ищет покупателя на свои разработки — ключевых инженеров переманили крупные компании. А продать чипы Meta✴, в чём, по-видимому, и заключался изначальный план, не удалось. Как рассказала соучредитель Ainekko Таня Дадашева (Tanya Dadasheva), её компания работает с чипами Esperanto в течение примерно полугода. Изначально компания планировала использовать чипы Esperanto для запуска своего софтверного стека. В частности, удалось перенести llama.cpp up и tinygrad. Когда стало понятно, что Esperanto вряд ли выживет, было принято решение выкупить разработки стартапа. Во всяком случае, это лучше, чем просто закрыть компанию, оставив её заказчиков ни с чем, как поступила AMD с Untether AI.
Источник изображения: Esperanto Ainekko планирует передать сообществу open source технологии Esperanto, связанные с многоядерной архитектурой RISC-V, включая RTL, референсные проекты и инструменты разработки. Предполагается, что решения Esperanto будут востребованы прежде всего в области периферийных устройств, где большое значение имеет энергоэффективность. Архитектура Esperanto, как утверждается, подходит для таких задач, как робототехника и дроны, системы безопасности, встраиваемое оборудование с ИИ-функциями и пр. Второй соучредитель Ainekko Роман Шапошник (Roman Shaposhnik) добавляет, что многоядерная архитектура Esperanto подходит не только для разработки ИИ-чипов, но и для создания «универсальной вычислительной платформы». Сама Ainekko намерена выпустить чип с восемью ядрами Esperanto и 16 Мбайт памяти MRAM, разработанной стартапом Veevx. Отмечается, что соучредитель и генеральный директор Veevx, ветеран Broadcom Даг Смит (Doug Smith), является ещё одним сооснователем Ainekko. В дальнейшие планы входит разработка процессора с 256 ядрами: по производительности он будет сопоставим с чипом Broadcom BCM2712 (4 × 64-бит Arm Cortex-A76), лежащим в основе Raspberry Pi 5, но оптимизирован для инференса.
24.11.2025 [12:23], Руслан Авдеев
США рассматривают продажу в Китай ИИ-ускорителей NVIDIA H200Администрация США рассматривает возможность дать «зелёный свет» продажам ИИ-чипов NVIDIA H200 в КНР — по данным источников, некоторая двухсторонняя «разрядка» способствует обсуждению продаж передовых американских технологий в Китай, сообщает Reuters. Впрочем, H200 вряд ли можно назвать «новейшими» — в ходу уже совсем другие решения. В Белом Доме отказались комментировать ситуацию, но заявили, что американская администрация стремится «обеспечению американского технологического лидерства и защите национальной безопасности». Ранее глава NVIDIA Дженсен Хуанг (Jensen Huang) предупреждал, что именно запреты на продажу передовых решений могут угрожать технологическому лидерству США в мире. Теперь в NVIDIA не прокомментировали ситуацию прямо, но заявили, что текущие правила не позволяют продавать в Китае конкурентоспособные чипы, оставляя этот рынок на откуп быстро развивающимся иностранным конкурентам. Данные источников косвенно свидетельствуют о смягчении подхода США к отношениям с Китаем после того, как китайский Лидер Си Цзиньпин (Xi Jinping) в прошлом месяце заключил «перемирие» в технологической и торговой войнах. Антикитайские политики в Вашингтоне обеспокоены тем, что поставки более передовых чипов в Китай могут помочь Пекину «перезагрузить» военную машину, именно поэтому прошлая администрация в своё время ужесточила экспортный контроль в отношении Поднебесной.
Источник изображения: NVIDIA Столкнувшись с ограничениями Пекина на экспорт редкоземельных металлов, критически важных для производства многих высокотехнологичных продуктов, в этом году США пригрозили ввести новые технологические ограничения, но в итоге отказались от них в большинстве случаев. Чипы H200 представили два года назад, они получили более быструю и ёмкую память в сравнении с оригинальными H100, что позволяет быстрее обрабатывать данные ИИ-серверами. По имеющимся оценкам, модели H200 вдвое производительнее, чем варианты H20, разрешённые для экспорта в Китай Трампом после короткого тотального запрета. В отношении ближневосточных стран, которым тоже долго не разрешали закупать ускоритли из-за опасений, что они в итоге достанутся Китаю, послабления были объявлены на днях. В частности, Министерство торговли США уже одобрило поставку в страну эквивалент до 70 тыс. чипов NVIDIA Blackwell компаниям Humain и G42 из Саудовской Аравии и ОАЭ соответственно.
24.11.2025 [10:17], Руслан Авдеев
Перекрыть потоки: NVIDIA усиливает контроль над цепочкой поставок СЖО для Vera Rubin
cooler master
delta electronics
foxconn
hardware
nvidia
odm
qct
vr200
wistron
водоблок
ии
производство
сжо
NVIDIA намерена серьёзно изменить управление цепочкой поставок для серверной платформы новейшего поколения Vera Rubin. Она ужесточает контроль над сборкой и поставкой ключевых компонентов систем охлаждения, что связано с ростом энергопотребления и обязательным применением СЖО, сообщает DigiTimes. Это ещё один шаг в процессе усиления контроля над выпуском ИИ-платформ. NVIDIA уже давно внимательно следит за цепочками поставок для ускорителей и плат, но теперь намерена перейти на новый уровень. Источники сообщают, что компания намерена отобрать четырёх поставщиков водоблоков, перейти к координации производства и централизованным закупкам. Предполагается, что это будут Cooler Master, Asia Vital Components (AVC), Auras Technology и Delta Electronics. Ранее СЖО для NVIDIA занимались, в основном, Cooler Master, AVC и некоторые другие поставщики. Ожидается, что для Vera Rubin вместо поставки лишь отдельных компонентов (L6), NVIDIA будет участвовать в процессе и на более позднем этапе (L10), взяв ответственность за интеграцию и сборку готовых серверных шкафов. В целом окончательную сборку поручат Foxconn, Wistron и Quanta. Из-за необходимости быстрого выпуска продукции на поставщиков легла дополнительная нагрузка. Некоторые из них в частном порядке жалуются, что NVIDIA настаивает на запуске массового производства ещё до утверждения окончательного дизайна платформ, а новое поколение платформ часто появляется до того, как предыдущее достигло стабильного уровня производства и качества. Централизованные закупки помогут NVIDIA оптимизировать поставки и контролировать качество, но рентабельность работы поставщиков может пострадать, поскольку NVIDIA сама будет управлять спросом и торговаться по поводу цен. При этом отказ от подобных условий практически невозможен, учитывая доминирующее положение компании на рынке ИИ-инфраструктуры. В результате снижается самостоятельность как ODM, так и облачных провайдеров. Из-за этого же, как считается, во многом замедлено и развитие погружных СЖО — NVIDIA попросту не готова сертифицировать такие системы. Эксперты всё чаще говорят о росте напряжённости, которая со временем приведёт к открытому конфликту. Новый подход NVIDIA, вероятно, повлияет на цепочку поставок двумя путями. Во-первых, контракты на сборку консолидируются вокруг небольшого пула производителей, а выпуск водоблоков сконцентрируется в руках трёх-четырёх компаний. Облачным провайдерам, вероятно, тоже придётся идти на поводу NVIDIA при размещении крупных оптовых заказов, хотя они как раз предпочитают создавать собственные СЖО, что в целом тоже негативно влияет на некоторых игроков. Во-вторых, рост объёмов поставок не гарантирует роста рентабельности. Поставщики предполагают, что цена за единицу продукции в рамках попыток NVIDIA сконцентрировать производителей уменьшится, а более жёсткий контроль над проектированием снизит и стратегическую ценность индивидуальных разработок. Компании уже шутят, что статус крупнейшего поставщика NVIDIA может буквально навредить, поскольку по мере роста объёмов обычно растут и дисконты. Ожидается, что стойки поколения Vera Rubin обеспечат значительно более высокую плотность вычислений, чем уже доступные платформы GB200 и GB300, а для традиционного воздушного охлаждения места уже не останется. В отрасли ожидают, что Vera Rubin представят во II половине 2026 года. Платформа представляет собой важный шаг к созданию ИИ-инфраструктуры с полностью жидкостным охлаждением. Новейшая стратегия NVIDIA, касающаяся цепочек поставок, свидетельствует о решимости компании усилить прямой контроль качества, поставок и их стоимости по мере роста плотности мощности. В JPMorgan утверждают, что NVIDIA станет напрямую поставлять системы L10. Компания унифицирует конструкцию и заставит подрядчиков строго придерживаться предлагаемых чертежей и дизайна без использования проприетарных архитектур, созданных самими подрядчиками. Для NVIDIA это выгодно, поскольку позволяет значительно ускорить отгрузки и кратно сократить сроки развёртывания ИИ-инфраструктур (до 3 мес. вместо 9 мес.), опираясь на единые стандарты — от одного узла до целой ИИ-фабрики. При этом AWS, вероятно, придётся тяжелее всех, поскольку она пытается снизить зависимость от NVIDIA и в то же время не является активным сторонником OCP. |
|
