Материалы по тегу: ии
|
14.01.2026 [13:05], Руслан Авдеев
Дональд Трамп: американцы не должны оплачивать модернизацию энергетической инфраструктуры для ИИ ЦОДДональд Трамп (Donald Trump) заявил, что техногиганты должны сами оплачивать адаптацию энергетической инфраструктуры для новых дата-центров — вместо того, чтобы перекладывать эту ношу на обычных людей, сообщает The Register. Соответствующее заявление он опубликовал в собственной социальной сети Truth Social, подчеркнув, что граждане США не должны оплачивать повышенные счета за электричество из-за дата-центров. Администрация президента работает с ключевыми технологическими компаниями для получения от них соответствующих обязательств. Трамп сообщил, что первой в списке станет Microsoft, которая уже сотрудничает с властями по данному вопросу. Это новая задача для президента, в прошлом году пообещавшего представителям технологической олигархии, что та получит столько энергии, сколько необходимо для сохранения лидерства США в сфере ИИ. Microsoft уже ответила на инициативу Трампа, представив т.н. проект Community-First AI Infrastructure. В компании утверждают, что намерены быть «хорошим соседом» в тех сообществах, где они строят ЦОД, владеют и управляют ими. Президент компании Брэд Смит (Brad Smith) заявил, что технологические компании имеют уникальную возможность обеспечить преимущества, которые ожидаются от внедрения ИИ, но в то же время несут ответственность за новые вызовы, которые это внедрение создаёт. В июне 2025 года один из представителей Microsoft жаловался, что есть сообщества, не желающие присутствия компании, а также на «отсутствие понимания» того, почему дата-центры необходимы, со стороны широкой общественности. Инициатива Community-First AI Infrastructure Initiative предоставляет рамочную программу для того, чтобы справляться с подобными вызовами, и связана с пятью обязательствами Microsoft:
Утверждается, что Microsoft будет запрашивать у коммунальных компаний цены на электричество, достаточно высокие, чтобы покрывать его стоимость для ЦОД компании, включая стоимость расширения инфраструктуры электроснабжения. Впрочем, Смит также отметил, что ИИ принесёт столько благ, что общество само должно помочь оплатить дополнительное электричество, в котором нуждается страна. Дополнительно Microsoft вновь подтвердила, что сохраняет и приверженность снижению объёмов используемой воды для ЦОД, к 2030 году интенсивность использования воды дата-центрами должна снизиться на 40 %. Впрочем, как сообщалось в 2023 году, год к году использование воды компанией только выросло на 34 % до 6,4 млн м3. Также Microsoft обязуется создавать новые рабочие места, хотя противники дата-центров отмечают, что тысячи человек нужны только на время строительства ЦОД, а в ходе их эксплуатации может хватить и 50. Впрочем, несмотря на весь оптимизм, Смит пришёл к выводу, что расширение инфраструктуры всегда сопряжено с трудностями, финансовыми затратами и неизбежно порождает опасения и споры. В Microsoft считают, что частные компании могли бы помочь, поскольку техногигантам не удастся преодолеть неизбежные вызовы в одиночку. Хотя многие эксперты опасаются пузыря на рынке ИИ, способного вызвать непредсказуемые последствия для всех сфер жизни, JPMorgan прогнозирует, что затраты на дата-центры и ИИ-инфраструктуру составят $5 трлн, а спрос будет «астрономический». Тем временем, как сообщалось в декабре 2025 года, в США стартовало расследование, касающееся влияния ИИ ЦОД на рост тарифов на электроэнергию.
14.01.2026 [09:45], Владимир Мироненко
Самая загадочная сделка 2025 года: зачем NVIDIA потратила $20 млрд на Groq?Сделка NVIDIA с ИИ-стартапом Groq, фактически означающая его поглощение, вызвала вопросы по поводу целей, которые преследует лидер ИИ-рынка. Для того, чтобы избежать волокиты с одобрением сделки регулирующими органами и антимонопольных расследований, NVIDIA провела её под видом приобретения неисключительной лицензии на технологии Groq. В результате сделки ключевые кадры Groq перешли в NVIDIA, а остатки команды во главе с финансовым директором продолжат управлять инфраструктурой GroqCloud и вряд ли смогут сохранить былую конкурентоспособность стартапа. Похожую сделку NVIDIA провела немногим ранее, фактически поглотив стартап Enfabrica, занимавшийся разработкой интерконнекта. В случае с Enfabrica, по слухам, сумма сделки составила $900 млн. Это большая сумма для стартапа, находящегося на ранней стадии, но вполне обоснованная в нынешних условиях, пишет EE Times. Groq — более крупный стартап, но и стоимость сделки гораздо выше — $20 млрд при последней оценке стартапа на уровне $6,9 млрд. Если в отношении Enfabrica предполагалось, что сделка была связана, хотя бы частично, с наймом персонала, то для Groq такая большая сумма вряд ли выглядит оправданной, если речь идёт только о привлечении квалифицированных кадров. Можно допустить, что NVIDIA планирует выпускать чипы Groq. Их упомянул в электронном письме сотрудникам гендиректор NVIDIA Дженсен Хуанг: «Мы планируем интегрировать процессоры Groq с низкой задержкой в архитектуру NVIDIA AI Factory, расширив платформу для обслуживания ещё более широкого спектра задач ИИ-инференса и рабочих нагрузок в реальном времени». Вместе с тем в ходе CES 2026 Хуанг заявил, что технология Groq не станет частью основного портфолио NVIDIA для ЦОД. «[Groq] — это совсем, совсем другое, и я не ожидаю, что что-либо заменит то, что мы делаем с Vera Rubin и нашим следующим поколением, — сказал Хуанг. — Однако мы могли бы добавить его технологию таким образом, чтобы что-то постепенно улучшить, чего мир ещё не смог сделать». Судя по фразе «могли бы», NVIDIA пока окончательно не определилась с тем, что будет делать с активами Groq. Технология Groq позволит решать задачи, которые недоступны для Vera Rubin, в частности, сверхбыстрый инференс в реальном времени, пишет EE Times. Можно предположить, что NVIDIA будет производить и развёртывать чипы Groq как отдельное решение в ЦОД. Хотя Хуанг и сказал об интеграции чипов Groq с архитектурой NVIDIA AI Factory, это всё ещё кажется несколько надуманным, так как означает признание NVIDIA в том, что её GPU не вполне подходят для некоторых рабочих нагрузок. Однако Дженсен Хуанг в очередной раз подчеркнул на CES 2026, что гибкости GPU вполне хватит для любых нагрузок. Впрочем, анонс соускорителей Rubin CPX говорит скорее об обратном. У Groq есть собственный программный стек, но насколько он хорош, сказать трудно. Для перезапуска технологий Groq в качестве продукта NVIDIA потребуется немало работы над ПО, а полноценная интеграция в программную экосистему может оказаться очень сложной. Более реалистичным вариантом может быть использование чиплета Groq вместе с большим чиплетом GPU для обработки определённых нагрузок, но и в этом случае ПО станет камнем преткновения, поскольку аппаратная часть принципиально слабо совместима с CUDA. Возникает вопрос: «Что же есть у Groq, чего нет у NVIDIA?». Одним из ответов может быть детерминизм — концепция, лежащая в основе архитектуры LPU Groq, которую компания пыталась продвинуть в автомобильной промышленности в 2020 году. Детерминизм имеет существенные преимущества для приложений, требующих функциональной безопасности, включая робототехнику — Хуанг в письме, упомянутом выше, говорит о «приложениях реального времени». Но для этого NVIDIA придется изменить свою риторику, признав, что для периферийных вычислений её ускорители подходят не всегда. В любом случае, у NVIDIA имеются огромные ресурсы и команда квалифицированных специалистов. Если бы она захотела создать ИИ-ускоритель, ориентированный на работу со SRAM, а не HBM, это обошлось бы гораздо дешевле уплаченных за Groq $20 млрд. Кроме того, утверждает EE Times, она могла бы за существенно меньшую сумму пробрести d-Matrix или даже SambaNova, которая готова продаться Intel всего за $1,6 млрд. Как полагают аналитики EE Times, помимо лицензирования технологии и найма специалистов Groq, в принятии решения купить стартап также сыграли роль коммерческие факторы. Groq имеет обширные партнёрские отношения с крупными компаниями стран Персидского залива. У стартапа также есть соглашения о суверенном ИИ и в других странах, что могло показаться привлекательным для NVIDIA. Тем не менее, одним из главных аргументов в пользу покупки Groq до сих пор было то, что это вполне жизнеспособная и недорогая альтернатива NVIDIA для построения суверенной ИИ-инфраструктуры. То есть покупку Groq можно также объяснить желанием помешать одному из клиентов-гиперскейлеров купить Groq, будь то из-за аппаратной интеллектуальной собственности или уже развёрнутой инфраструктуры. Это может быть Meta✴, Microsoft или даже OpenAI, чьи планы по созданию собственного ИИ-оборудования всё ещё находятся на стадии подготовки или пока имеют умеренный успех, тогда как Google уже готов отдать «на сторону» свои ускорители TPU, а AWS со своими Trainium всё-таки готова сотрудничать с NVIDIA по аппаратной части. В свою очередь, аналитики ресурса The Register объясняют покупку Groq за столь крупную сумму интересом NVIDIA к «конвейерной архитектуре» (dataflow) стартапа, которая, по сути, создана специально для ускорения вычислений линейной алгебры, выполняемых в ходе инференса. Стоит отметить, что архитектуры с управляемым потоком данных не ограничиваются проектами, ориентированными на SRAM. Например, NextSilicon использует HBM. Groq выбрал SRAM только потому, что это упростило задачу, но нет никаких причин, по которым NVIDIA не могла бы создать dataflow-ускоритель на основе IP-блоков Groq, используя SRAM, HBM или GDDR, пишет The Register. Правильно реализовать такую архитектуру очень сложно, но Groq удалось заставить её работать надлежащим образом, по крайней мере, для инференса, утверждает The Register. Таким образом, Groq даст NVIDIA оптимизированную для инференса вычислительную архитектуру, чего ей так сильно не хватало, полагают аналитики ресурса. Именно этого и не хватает NVIDIA, поскольку у неё фактически нет выделенных чипов для этой задачи. Ситуация изменится с запуском NVIDIA Rubin в 2026 году и их «напарников» Rubin CPX. При этом ускорители Groq LPU в силу малого объёма SRAM для обработки современных LLM необходимо объединять в кластеры из десятков и сотен чипов. Это верно и для других ускорителей примерно того же типа, включая Cerebras. Вместе с тем LPU, по мнению The Register, теоретически могут пригодиться для т.н. спекулятивного декодирования, когда малая модель, не больше нескольких миллиардов параметров, используется для предсказания ответов большой модели. Если малая модель правильно «угадывает» их, общая производительность инференса может вырасти в два-три раза. Стоит ли такая опция $20 млрд, вопрос отдельный, но Хуанг, по-видимому, играет вдолгую.
14.01.2026 [01:29], Владимир Мироненко
Безоблачно: США запретили Китаю удалённый доступ к передовым ИИ-ускорителямПалата представителей США приняла подавляющим большинством «Закон о безопасности удалённого доступа» (Remote Access Security Act). Как сообщается на сайте Специального комитета Палаты Представителей США по стратегическому соперничеству между Соединёнными Штатами и Компартией Китая (CCP), этот закон расширяет действие «Закона о реформе экспортного контроля», позволяя федеральным властям «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Проще говоря, теперь китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР. Хотя экспорт ускорителей NVIDIA H200 теперь разрешён, поставка в Китай более мощных чипы на базе архитектуры Blackwell по-прежнему запрещена, как и ускорителей с новой архитектурой Vera Rubin. Новый закон призван перекрыть пробелы в законодательстве США, которыми с успехом пользуются китайские компании, получая доступ к находящимся под санкциями ИИ-ускорителям, покупая или арендуя их для использования на территории США. О таких обходных путях стало известно в 2024 году, когда выяснилось, что ByteDance, китайский владелец TikTok, арендовал передовые чипы NVIDIA у Oracle, пишет Data Center Dynamics. Как передаёт The Register, китайские компании обходят экспортные ограничения на высокопроизводительные ускорители NVIDIA и другие чипы, получая к ним доступ через такие платформы, как AWS и Azure, по крайней мере, с 2023 года. The Register также ранее сообщал, что китайские облачные провайдеры, такие как Alibaba и Tencent, могут предоставлять доступ к находящимся под экспортными ограничениями GPU клиентам в Китае, арендуя облачное оборудование, размещённое за пределами страны. В свою очередь, Microsoft и AWS предлагают в Китае через местных партнёров облачные услуги, в целом аналогичные тем, что доступны в других странах. «Амбиции КПК в области ИИ подпитываются доступом к американским чипам, размещённым в ЦОД за пределами Китая, — заявил председатель Специального комитета по Китаю, один из соавторов законопроекта. — Этот законопроект переводит наши законы в цифровую эпоху и ясно даёт понять, что облачные вычисления подпадают под действие американского законодательства об экспортном контроле, так же как и физические чипы. Устранение этих лазеек укрепит национальную безопасность США и защитит американские инновации». Новый закон теоретически может целиком перекрыть бизнес некоторых азиатских компаний. После появления сообщения о том, что NVIDIA потребует от китайских клиентов, приобретающих ускорители H200, полной предоплаты, чипмейкер выступил с опровержением, заявив агентству Reuters, которое первым сообщило об этом что «никогда не будет требовать от клиентов оплаты за продукцию, которую они не получают». В начале декабря администрация Трампа разрешила NVIDIA продавать H200 «одобренным клиентам» в Китае и других странах при условии выплаты 25-% пошлины. В свою очередь, китайское правительство попросило технологические компании страны приостановить оформление заказов на ускорители, пока регулирующие органы не определятся с соотношением приобретаемых чипов H200 и отечественных чипов «в нагрузку» к ним.
13.01.2026 [15:37], Руслан Авдеев
Стартап DayOne Data Centers привлёк более $2 млрд в раунде финансирования серии CОснованная в 2022 году компания DayOne Data Centers (ранее GDS International) сингапурского происхождения привлекла более $2 млрд в ходе раунда финансирования серии C для своих проектов дата-центров, сообщает Silicon Angle. Раунд возглавила компания Coatue, приняли участие и некоторые другие институциональные инвесторы, включая индонезийский фонд национального благосостояния. Ранее сообщалось, что DayOne получила $3,5 млрд на развитие ЦОД в малазийском Джохоре. Флагманский проект компании в финском городе Лахти (Lahti) площадью около 10 га обойдётся в €1,2 млрд, ввод в эксплуатацию запланирован на начало 2027 года. При полной загрузке речь будет идти о 120 МВт вычислительной инфраструктуры. Дата-центр будет по возможности использовать фрикулинг для экономии электроэнергии и воды. Объект оптимизирован для стоек с СЖО, оснащённых чипами NVIDIA. В Сингапуре компания строит 20-МВт объект, оснащённый твёрдооксидными топливными элементами, работающими на водороде.
Источник изображения: DayOne DayOne применяет предварительно собранные на заводе модульные конструкции. Компания заявляет, что такой подход ускоряет процесс строительства и снижает его стоимость. Возможностей компании хватит для выпуска до 2,5 тыс. модулей в год общей IT-мощностью 500 МВт. В своих ЦОД компания использует стек кастомного ПО для управления стойками с ИИ-ускорителями. Привлечённые средства используют для финансирования строительных проектов в Финляндии, Сингапуре, Японии и на некоторых других рынках. Компания сообщила, что уже зарезервировала мощности под клиентские заявки приблизительно на 1 ГВт. DayOne — как минимум третий оператор ЦОД, закрывший крупный раунд финансирования в последние месяцы. ИИ-облако Lambda привлекло более $1,5 млрд в ноябре 2025 года (перед выходом на IPO она хочет привлечь ещё $350 млн). Nscale к началу октабря также получила более $1,5 млрд в двух раундах инвестиций.
13.01.2026 [14:29], Руслан Авдеев
Поставки меди достигнут максимума на пике спроса — но их может не хватить из-за бума ИИЭксперты IT-отрасли обеспокоены ситуацией с поставками меди. Согласно результатам недавнего исследования, спрос, вероятно, превысит предложение в течении десятилетия. Это угрожает ограничить мировое технологическое развитие, сообщает The Register. Электрификация промышленности, транспорта и подогреваемый ИИ бум в сфере IT-инфраструктуры сказывается на спросе на медь, используемой буквально повсеместно, от питающих кабелей до интерконнектов и плат. Исследование S&P Global позволяет предположить, что мировое производство этого металла достигнет пика в 2030 году, составив 33 млн т, в то время как спрос продолжит расти и к 2040 году достигнет 42 млн т — это на 50 % больше, чем сегодня. В результате возникнет дефицит в объёме порядка 10 млн т без дальнейшего существенного увеличения добычи, что может привести к стремительному росту цен на медь, из-за которого производство электротоваров и IT-оборудования значительно подорожает. Цена металла по данным некоторых источников уже достигла рекорда в конце 2025 года. Хотя S&P назвала доклад «Медь в эпоху ИИ» (Copper in the Age of AI), бум ИИ ЦОД не является определяющим фактором при расчётах. На первый план выходит «домашняя» электрификация по всему миру, включая развивающиеся страны. Важное влияние оказывает и развитие рынка электромобилей, солнечной и ветряной генерации, а также расширение ЛЭП. И хотя мировой спрос на медь растёт, поставки в настоящее время падают, поскольку имеющиеся ресурсы истощаются.
Источник изображения: AnimGraph Lab/unsplash.com Первичные поставки металла горнодобывающим сектором переживают не лучшие времена, поскольку отрасль столкнулась с недостатком руд с высоким содержанием меди, ростом затрат и усложнением самой добычи. При этом ввод в эксплуатацию новых месторождений в среднем требует 17 лет. По данным доклада PricewaterhouseCoopers (PwC), добыче меди мешает и изменение климата — отрасль требует стабильных источников воды, хотя месторождения нередко находятся в засушливых регионах. Поставки за счёт переработки вторичного сырья, по данным S&P, не могут в полной мере компенсировать дефицит. Переход телеком-компаний на оптоволоконные кабели может высвободить до 800 тыс. т меди из кабелей, но аналитики уверены, что на переработанную медь к 2040 году придётся лишь треть от всех поставок металла. Его будет недоставать даже с учётом «агрессивного» совершенствования технологий сбора. Чтобы удовлетворить спрос, потребуются немалые усилия и инновации. S&P Global призывает сократить время выдачи разрешений, чтобы уменьшить сроки разработки месторождений, обеспечить стабильные условия инвестиций, внедрение новых технологий и расширение перерабатывающих мощностей вне уже существующих центров. На долю Китай приходится 40–50 % мировых мощностей по выплавке и переработке меди, поэтому цепочке поставок могут угрожать геополитические потрясения, особенно на фоне опасений, связанных с доминированием Китая в сфере редкоземельных металлов и не самых передовых, но весьма востребованных полупроводников.
Источник изображения: omid roshan/unsplash.com Так или иначе, первичное производство остаётся единственным настоящим решением для компенсации дефицита, но наращивание добычи и выплавки потребует значительных усилий и инвестиций. Как заявляют в S&P, будущие поставки меди зависят не только от геологов, инженеров, логистики и инвестиций, но и менеджмента и политиков. Отмечается, что выплавка и переработка является критически важным этапом в цепочке поставок, особенно если добывающие мощности сконцентрированы в ограниченном числе стран. В докладе подчёркивается, что для создания более надёжной системы поставок меди необходимо многостороннее сотрудничество и большая региональная диверсификация. При этом в сложившихся геополитических условиях само многостороннее сотрудничество надладить не всегда просто. Ещё в 2024 году сообщалось, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и чистой меди. В августе 2025 года эксперты BloombergNEF (BNEF) пришли к выводу, что рост дата-центров усугубит нехватку и без того дефицитного металла.
13.01.2026 [14:14], Руслан Авдеев
Meta✴ создаёт подразделение Meta✴ Compute для строительства ИИ ЦОД на десятки гигаваттКомпания Meta✴ Platforms запускает новое подразделение Meta✴ Compute, задачей которого станет надзор за проектами строительства ИИ ЦОД, активно реализуемыми IT-гигантом в последнее время. Meta✴ имеет масштабные планы расширения инфраструктуры, сообщает Silicon Angle. Курировать соответствующие проекты будет глава глобальных инфраструктурных проектов компании Сантош Джанардхан (Santosh Janardhan) совместно с одним из основателем Safe Superintelligence Дэниелем Гроссом (Daniel Gross). По словам главы Meta✴ Марка Цукерберга (Mark Zuckerberg), компания намерена ввести в эксплуатацию новую инфраструктуру ЦОД, потребляющую десятки гигаватт ещё в этом десятилетии и сотни гигаватт — в долгосрочной перспективе. Главной целью Meta✴ Compute является систематическое расширение ИИ-инфраструктуры в масштабе, выходящем далеко за пределы традиционного масштабирования ЦОД. Хотя Meta✴ уже управляет глобальной сетью гигантских дата-центров, речь идёт о беспрецедентных нововведениях.
Источник изображения: Adeolu Eletu/unspalsh.com ИИ-модели потребуют десятки гигаватт вычислительных мощностей, поэтому компания нуждается в покупке всё больших объёмов передового оборудования и строительства сотен зданий для его размещения. Создавая специальную организацию для решения соответствующих задач, компания рассчитывает заранее обеспечить доступ к земле, оборудованию и энергии, а не пытаться решать проблемы «на лету». Джанардхан сконцентрируется на технических аспектах строек Meta✴, включая стратегию развития, архитектуру систем компании, создание собственных чипов, ПО и инструментов разработки. Он же будет отвечать за повседневную работу ЦОД. Гросс возглавит новую группу, отвечающую за долгосрочное планирование создания новых мощностей и выстраивание цепочек поставок для обеспечения компании чипами, серверами и сетевым оборудованием для оснащения новых дата-центров. В частности, в сферу его ответственности входит упреждающее определение будущих вычислительных потребностей Meta✴, управление стратегическими отношениями с поставщиками, разработка и планирование новых бизнес-моделей, поддержка экспансии компании на многогигаваттном уровне и др. По словам Цукерберга, новая инициатива также позволит централизовать управление технологическим стеком компании — от программного обеспечения и архитектуры систем до чипов, сетей и ЦОД, что обеспечит максимально эффективное принятие любых инвестиционных решений. Кроме того, Meta✴ сможет отделить тактические задачи от долгосрочного стратегического планирования мощностей и создания цепочек поставок. Джанардхан и Гросс будут совместно работать с Диной Пауэлл МакКормик (Dina Powell McCormick) — новым президентом и вице-председателем компании. Одна из её задач — обеспечить соответствие многомиллиардных инвестиций в инфраструктуру стратегическим целям и добиться ощутимых экономических выгод в регионах присутствия. Также новый топ-менеджер отвечает за укрепление новых стратегических капитальных альянсов для усиления долгосрочной инвестиционной способности Meta✴. Создание Meta✴ Compute также может улучшить контроль отчётности в связи с её масштабными строительными проектами. В финансовом 2025 году капитальные расходы компании составили $72 млрд, большая часть средств ушла на ИИ ЦОД. Эти инвестиции ещё должны окупиться, поскольку самая передовая ИИ-модель компании — Llama 4 получила весьма сдержанные отклики. Хотя Meta✴ во многом сделала себе имя на рынке ИИ благодаря open source моделям, Llama 4 считается многими экспертами менее «сообразительной», чем ведущие базовые модели компаний уровня Google и OpenAI.
12.01.2026 [14:41], Сергей Карасёв
ASRock Rack показала ИИ-сервер на базе NVIDIA HGX B300 с СЖО ZutaCore HyperCoolКомпания ASRock Rack на выставке CES 2026 продемонстрировала ИИ-сервер 4U16X-GNR2/ZC, первая информация о котором была раскрыта в октябре прошлого года. Новинка создана в партнёрстве с разработчиком систем жидкостного охлаждения ZutaCore. Устройство выполнено в форм-факторе 4U. Возможна установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP). Доступны 32 слота для модулей оперативной памяти DDR5, три разъёма PCIe 5.0 x16 для карт FHHL и два сетевых порта 1GbE на базе контроллера Intel I350-AM2. Задействована аппаратная платформа NVIDIA HGX B300. Для отвода тепла используется система прямого жидкостного охлаждения ZutaCore HyperCool. Это двухфазное решение основано на применении специальной диэлектрической жидкости, которая не вызывает коррозии. Утверждается, что конструкция HyperCool безопасна для IT-оборудования и гарантирует сохранение работоспособности даже в случае утечки. СЖО поставляется в полностью собранном виде, что сокращает время монтажа в стойку. Сервер 4U16X-GNR2/ZC оборудован 12 фронтальными отсеками для SFF-накопителей с интерфейсом PCIe 5.0 x4 (NVMe); допускается горячая замена. Кроме того, есть внутренний разъём для одного SSD типоразмера М.2 (PCIe 5.0 x2). За питание отвечают десять блоков мощностью 3000 Вт с сертификатом 80 Plus Titanium. Габариты машины составляют 900 × 448 × 175 мм. Отмечается, что в стандартной стойке 42U могут быть размещены до восьми подобных серверов, что обеспечивает высокую плотность вычислительной мощности для наиболее ресурсоёмких нагрузок ИИ.
12.01.2026 [13:53], Руслан Авдеев
xAI представила тарифы Grok Business и Grok Enterprise для бизнес-пользователейКомпания xAI официально начала освоение рынка ИИ-сервисов для бизнес-пользователей. В самом конце декабря она представила два новых тарифа: Grok Business и Grok Enterprise. Предполагается, что они должны способствовать внедрению ИИ-моделей в компаниях для решения повседневных задач, причём со встроенными возможностями контроля настроек безопасности, конфиденциальности и др., сообщает Channel insider. Таким образом xAI выходит на высококонкурентный рынок корпоративных ИИ-инструментов. Аналогичные предложения уже имеются у OpenAI, Anthropic, Google и др. Для xAI это также означает переход от сервисов для индивидуальных экспериментов к предоставлению возможностей для выполнения совместных задач. Grok Business рассчитан на команды небольших и средних размеров и стоит $30/мес. за каждого пользователя. Предлагаются встроенные инструменты управления командами и организации общения, централизация платежей и контроль использования ПО. Другими словами, команды могут совместно работать в среде Grok, делиться результатами, а также подключать популярные инструменты вроде Google Drive, чтобы ИИ мог работать с информацией, которая уже использовалась. Grok Enterprise имееть расширенную функциональность для более крупных организаций. Цена не разглашается, но основной акцент будет сделан на ужесточении контроля и надзора. В частности, речь идёт о поддержке единой авторизации в масштабах всей компании, автоматизированном управлении профилями пользователей и функциями безопасности, разработанными для более крупных и сложных программных сред. В xAI утверждают, что оба плана построены с учётом необходимости обеспечивать корпоративную безопасность и конфиденциальность. Как подчёркивают в компании, корпоративная защита и конфиденциальность встроены в системы с самого начала — Grok не будет обучаться на предоставляемых клиентками данных.
Источник изображения: xAI Одна из наиболее примечательных функций — способность Grok работать с большими массивами документов. Grok обеспечивает агентный поиск с помощью Collections API. Это позволяет ИИ-модели использовать крупные хранилища документов в качестве первоочередных источников информации. Это может быть полезным, если необходим, например, анализ юридических документов или построение финансовых моделей. В ответы могут включаться цитаты, напрямую ведущие к исходным документам, с возможностью предварительного просмотра и выделения контекста. Для организаций со специальными требованиями к обеспечению безопасности материалов xAI предлагает вариант Enterprise Vault. Это даёт компаниям больше контроля над тем, как обрабатываются их данные, с предоставлением сопутствующей инфраструктуры, дополнительных уровней шифрования, которыми управляет сам пользователь, а не xAI. xAI утверждает, что данные зашифрованы как при передаче, так и при хранении. Тариф Enterprise также обеспечивает соответствие строгим требованиям: обеспечено соответствие инфраструктуры и процессов стандарту безопасности SOC 2 и нормативным актам (включая GDPR и CCPA). Также в его рамках предоставляется доступ к наиболее передовыми ИИ-моделям компании Grok 3, Grok 4 и Grok 4 Heavy. В то же время xAI продолжает наращивать инфраструктуру, необходимую для поддержки соответствующих проектов. Так, речь идёт о строительстве третьего дата-центра в штате Миссисипи (США). На днях появилась информация, что она привлекла $20 млрд на развитие бизнеса.
12.01.2026 [12:59], Сергей Карасёв
Sapphire представила Mini-ITX-плату EDGE+VPR-7P132 с чипом AMD Ryzen AI Embedded P132 и FPGA Versal AI Edge Gen2 VE3558Компания Sapphire Technology анонсировала плату EDGE+VPR-7P132 на платформе AMD Embedded+, предназначенную для построения различных периферийных устройств с ИИ-функциями. В новинке соседствуют процессор AMD Ryzen AI Embedded и адаптивная «система на чипе» AMD Versal AI Edge Gen 2. Решение выполнено в форм-факторе Mini-ITX с размерами 170 × 170 мм. Задействовано FPGA-решение Versal AI Edge Gen 2 VE3558 с восемью ядрами Arm Cortex-A78AE, десятью ядрами реального времени Arm Cortex-R52, графическим блоком Arm Mali-G78AE. Программируемая часть содержит 492 тыс. логических ячеек и 225 тыс. LUT. Чип обеспечивает ИИ-производительность до 123 TOPS на операциях INT8. Есть 16 Гбайт памяти LPDDR5-4266, флеш-модуль UFS 3.1 вместимостью 256 Гбайт, интерфейс Mini DisplayPort, а также модуль TPM 2.0 (Infineon OPTIGA TPM SLM 9672) и 250-контактный коннектор для плат расширения. CPU-секция получила процессор Ryzen AI Embedded P132 (V4526iX), который объединяет шесть ядер с архитектурой Zen 5 (12 потоков) с тактовой частотой до 4,5 ГГц, графический ускоритель AMD Radeon (RDNA 3.5) и нейропроцессорный блок с ИИ-производительностью до 50 TOPS в режиме INT8. Чип функционирует в тандеме с 64 Гбайт памяти LPDDR5-4266 (впаяна на плату). Предусмотрены коннектор M.2 Key M 2280 для SSD (PCIe 4.0 x4), слот M.2 Key E 2230 (PCIe 4.0 x1, I2S, USB 2.0) для адаптера Wi-Fi/Bluetooth и разъём OCulink x4. Плата получила два сетевых порта 10GbE, по два порта USB 3.2 Gen 2 Type-A и USB 2.0 Type-A, коннектор USB4 Type-C, четыре интерфейса Mini DisplayPort. Через внутренние разъёмы можно использовать аудиоинтерфейсы. Питание (12 В) подаётся через DC-коннектор. Диапазон рабочих температур простирается от 0 до +60 °C. Заявлена совместимость с RHEL/CentOS 7.9, RHEL 8.2-8.6 и Ubuntu 22.04. В качестве платы расширения упомянут модуль с поддержкой 12 камер для автомобильных систем и робототехники.
12.01.2026 [09:54], Владимир Мироненко
От NVMe к GPU: NVIDIA представила платформу хранения контекста инференса ICMSPВместе с официальным анонсом ИИ-платформы следующего поколения Rubin компания NVIDIA также представила платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform (ICMSP), позволяющую решить проблемы хранения KV-кеша, который становится всё крупнее по мере роста LLM и решаемых задач. При выполнении инференса контекст растёт по мере генерации новых токенов, часто превышая доступную память ускорителя. В этом случае старые записи вытесняются из памяти, сначала в системную память, а потом на диск, чтобы не пересчитывать всё заново, когда они снова понадобятся. Проблемы существенно усугубляются при работе с агентным ИИ и обработке рабочих нагрузок с большим контекстом. Агентный ИИ приводит к появлению контекстных окон в миллионы токенов, а объём моделей может составлять уже триллионы параметров. В настоящее время эти системы полагаются на долговременную память для хранения контекста, позволяя агентам опираться на предыдущие рассуждения и расширять их на протяжении многих шагов, а не начинать с нуля при каждом запросе. По мере увеличения контекстных окон растут требования к ёмкости KV-кеша, делая эффективное хранение и повторное использование данных, в том числе совместное использование различными сервисами инференса, крайне важными для повышения производительности системы. Контекст инференса является производным и пересчитываемым, что требует архитектуры хранения, которая отдаёт приоритет энергоэффективности и экономичности, а также скорости и масштабируемости, а не традиционной надёжности хранения данных. NVIDIA отметила, что ИИ-фабрикам необходим дополнительный, специально разработанный уровень контекста, который рассматривает KV-кеш как собственный класс данных, предназначенный для ИИ, а не принудительно помещает его в дефицитную память HBM или в хранилище общего назначения. Платформа ICMSP использует DPU BlueField-4 для создания специализированного уровня памяти, чтобы преодолеть разрыв между высокоскоростной памятью GPU и масштабируемым общим хранилищем. Хранилище KV-кеша на основе NVMe должно эффективно обслуживать ускорители, узлы, стойки и кластеры целиком, говорит компания. Платформа ICMSP создаёт новый уровень (G3.5 на схеме выше) — флеш-память, подключённая через Ethernet и оптимизированная специально для KV-кеша. Этот уровень выступает в качестве долговременной агентной памяти на уровне ИИ-инфраструктуры, достаточно большой для одновременного хранения общего, развивающегося контекста многих агентов, но при этом достаточно близко расположенной для частой работы с памятью ускорителей и хостов. BlueField-4 отвечает за аппаратное ускорение размещения кеша и устранение накладных расходов на подготовку и перемещение данных и обеспечение безопасного, изолированного доступа к ним узлов с GPU, снижая зависимость от CPU хоста и минимизируя сериализацию и работу с системной памятью хоста. Программные продукты, такие как фреймворк DOCA, механизм разгрузки KV-кеша Dynamo и входящее в комплект ПО NIXL (Nvidia Inference Transfer Library), обеспечивают интеллектуальное, ускоренное совместное использование данных KV-кеша между ИИ-узлами. А Spectrum-X Ethernet обеспечивает оптимизированный RDMA-интерконнект, который связывает ICMS и узлы GPU. KV-кеш принципиально отличается от корпоративных данных: он является временным, производным и может быть пересчитан в случае потери. В качестве контекста инференса он не требует надёжности, избыточности или обширных механизмов защиты данных, разработанных для долговременных записей. Выделяя KV-кеш как отдельный, изначально предназначенный для ИИ класс данных, ICMS устраняет избыточные накладные расходы, обеспечивая повышение энергоэффективности до пяти раз по сравнению с универсальными подходами к хранению данных, сообщила NVIDIA. А своевременная подготовка и отдача данных более полно нагружает ускорители, что позволяет увеличить темп генерации токенов до пяти раз. Как сообщила NVIDIA, первоначальный список её партнёров, готовых обеспечить поддержку ICMSP с BlueField-4, который будет доступен во II половине 2026 года, включает AIC, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, Nutanix, Pure Storage, Supermicro, VAST Data и WEKA. |
|

