Материалы по тегу: охлаждение
|
25.02.2026 [11:55], Сергей Карасёв
Akash Systems начала поставки первых в мире GPU-серверов с алмазным охлаждениемКомпания Akash Systems, базирующаяся в Сан-Франциско (Калифорния, США), объявила о начале поставок первых в мире ИИ-серверов, оснащённых системой алмазного охлаждения Diamond Cooling. Заказчиком выступил NxtGen AI PVT Ltd — крупнейший в Индии государственный облачный провайдер. Технология Diamond Cooling основана на применении синтетических алмазов. Этот материал обладает самой высокой теплопроводностью из всех известных соединений. Akash Systems подчёркивает, что синтетические алмазы способны отводить тепло от чипов в пять раз эффективнее по сравнению с медью, что открывает качественно новые возможности в плане охлаждения современного оборудования высокой плотности для дата-центров, ориентированных на задачи ИИ и НРС. Akash Systems поставляет серверы на базе NVIDIA H200, для охлаждения которых применяется система Diamond Cooling. В отличие от стандартных ЦОД, оборудование в которых функционирует при температурах от +24 до +29 °C, серверы с технологией Diamond Cooled способны обеспечивать максимальную производительность при температуре окружающей среды до +50 °C. Благодаря этому снижаются общие требования к системам охлаждения дата-центров, что позволяет уменьшить эксплуатационные расходы. Среди одного из ключевых преимуществ Diamond Cooling разработчики называют устранение теплового троттлинга: это обеспечивает наилучшее быстродействие при выполнении ресурсоёмких задач, таких как обучение больших языковых моделей (LLM) и инференс. Кроме того, достигается повышение производительности (Флопс/Вт) до 15 % на каждый сервер. Плюс к этому существенно сокращается общее энергопотребление ЦОД, поскольку отпадает необходимость в интенсивном охлаждении. «Система Diamond Cooling решает две самые сложные проблемы в гонке ИИ — повышение энергоэффективности и сокращение капиталовложений. В ситуации, когда увеличение вычислительной мощности на 1–2 % имеет большое значение, повышение на 15 % фактически меняет правила игры», — говорит доктор Феликс Эджекам (Felix Ejeckam), соучредитель и генеральный директор Akash Systems.
16.02.2026 [11:16], Руслан Авдеев
Попутного ветра: AWS резко сократила развёртывание СЖО для Trainium3, решив обойтись преимущественно воздушным охлаждениемAmazon Web Services (AWS) резко увеличит долю воздушного охлаждения в серверах на базе ускорителей Trainium3. Производство серверов намерены нарастить во II квартале 2026 года, но жидкостное охлаждение в них будут применять далеко не так активно, как ожидалось, сообщает DigiTimes. Если ранее планировалось применять системы жидкостного и воздушного охлаждения с соотношением 1:1, то теперь на первые будет приходиться лишь 10 % от общего числа, что способно замедлить внедрение СЖО в ЦОД. При этом ранее отраслевые эксперты прогнозировали, что проникновение СЖО на рынок ИИ-серверов вырастет с менее 20 % в 2025 году до более 50 % в 2026-м. Это должно было случиться за счёт расширения поставок GPU- и ASIC. AWS даже смогла разработать в рекордно короткие сроки собственную платформу СЖО, что привело к падению акций Vertiv, одного из бенефициаров ИИ-бума. Новый подход к оборудованию Trainium3 ставит под вопрос будущее и динамику перехода к жидкостному охлаждению. Тем не менее, рост производства Tranium 3 в любом случае поддержит спрос на продукцию ключевых партнёров AWS: Wiwynn, Accton, Auras, Taiwan Microloops и Nan Juen International (Repon). Вероятно, спрос позволит загрузить производственные мощности до конца 2026 года. По мнению аналитиков, решение AWS во многом связано с TDP ускорителей на уровне 800 Вт (хотя раньше говорили об 1000 Вт) — для них, вероятно, достаточно и для современного воздушного охлаждения, что снижает необходимость перехода на более дорогие и сложные СЖО. По данным AWS, Trainium3 приблизительно на 40 % производительнее в сравнении с ускорителями предыдущего поколения. Также компания объявила о капитальных затратах до $200 млрд на расширение ИИ-инфраструктуры, в т.ч. производство собственно ускорителей — на 2027 год запланированы поставки уже Trainium4. Так или иначе, даже после снижения доли СЖО спрос на компоненты у партнёров должен увеличиться за счёт роста производства в целом. Рост популярности жидкостного охлаждения в ИИ ЦОД в последние годы во многом обусловлен ростом TDP ускорителей NVIDIA. Если у H200 показатель был на уровне около 700 Вт, то у B200 — порядка 1000 Вт, а у B300 — уже 1400 Вт. Для будущих архитектур с двумя чипами значения будут ещё выше. В результате операторам ЦОД требуется эффективный отвод тепла, что могут обеспечить СЖО. Кроме того, это позволяет повысить плотность размещения оборудования. В сегменте ASIC рост TDP заметно ниже. Так, для Trainium2 речь шла об около 500 Вт, у Trainium3 — всего 800 Вт, поэтому воздушное охлаждение — вполне рабочий вариант, за исключением некоторых сценариев, например, с высокой плотностью размещения оборудования. Также источники в цепочке поставок подчёркивают, что жидкостные системы дороже устанавливать и обслуживать в сравнении с современными воздушными вариантами. При этом экосистема производства и обслуживания СЖО часто оценивается как «менее зрелая». Благодаря этому организовать поставки серверов с воздушным охлаждением можно быстрее, и они будут более стабильными. Беспокойство операторов ЦОД может вызывать и репутация жидкостных систем. Например, в конце января Wave Power объявила о том, что некоторые проданные компоненты СЖО для ИИ-систем привели к повреждению оборудования, поэтому компании пришлось выложить $4,5 млн, чтобы заключить мировое соглашение. По мнению экспертов, утечки в СЖО — довольно распространённое явление, не привязанное к конкретному вендору, но каждый подобный инцидент свидетельствует о потенциальных проблемах, которые заказчикам приходится принимать в расчёт. Хотя системы жидкостного охлаждения технически предпочтительнее для самых энергоёмких нагрузок благодаря высокой эффективности теплоотвода, потенциалу снижения показателя PUE и способности обеспечить экономию пространства, на примере Trainium3 можно оценить, как совокупность факторов, включая совокупную стоимость владения (TCO) и операционные риски влияют на сроки внедрения СЖО. Изменение планов AWS может повлиять на всю индустрию ИИ ЦОД, которая может замедлить повсеместный переход на жидкостное охлаждение, по крайней мере, в краткосрочной перспективе. Вместе с тем даже для ИИ-платформ нынешнего поколения гиперскейлеры разработали гибридные варианты охлаждения, позволяющие использовать современные системы в старых ЦОД, не рассчитанных изначально на крупномасштабные СЖО. Так, Meta✴ «растянула» суперускорители NVIDIA GB200 на шесть стоек вместо одной, чтобы разместить там теплообменники, а Microsoft с той же целью «пристроила» к стойке с оборудованием модуль шириной в ещё пару стоек. Google же предпочитает для своих TPU именно СЖО.
11.02.2026 [15:00], Руслан Авдеев
Trane Technologies приобрела поставщика СЖО для ЦОД LiquidStackИндустрия ИИ находится на пике популярности, стимулируя слияния и поглощения в сегменте продуктов для систем охлаждения ЦОД. Так, компания Trane Technologies, занимающаяся разработкой кондиционеров и смежных решений, приобрела стартап LiquidStack, специализирующийся на СЖО, сообщает The Register. Trane инвестировала в LiquidStack в 2023 году. Также в компанию инвестировали Tiger Global Management ($20 млн) и Wiwynn ($10 млн). LiquidStack была одной из первых компаний, разрабатывавших двухфазное иммерсионное охлаждение для систем майнинга криптовалюты. Фактически компания появилась в 2012 году в результате реорганизации Allied Control Limited (ACL, подразделение The Bitfury Group), которая изначально занималась созданием СЖО для майнинговых систем. Технологию LiquidStack протестировала в 2021 году Microsoft. С тех пор компания пополнила портфолио системами одно- и двухфазного погружного охлаждения, а также решениями прямого охлаждения чипов (DLC), в т.ч. CDU. Сообщается, что после закрытия сделки LiquidStack будет работать в составе подразделения Commercial HVAC. Технологии купленной компании пополнят портфолио продуктов Trane, предназначенных для дата-центров. По данным LiquidStack, покупка включает команду стартапа и производственные мощности, а также инженерные и научно-исследовательские подразделения в Техасе и Гонконге.
Источник изображения: LiquidStack По прогнозам экспертов Dell'Oro Group, к 2030 году рынок физической инфраструктуры ЦОД превысит $80 млрд. Одним из самых быстрорастущих сегментов в нём являются системы управления тепловыми режимами, среднегодовой темп прироста составит 20 %. Эксперты уверены, что к концу десятилетия рынок DLC СЖО достигнет оборота $8 млрд, во многом благодаря ИИ-технологиям. Жидкостное охлаждение сегодня перестало быть желательным дополнительным элементом и стало обязательным для получения максимальной отдачи от современного оборудования ИИ ЦОД. Покупка LiquidStack — не первая попытка Trane выйти на рынок технологий жидкостного охлаждения. Ещё в декабре 2025 года была куплена Stellar Energy, выпускавшая модульные охлаждающие решения и CDU, в том числе для ЦОД. Впрочем, это лишь последние из многих слияний и поглощений на рынке физической инфраструктуры для дата-центров, инициированных бумом ИИ-технологий. В конце 2024 года Schneider Electric купила контрольный пакет акицй Motivair. В декабре 2023 года Vertiv приобрела CoolTera. Почти сразу же после этого она запустила производство на полную мощность, увеличив выпуск CDU в 45 (!) раз.
04.02.2026 [12:11], Руслан Авдеев
Датские исследователи напечатали в 3D испарительную камеру для пассивной двухфазной СЖОГруппа учёных создала один из ключевых компонентов системы жидкостного охлаждения (СЖО) дата-центров с использованием 3D-печати. В проекте приняли участие исследователи и специалисты практики из Дании, Бельгии и Германии, сообщает Datacenter Dynamics. Датский технологический институт (Danish Technological Institute) совместно с компанией Heatflow (Дания), бельгийской Open Engineering и занимающимся прикладными исследованиями немецким институтом Fraunhofer IWU разработали, напечатали на 3D-принтере и протестировали компонент системы охлаждения для дата-центров и высокопроизводительных компьютеров. В новом решении охлаждающая жидкость испаряется на горячей поверхности. Пар, отводя тепло, поднимается, а потом конденсируется и под действием силы тяжести возвращается к источнику тепла. Ключевой компонент — испарительная камера — изготовлена с помощью 3D-печати компанией Heatflow и Датским технологическим институтом. в ходе испытаний достигнута мощность охлаждения 600 Вт, это на 50 % больше, чем планировалось (400 Вт). Насосы этим элементом системы не используются, что снижает энергопотребление.
Источник изображения: Danish Research Institute Как заявили представители Датского технологического института, благодаря 3D-печати можно интегрировать необходимые функции в единую деталь. Благодаря этому отпадает надобность в узлах соединения, снижается риск протечек и повышается надёжность компонента. Кроме того, используется только один материал, поэтому переработка упрощается. Проект — часть европейской исследовательской инициативы AM2PC. Он поддерживается европейской сетью M-ERA.NET за счёт средств гранта Датского инновационного фонда (Danish Innovation Fund). Основной задачей проекта была разработка и производство испарительной камеры, а также проверка его рабочих характеристик. По словам Heatflow, наблюдается тенденция к беспрецедентному росту удельной мощности серверов, поэтому классического воздушного охлаждения уже недостаточно, а новое двухфазное решение позволяет пассивно отводить тепло без использования насосов и вентиляторов, это значительно снижает энергопотребление.
Источник изображения: Danish Research Institute Основанная в 2018 году Heatflow является поставщиком систем охлаждения для электроники. Компания специализируется на двухфазном охлаждении. Испарительная камера изготовлена благодаря лазерному спеканию порошковых слоёв (PBF-LB). При этом методе лазер используется для формирования металлических заготовок. Решение отводит тепло при температурах 60–80 °C и потенциально применимо в системах централизованного теплоснабжения, применяющих отработанное тепло дата-центров. Учёные подчёркивают, что не уделяли особого внимания интеграциям с системами центрального отопления, но наглядно продемонстрировали, что подобная технология обеспечивает такую возможность. Утверждается, что речь идёт о важном шаге на пути создания более энергоэффективных дата-центров, способных внести позитивный вклад в общий энергетический баланс. Развитие технологий охлаждения особенно важно, поскольку, по данным исследования Rest of World, около 80 % всех дата-центров мира построены в неподходящих климатических условиях, речь идёт о почти 7 тыс. объектов.
02.02.2026 [23:44], Андрей Крупин
Экология в приоритете: проект энергоэффективного ЦОД МТС получил прописку в федеральном реестре углеродных единицКомпания «Мобильные ТелеСистемы» сообщила о регистрации проекта «Строительство ЦОД с энергоэффективной системой охлаждения на площадке ПАО "МТС"» в российском национальном реестре углеродных единиц. Проект энергоэффективного дата-центра реализован МТС на территории модульного ЦОД в Тосненском районе Ленинградской области. В основе проектного решения лежит использование энергоэффективной адиабатической системы охлаждения для сокращения показателей удельного потребления энергоресурсов на единицу произведённого холода. Ожидается, что в перспективе до 2032 года проект позволит сократить выбросы парниковых газов совокупным объёмом 1375 тонн СО2-эквивалента. «Ленинградский модульный ЦОД МТС — первый климатический проект в российской телеком-отрасли. Согласно углеродной стратегии, наша цель — снижение углеродоемкости на 60 % к 2030 году по сравнению с 2021 годом, и мы рассчитываем, что тиражирование строительства современных ЦОД повысит энергоэффективность компании за счёт снижения потребления электроэнергии. Регистрация проекта в реестре — важный шаг к достижению стратегических задач МТС в области управления выбросами парниковых газов и углеродного менеджмента», — говорится в заявлении оператора.
24.01.2026 [14:15], Сергей Карасёв
Nokia и Hypertec построили в Канаде 15-Пфлопс суперкомпьютер Nibi с погружным охлаждением
amd
emerald rapids
granite rapids
h100
hardware
hpc
intel
mi300
nokia
nvidia
ии
канада
отопление
погружное охлаждение
суперкомпьютер
Компании Nokia и Hypertec объявили о запуске суперкомпьютера Nibi, смонтированного в Университете Ватерлоо (University of Waterloo) в Канаде. Эта НРС-платформа будет использоваться для решения широкого спектра задач, в том числе в области ИИ. Проект Nibi финансируется канадским Министерством инноваций, науки и экономического развития через Канадский альянс цифровых исследований, а также Министерством колледжей, университетов, научных исследований и безопасности через некоммерческую организацию Compute Ontario. Система насчитывает в общей сложности более 750 вычислительных узлов. Это, в частности, 700 узлов CPU, каждый из которых несёт на борту два процессора Intel Xeon 6972P поколения Granite Rapids-AP (96C/192T, до 3,9 ГГц) и 748 Гбайт оперативной памяти. Кроме того, задействованы 10 узлов с двумя чипами Xeon 6972P и 6 Тбайт памяти каждый. В состав суперкомпьютера также входят 36 узлов GPU, которые содержат по два процессора Intel Xeon Platinum 8570 серии Emerald Rapids (56C/112T, до 4 ГГц), 2 Тбайт оперативной памяти и восемь ускорителей NVIDIA H100 SXM (80 GB), связанных посредством NVLink. Наконец, Nibi оперирует шестью узлами с четырьмя ускорителями AMD Instinct MI300A. Подсистема хранения VAST Data выполнена на основе SSD суммарной вместимостью 25 Пбайт. Пропускная способность каналов передачи данных между CPU- и GPU-узлами составляет 200 Гбит/с. Подключение к хранилищу обеспечивается благодаря 24 линиям на 100 Гбит/с. Заявленная пиковая производительность Nibi достигает 15 Пфлопс. Новая НРС-платформа оборудована высокоэффективной системой погружного жидкостного охлаждения. Сгенерированное тепло используется для обогрева центра квантовых и нанотехнологий имени Майка и Офелии Лазаридис (Mike and Ophelia Lazaridis Quantum-Nano Centre).
22.01.2026 [09:07], Руслан Авдеев
Karman Industries представила систему охлаждения ИИ ЦОД с углекислым газомKarman Industries представила установку HPU (heat processing unit), которая, как утверждается, способна охлаждать дата-центры и перерабатывать «мусорное» тепло, сообщает Datacenter Dynamics. Модульная охладительная система на 10 МВт, использующая CO2, позволяет организовать инфраструктуру в HPU-блоках высокой «плотности». В частности, HPU в ИИ ЦОД может отбирать избыточное тепло кластеров и отдавать на выходе теплоноситель с температурой менее 30 °C, всё это без необходимости использования больших объёмов воды. Если окружающий воздух холодный, HPU способны перерабатывать «мусорное» тепло в электричество или, например, нагревать теплоноситель до температур, достаточных для систем центрального отопления. Охлаждение с помощью CO2 работает в целом по тому же принципу, что и традиционная система воздушного охлаждения, говорит компания, за тем исключением, что в качестве хладагента используются углекислота. Считается, что CO2 безвреднее для атмосферы, чем фреоны и т.п. вещества. Система Karman Industries использует фирменную технологию Kompressor, которая, как утверждается, может сэкономить немало пространства в сравнении с традиционными системами воздушного охлаждения — экономия занимаемой модулем охлаждения площади составляет до 80 %. HPU разрабатывались для утилизации выделяемого тепла и улучшения PUE ИИ ЦОД без применения PFAS-химикатов и больших объёмов питьевой воды. HPU используют питание 800 В DC (HVDC), 3D-печать металлами, высокоскоростные двигатели и силовую электронику на карбиде кремния. Karman привлекла $20 млн в раунде финансирования серии A, возглавленном Riot Ventures, а общий объём привлечённых средств составил более $30 млн. Среди прочих крупных участников Sunflower Capital, Space VC, Wonder Ventures, и бывший глава Intel и VMware Пэт Гэлсингер (Pat Gelsinger). Хотя клиенты компании не раскрываются, она сообщает, что поставки HPU начнутся в III квартале 2026 года. Karman имеет собственный завод GigaWerx в Лос-Анджелесе, способный выпускать HPU общей холодопроизводительностью до 1 ГВт/год с возможностью масштабирования до 4 ГВт/год. Как заявляет Karman Industries, время является самым ценным активом в гонке за увеличение потенциала ИИ. Сократив на 80 % площадь системы охлаждения, компания не просто позволяет экономить землю, но и даёт возможность избежать эффекта «снежного кома» с усложнением инфраструктуры. Это позволит гиперскейлерам реализовать проекты на много месяцев быстрее при масштабировании своей инфраструктуры.
31.12.2025 [12:02], Сергей Карасёв
DapuStor и ZTE внедряют в дата-центрах SSD с иммерсионным охлаждениемКомпания DapuStor объявила об успешном внедрении в серверной инфраструктуре ZTE систем хранения данных на основе SSD с иммерсионным (погружным) жидкостным охлаждением. Применённые накопители семейства DapuStor J5, как утверждается, продемонстрировали исключительную стабильность и надёжность при непрерывных нагрузках чтения/записи. Отмечается, что на фоне стремительного развития ИИ быстро растёт нагрузка на ЦОД — это приводит к увеличению энергопотребления. В результате, возможностей традиционного воздушного охлаждения становится недостаточно, в связи с чем гиперскейлеры и облачные провайдеры внедряют передовые жидкостные решения, в том числе иммерсионные системы. Однако существуют риски: хотя погружное охлаждение обеспечивает эффективный отвод тепла, оно предъявляет дополнительные требования к оборудованию. Длительное нахождение в диэлектрической жидкости может провоцировать химическую эрозию и ускорение старения из-за проникновения состава в микроскопические структурные зазоры электронных компонентов. В случае SSD это чревато системными сбоями. Поэтому для достижения долгосрочной надёжности необходима комплексная адаптация устройств хранения с точки зрения базовых материалов, конструкции и производственных процессов.
Источник изображения: DapuStor Накопители DapuStor J5, оптимизированные для иммерсионного охлаждения, разработаны специально с прицелом на эксплуатацию в экстремальных условиях. Все используемые материалы прошли тщательную проверку, исключающую ухудшение характеристик после длительного контакта с охлаждающей жидкостью. Гарантированы целостность сигнала и долговременная стабильность, говорят компании. Заявленная скорость последовательного чтения и записи данных достигает соответственно 7,4 и 7,0 Гбайт/с. Показатель IOPS при произвольном чтении составляет до 1,75 млн, при произвольной записи — до 340 тыс. Задержка — 67/9 мкс. Отмечается, что при использовании иммерсионного охлаждения средний годовой показатель PUE составляет менее 1,15 против 1,4–1,6 при традиционном воздушном охлаждении, что соответствует снижению на 15–28 %. Плотность мощности в расчёте на стойку возрастает на порядок — с 3–5 кВт до 48 кВт.
29.12.2025 [10:03], Руслан Авдеев
Китайские поставщики заработают на буме ИИ несмотря на напряжённость в отношениях с ЗападомНесмотря на геополитическую напряжённость между Китаем и Западом, китайские поставщики оборудования для ИИ-проектов, от энергетических решений до систем охлаждения, переживают настоящий бум экспорта, сообщает Nikkei Asian Review. ИИ ЦОД потребляют намного больше энергии по сравнению с традиционными дата-центрами и требуют иных технологических решений, например, в области охлаждения. Для обслуживания таких ЦОД нередко нужна модернизация электросетей, поэтому инвестиции в эту сферу стали расти в США, Европе и на Ближнем Востоке с 2022 года. Однако энергооборудование остаётся дефицитным во всём мире. В модернизации электросетей ключевую роль играют трансформаторы. При этом, как сообщает Wood Mackenzie, в США 80 % силовых трансформаторов и 50 % распределительных трансформаторов импортируются в страну из-за рубежа. В 2025 году ожидается дефицит поставок в объёме 30 % и 10 % соответственно. На этом стремится заработать, например, китайская Sieyuan Electric, выпускающая электрооборудование. В прошлом году она создала в США дочернюю компанию для компенсации дефицита в стране трансформаторов. С начала 2025 года акции Sieyuan Electric выросли более чем вдвое, планируется SPO в Гонконге. Производство трансформаторов требует специального оборудования, приобретаемого буквально годами. Кроме того, организация нового производства потребует строительства нового завода и обучения рабочих, поэтому быстрое наращивание производства затруднительно. По данным китайской таможни, за первые 11 месяцев 2025 года экспорт трансформаторов из КНР достиг почти ¥58 млрд ($8,2 млрд), на 36,3 % больше, чем в тот же период 2024 года. На фоне бурного роста спроса за рубежом темпы роста экспорта производителей из КНР превысили рост на внутреннем рынке. Например, крупнейший в мире производитель трансформаторов (по совокупной мощности) Tebian Electric Apparatus нарастил стоимость международных контрактов в годовом исчислении на 65,91 %, на внутреннем рынке рост составил 14,08 %. По мнению экспертов, одним из главных преимуществ китайского бизнеса является скорость организации работ. Как сообщил Bank of America Securities, с момента получения заказа китайским поставщиком до получения готовой продукции проходит менее года, тогда как в США, Европе или Южной Корее речь может идти о двух-трёх годах. По словам экспертов, производство трансформаторов в КНР отличается высокой конкурентоспособностью, поскольку электротехническая листовая сталь раньше импортировалась, а теперь её производство полностью локализовано. Сообщается, что китайские экспортёры постоянно прилагают усилия по расширению бизнеса за рубежом, посколкьу в самой стране жёсткая конкуренция и относительно слабый внутренний рынок. Впрочем, мелкие игроки уровня Dishin с её 150 сотрудниками, вероятно, столкнутся с серьёзными проблемами — стандарты от страны к стране отличаются, что требует технических корректировок и местной сертификации. Кроме того, нужны налаженные каналы сбыта, поскольку трансформаторы обычно продают энергетическим компаниям и одного качества продукции для успеха бизнеса недостаточно. По оценкам UBS, капитальные затраты на ИИ в 2025 году достигнут $423 млрд и $571 млрд — в 2026 году. Ряд инвестиционных банков прогнозирует, что к 2030 году расходы на ИИ превысят $1 трлн. Ожидается, что американские гиперскейлеры, включая Google, Meta✴, Microsoft, Amazon и Oracle в этом году потратят от $350 млрд до $400 млрд, что будет способствовать росту строительства ЦОД и создаст дополнительную нагрузку на электросети. Для сравнения, в Китае, по прогнозам Bank of America, аналогичные капиталовложения в 2025 году составят ¥600–700 млрд ($85–$100 млрд), в основном благодаря правительству и местным крупным компаниям, а к 2030 году достигнут ¥2–¥2,5 трлн ($285–$356 млрд). Около трети этих средств направят на ИИ-инфраструктуру.
Источник изображения: BofA Global Research Системы хранения энергии (ESS) — ещё одна область, где Китай опережает конкурентов. Недавно JP Morgan сообщала, что глобальное развёртывание ИИ ЦОД увеличит спрос на подобные системы. Пока связанный с ИИ спрос на такие системы составляет лишь 2 % от мировых поставок, перспективы очень хорошие. За первые 10 месяцев текущего года поставки аккумуляторных ESS (BESS) выросли на 70 % год к году, во многом благодаря росту китайского экспорта на ключевые рынки на 61 %. JP Morgan прогнозирует рост поставок на 80 % в 2025 году и на 30 % в 2026 году. Дефицит предложения может привести к росту цен. В Bank of America заявляют, что LG также наращивает производственные мощности для энергохранилищ, но темпы роста отстают от реального роста спроса, поэтому заинтересованным сторонам в основном приходится импортировать продукцию из Китая. На мировом рынке аккумуляторов доминируют китайские CATL, EVE Energy и BYD и др. Также, по словам экспертов из Nomura, хотя дефицит сетевых компонентов ожидается до 2026 года из-за высокого спроса и роста технических барьеров, сетевое оборудование для ИИ, включая коммутаторы, маршрутизаторы, оптические и медные кабели и др. станут всё более важными для развёртывания ЦОД. Это может сыграть на руку ведущим поставщикам — вырастет цена и увеличится маржа на мировом рынке. В Bank of America также ожидают роста экспорта из Китая оборудования для охлаждения ИИ-инфраструктуры. В Юго-Восточной Азии, где бурный рост строительства ЦОД стимулирует спрос на компоненты, включая CDU и быстроразъёмные соединения (UQD), по-прежнему доминируют некитайские бренды. Тем не менее, китайские поставщики играют важную роль в обеспечении трубопроводов и коллекторов. По мнению экспертов, поскольку китайские IT-компании всё чаще строят ИИ ЦОД в Юго-Восточной Азии из-за ограничений на экспорт передовых чипов в КНР и высоких цен на электричество в китайских мегаполисах, ожидается, что у китайских производителей охлаждающего оборудования появится больше экспортных возможностей.
23.12.2025 [12:28], Сергей Карасёв
Goodram представила 122,88-Тбайт SSD для ЦОД с иммерсионным охлаждениемКомпания Goodram Industrial, принадлежащая Wilk Elektronik SA, без громких анонсов представила свой первый SSD вместимостью 122,88 Тбайт, предназначенный для использования в системах с иммерсионным (погружным) жидкостным охлаждением. Устройство рассчитано на дата-центры и площадки гиперскейлеров. Накопитель относится к семейству DC25F. В его основу положены чипы флеш-памяти QLC NAND. Доступны модификации в форм-факторах E3.S и E3.L: в обоих случаях для подключения служит интерфейс PCIe 5.0 x4. Заявленная скорость последовательного чтения информации достигает 14 600 Мбайт/с, скорость последовательной записи — 3200 Мбайт/с. Показатель IOPS составляет до 3 млн при произвольном чтении данных 4K-блоками и до 35 тыс. при произвольной записи. Накопители способны выдерживать 0,3 полных перезаписи в сутки (0,3 DWPD) на протяжении пяти лет. Это ставит их в один ряд с другими QLC-устройствами корпоративного класса, предназначенными для «теплого» и «холодного» хранения данных.
Источник изображения: Goodram Goodram отмечает, что накопители прошли всестороннее тестирование с использованием различных диэлектрических жидкостей для иммерсионного охлаждения, включая составы Shell и Chevron. Утверждается, что эти SSD рассчитаны на длительную эксплуатацию без деградации. Помимо модели вместимостью 122,88 Тбайт, Goodram предлагает широкий выбор других SSD для систем с иммерсионным охлаждением. Это устройства ёмкостью от 1,92 Тбайт и выше на основе чипов TLC NAND и QLC NAND с интерфейсами SATA, PCIe 4.0 и PCIe 5.0. Они доступны в форм-факторах SFF U.2 и U.3, E3.S и E1.S, M.2 2280 и M.2 22110. |
|
