Материалы по тегу: охлаждение
|
23.12.2025 [09:39], Руслан Авдеев
Около 80 % всех дата-центров мира построены в не слишком подходящих климатических условияхСогласно исследованию Rest of World, почти 7 тыс. из 8808 дата-центров в мире построены в не самых комфортных, согласно стандартам ASHRAE, климатических условиях. Большинство находятся «за пределами оптимального температурного диапазона» для охлаждения, а 600 — в слишком жарких местах. Проблема в том, что развитие ИИ вынуждает размещать ЦОД и в неблагоприятных регионах. Анализ свидетельствует, что экономические, политические и даже сетевые реалии часто важнее для строителей и операторов, чем экологическая целесообразность. При анализе эксперты Rest of World сопоставляли данные о местоположении дата-центров с информацией о температуре из базы Copernicus. Данные сравниваются с рекомендациями ASHRAE, согласно которым эффективнее всего ЦОД работают при температуре окружающего воздуха 18 °C до 27 °C. Другими словами, почти 7 тыс. ЦОД находятся за пределами рекомендованного температурного диапазона. Большинство находятся в регионах со среднегодовой температурой ниже 18 °C, где решающее значение имеет управление влажностью и циркуляцией. Около 600 объектов, находятся в местах со среднегодовой температурой выше 27 °C, там постоянной проблемой является жара. В 21 стране вообще все ЦОД расположены в зонах с температурой выше рекомендованной. К ним, например, относятся Сингапур, Таиланд, Нигерия и ОАЭ. В Саудовской Аравии и Малайзии почти все дата-центры находятся в таких же горячих зонах, в Индонезии — почти половина, а в Индии — чуть меньше трети. Сингапур является уникальным регионом — на очень небольшой площади размещены дата-центры мощностью более 1,4 ГВт (ещё 300 МВт на очереди), при этом средняя дневная температура составляет около 33 °C, а относительная влажность нередко переваливает за 80 %. Для дата-центров такие условия близки к экстремальным. Сингапур фактически вводил мораторий на развитие ЦОД из-за нехватки энергии, значительная часть которой в случае ЦОД уходила на охлаждение. В общемировом масштабе дата-центры часто приходится строить в не слишком пригодных для их эксплуатации климатических условиях. Спрос на облака и генеративный ИИ быстро растёт, и особенно в регионах с самым жарким климатом. При этом правительства всё чаще требуют хранения данных в пределах национальных границ. В результате ЦОД строят совсем не там, где их использование дешевле всего. Впрочем, даже если операторы не гонятся за суверенитетом данных, в расчёт часто принимается доступность и стоимость электричества и воды. Также учитывается цена земли, частота в регионе стихийных бедствий, местные законы, налоговые льготы, простота получения разрешений на строительство. Рост нагрузки на системы охлаждения создаёт и дополнительную нагрузку на местные электросети. По информации Международного энергетического агентства (IEA), в 2024 году дата-центры потребили около 415 ТВт∙ч, это около 1,5 % от мирового спроса на электричество. По некоторым оценкам, к 2030 году цифра вырастет более чем вдвое по мере развития ИИ, места строительства новых ЦОД будут значить ещё больше. В ответ операторы ЦОД по-новому подходят к охлаждению объектов. Хотя воздушное охлаждение по-прежнему доминирует (на него приходится 54 % рынка), всё популярнее становятся СЖО, особенно для ИИ-стоек высокой плотности. Впрочем, модернизация уже действующих объектов довольно затратна, а многие из наиболее перспективных рынков ЦОД в мире имеют ограниченные ресурсы. По словам экспертов, к 2040 году экстремальная жара может существенно сказаться на ⅔ крупнейших ЦОД по всему миру, в т.ч. на всех основных дата-центрах в Азиатско-Тихоокеанском регионе и на Ближнем Востоке.
18.12.2025 [16:20], Сергей Карасёв
IXcellerate разработала собственное решение для эффективного охлаждения высоконагруженных ЦОДРоссийский оператор коммерческих дата-центров IXcellerate сообщил о разработке передового решения для охлаждения высоконагруженных машинных залов. Компания уже получила патент на изобретение, которое прошло независимую экспертизу Федеральной службы по интеллектуальной собственности. Целью исследовательского проекта являлось создание технологии для увеличения мощности системы кондиционирования при неизменной площади помещения. При этом требовалось решить проблемы неравномерного распределения воздуха, обеспечив возможность размещать стойки в любой точке машинного зала без изменения конфигураций инженерных систем. В процессе разработки специалисты использовали CFD-инструменты. В результате, была получена специальная формула для расчёта объёма расходуемого воздуха, температурного режима и суммарной площади теплообменников для оптимального подбора мощности и количества вентиляторов. Формула позволила сконструировать новую воздухоохладительную камеру статического давления: она обеспечивает равномерное распределение воздушных потоков на все теплообменные аппараты. Инновационное решение внедрено в действующих машинных залах Южного кампуса IXcellerate с общей нагрузкой более 30 МВт. По заявлениям компании, применённая технология обеспечивает ряд преимуществ по сравнению с другими системами. В частности, благодаря оптимизации повышена энергоэффективность ЦОД и снижено потребление электроэнергии. Количество стойко-мест удалось увеличить на 15 % при сохранении прежней площади машинного зала. Исключены риски перегрева высоконагруженного IT-оборудования. Кроме того, достигнут оптимальный температурный график теплоносителя, благодаря чему дата-центр работает в энергосберегающем режиме фрикулинга. Разработка новой технологии особенно важна в свете сформировавшейся геополитической обстановки, из-за которой поставки импортной продукции в Россию ограничены. Предложенное решение позволяет поддерживать параметры климата по стандарту ASHRAE, обеспечивает отказоустойчивость и сервисное обслуживание оборудования без перерывов на ремонты. Система подходит для любых дата-центров и помещений с серверным оборудованием.
15.12.2025 [09:18], Руслан Авдеев
Как ЦОД используют воду и почему никак не могут «напиться»После дебюта ChatGPT в 2022 году и взрывного роста рынка ЦОД вследствие этого, повышенное внимание стало уделяться воздействию последних на окружающую среду. Впрочем, беспокоиться стоит не только об электроэнергии. Любые, даже самые современные ЦОД используют колоссальные объёмы питьевой воды. В презентации техасской Strategic Thermal Labs упоминается, что в США дата-центры потребляют миллионы литров питьевой воды ежедневно для охлаждения оборудования. В некоторых случаях на долю ЦОД приходится до четверти потребления воды муниципалитетами. С распространением энергоёмких систем генеративного ИИ проблема только усугубилась. В апреле 2024 года сообщалось, что потребление воды китайскими ЦОД удвоится к 2030 году, дойдя до более чем 3 млрд м3/год. В августе того же года — что ЦОД в Вирджинии потребляют огромные объёмы питьевой воды, а развитие ИИ только усугубляет ситуацию. В ближайшие годы гиперскейлеры и прочие операторы ЦОД намерены построить гигаваттные ЦОД с миллионами ускорителей, поэтому воды потребуется ещё больше. Эксперты Калифорнийского университета в Риверсайде и Техасского университета в Арлингтоне предполагают, что мировой спрос на ИИ к 2027 году может привести к использованию 4,2–6,6 млрд м3/год. В первую очередь «виноваты» системы испарительного охлаждения, в которых вода берётся из местных источников и подаётся к оборудованию, где и испаряется, передавая тепло воздуху. Главной причиной популярности такой технологии среди операторов ЦОД стала высокая эффективность таких систем и отсутствие необходимости использовать для охлаждения много энергии. Испарения около 40 л/мин. достаточно для оборудования на 1,5 МВт, передаёт The Register со ссылкой на данные Strategic Thermal Labs. При этом испарительные системы обычно эффективнее всего работают в жарких и засушливых пустынных областях, где воды и так мало. Хуже того, 20–30 % воды в таких системах используются для промывки минеральных отложений и смывается в очистительные установки. Нейтрализация таких отложений — отдельная задача. Тем не менее, испарительные системы всё равно дешевле в эксплуатации в сравнении с альтернативами, у них выше КПД, а энергии они тратят мало. А, например, Digital Realty с помощью мониторинга и автоматизации насосов сократила использование воды в системах с испарительным охлаждением на 15 % — полностью исключить его практически невозможно. Любые технологии, даже не потребляющие воду напрямую, всё равно зависят от неё. Например, «сухие» охладительные системы тратят на порядки больше электричества в сравнении с испарительными, что потенциально увеличивает косвенные выбросы воды. Так, статистика свидетельствует, что порядка 89 % электроэнергии США получают от газовых, атомных и угольных электростанций, а многие из них применяют паровые турбины, расходующие чрезвычайно много воды. ЦОД, находящиеся в регионах с большими ресурсами ГЭС, солнечных и ветряных электростанций, обеспечивают меньшее косвенное потребление воды, чем те, что питаются, например, от ископаемого топлива. Примечательно, что при генерации энергии всё равно теряется намного больше воды, чем потребляется современными ЦОД. Как показало исследование Национальной лаборатории Лоуренса в Беркли (LBL) от 2016 года, порядка 83 % потребления воды ЦОД приходится на генерацию энергии. Другими словами, использование энергоёмких систем для «безводного» охлаждения ЦОД в итоге ведёт… к большему потреблению воды. Впрочем, речь может идти о «другой» воде в другом месте — электростанции могут быть очень далеко от ЦОД и часто получают воду из рек и озёр. Операторы ЦОД прекрасно это понимают, пытаясь скрыть расходы воды уровня Scope 2 и 3. Для сокращения прямого и косвенного потребления целесообразно, например, использование фрикулинга везде, где это возможно. Впрочем, действительно комфортный для ЦОД климат, где нет жары, но нет и морозов, есть далеко не везде. В этом отношении выигравают страны Северной Европы, где много ГЭС и других возобновляемых источников. Поэтому даже если использовать вспомогательные чиллеры, косвенное потребление воды будет относительно небольшим, а тепло можно направлять на обогрев теплиц, зданий, бассейнов и т.п. Там, где фрикулинг нецелесообразен, возможен переход на СЖО — как DLC, так иммерсионные. Хотя «сухие» системы охлаждения потребляют больше энергии, чем испарительные, улучшение индекса PUE в итоге может компенсировать разницу. Например, переход на прямое жидкостное охлаждение чипов NVIDIA Blackwell может снизить PUE с 1,69–1,44 до 1,1 и ниже. Впрочем, баланс зависит от многих факторов. Та же NVIDIA пока не готова к погружным СЖО, да и средний по миру PUE с годами особо уже не меняется.
Источник изображения: Uptime Institute Хотя многие новые технологии охлаждения предусматривают внесение изменений в инфраструктуру объектов, в качестве альтернативы можно перераспределить нагрузки между ЦОД — примерно так же, как это делается в часы пиковых нагрузок на электросети, эффективность использования испарителей может меняться даже в зависимости от времени суток. Правда, многим, например колокейшн-провайдерам будет довольно трудно добиться эффективности из-за ограниченного контроля над серверами и нагрузками. Такой подход может не подойти и для инференса, где быстрое выполнение задач играет решающее значение. При этом обучение ИИ не имеет таких ограничений и проводиться удалённого на севере и в заданное время. Тюнинг моделей требует гораздо меньше вычислений, и такие задачи тоже можно планировать, например на ночь, когда температура ниже, как и объёмы испарения. Важнейшую роль играют источники воды для ЦОД. В некоторых регионах не хватает даже воды для питья. Эксперты предлагают операторам дата-центров инвестировать в опреснители, сети распределения воды, локальные очистные сооружения и др. для более широкого использования испарительных охладителей. По некоторым расчётам, опреснение и транспортировка воды с морского побережья всё ещё эффективнее, чем отказ от испарительных систем — даже с доставкой не трубопроводами, а в цистернах. Впрочем, Microsoft готовит ЦОД с почти нулевым расходом воды, а ранее экспериментировала со сбором дождевой воды. AWS обещала перевести ещё 100 дата-центров на использование очищенных сточных вод для охлаждения.
12.12.2025 [17:21], Руслан Авдеев
Никаких закладок: NVIDIA анонсировала новое ПО для мониторинга и продления жизни ИИ-ускорителей в ЦОД
dcim
nvidia
open source
software
амортизация
ии
мониторинг
охлаждение
цод
электропитание
энергоэффективность
NVIDIA разрабатывает новое открытое ПО, благодаря которому операторы ЦОД смогут получать более подробные данные о тепловом состоянии и иных параметрах работы ИИ-ускорителей. Предполагается, что это поможет решать проблемы, связанные с перегревом оборудования и его надёжностью, увеличив его срок службы и производительность. NVIDIA отдельно подчёркивает, что телеметрия собирается только в режиме чтения без слежки за оборудованием, а в ПО нет «аварийных выключателей» и бэкдоров. Да и в целом использование новинки опционально. ПО обеспечивает операторам ЦОД доступ к мониторингу потребления энергии, загрузки, пропускной способности памяти и других ключевых параметров в масштабах всего парка ускорителей. Это помогает выявлять на ранних стадиях риски и проблемные компоненты и условия работы, отслеживать использование ИИ-ускорителей, их конфигурации и ошибки. Детализированная телеметрия становится всё важнее для планирования и управления масштабными инфраструктурами, говорит компания. ПО позволит:
Такой мониторинг особенно важен на фоне недавнего отчёта учёных Принстонского университета, в котором сообщается, что интенсивные тепловые и электрические нагрузки способны сократить срок службы ИИ-чипов до года-двух, хотя обычно предполагается, что они способны стабильно проработать до трёх лет. Современные ускорители потребляют 700 Вт и более, а высокоплотные системы — от 6 кВт. Из-за этого формируются зоны перегрева, происходят колебания энергопотребления и растёт риск деградации интерконнектов в высокоплотных стойках. Телеметрия, позволяющая оценить потребление энергии в реальном времени, состояние интерконнектов, систем воздушного охлаждения и др. позволяет перейти от реактивного мониторинга к проактивному проектированию. Рабочие нагрузки можно размещать с учётом теплового режима, быстрее внедрять СЖО или гибридные системы охлаждения, оптимизировать работу сетей с уменьшением тепловыделения. Также ПО может помочь операторам ЦОД выявлять скрытые ошибки, вызванные несоответствием версий прошивки или драйверов. Благодаря этому можно повысить общую стабильность парка ускорителей. Кроме того, без задержек передаваемые данные об ошибках и состоянии компонентов могут значительно сократить среднее время восстановления работы и упростить анализ причин сбоев. Соответствующие данные могут влиять на решения о тратах на инфраструктуру и стратегию её развития на уровне предприятия.
Источник изображения: NVIDIA Как заявляют в Gartner, современный ИИ представляет собой «энергоёмкого и сильно нагревающегося монстра», разрушающего экономику и принципы работы ЦОД. В результате, предприятиям нужны специальные инструменты мониторинга и управления для того, чтобы ситуация не вышла из-под контроля. В ближайшие годы использование подобных решений, вероятно, станет обязательным. Кроме того, прозрачность на уровне всего парка оборудования становится необходимой для обоснования роста бюджетов на ИИ-инфраструктуру. По словам экспертов, такие программные инструменты позволяют оптимизировать капитальные и операционные затраты на ЦОД и инфраструктуру, запланированные на ближайшие годы. «Каждый доллар и каждый ватт» должны быть учтены при эффективном использовании ресурсов.
08.12.2025 [09:28], Руслан Авдеев
И запитать, и охладить: LG и LS сделали Microsoft пакетное предложение на инфраструктуру для ИИ ЦОД стоимостью миллиарды долларовТоп-менеджеры южнокорейских LG Group и LS Group посетили штаб-квартиру Microsoft в США для того, чтобы предложить всеобъемлющий план внедрения ИИ-инфраструктуры нового поколения. Это довольно редкий случай координации действий компаний на уровне высшего руководства для привлечения внимания одного из ключевых инвесторов в ИИ, сообщает The Korea Herald. Вместо того, чтобы предлагать отдельные продукты, южнокорейская делегация представила комплексную концепцию, направленную на решение двух главных проблем современных ЦОД — высокого тепловыделения и высокого энергопотребления. Вместо закупок компонетов по отдельности у компаний вроде Vertiv или Schneider Electric, в последнее время не готовых похвастаться малыми сроками поставок оборудования, Microsoft получила чрезвычайно выгодное пакетное предложение от вертикально интегрированных участников цепочки поставок. Для решения проблем с теплоотводом LG предложила передовые технологии терморегуляции вроде прямого жидкостного охлаждения чипов, системы иммерсионного охлаждения и чиллеры с центробежными компрессорами на магнитных подшипниках. Все эти решения направлены на оптимизацию использования энергии и улучшения коэффициента PUE. Ранее уже было объявлено о партнёрстве LG и Microsoft в вопросе охлаждения будущих ИИ ЦОД. LS предложила инфраструктурные решения, связанные непосредственно с подачей энергии, в том числе технологию шин, заменяющих громоздкие кабели для экономии места и снижения тепловыделения в условиях высокой плотности размещения оборудования в стойках, высоковольтные трансформаторы и системы подключения к энергосетям. LS включила в пакет предложений и аккумуляторные энергохранилища для сглаживания потребления в часы пиковых нагрузок. Хотя южнокорейские СМИ поспешили сообщить, что крупномасштабная сделка с Microsoft, стоимость которой оценивается в несколько миллиардов в год, уже подписана, участники делегации выпустили официальное уведомление о том, что окончательного соглашения ещё нет и дальнейшее взаимодействие продолжают обсуждать. Впрочем, присутствие топ-менеджеров двух крупных южнокорейских бизнес-групп в Редмонде уже свидетельствует о серьёзном настрое южнокорейского бизнеса позиционировать себя как инфраструктурного партнёра мирового уровня для ИИ-проектов. Стремление к унификации и объединения технологий прослеживается и среди других игроков рынка ЦОД. Так, в ноябре сообщалось, что NVIDIA ужесточит контроль над выпуском ИИ-платформ, задвинув Foxconn и других партнёров на второй план.
01.12.2025 [09:15], Руслан Авдеев
Японская Daikin намерена утроить продажи систем охлаждения ЦОД в Северной Америке, надеясь на гиперскейлеров и ИИ-бумЯпонская Daikin Industries рассчитывает утроить продажи охлаждающего оборудования для ЦОД в Северной Америке на фоне бума ИИ-технологий — до более чем ¥300 млрд ($1,92 млрд) к 2030 финансовому году, сообщает Nikkei Asian Review. Сейчас Daikin скупает технологии охлаждения американских компаний и намерена учредить отдельную штаб-квартиру для североамериканского рынка в 2026 финансовом году. Основная цель — работа со всеми гиперскейлерами. По оценкам Daikin, на Северную Америку приходится 40 % мирового рынка решений для охлаждения ЦОД, и её доля, вероятно, продолжит расти. Ключевыми заказчиками являются гиперскейлеры, и Daikin уже работает с Google и Amazon. Крупные HVAC-системы нередко приобретаются для нескольких зданий одновременно, так что объёмы единовременных продаж обычно составляют десятки миллионов долларов. Доля Daikin на североамериканском рынке, по её собственным оценкам, составляет около 12 %. Она занимает третье место в своём сегменте. К 2030 году компания намерена довести долю до 30 %. Конкуренцию ей составит как минимум LG, которая будет поставлять свои системы охлаждения для ИИ ЦОД Microsoft. В 2007 году Daikin купила малайзийскую OYL Industries, которая владела американским производителем кондиционеров McQuay International (бренд Applied). В 2023 году за ¥30 млрд ($192 млн) она купила американскую Alliance Air Products, специалиста по оборудованию для обработки воздуха. В августе того же года она приобрела американскую же Dynamic Data Centers Solutions, разрабатывавшую технологию индивидуального охлаждения стоек. Наконец, в ноябре компания купила американский стартап Chilldyne, специализирующийся на СЖО. Массовое производство систем воздушного и жидкостного охлаждения для серверов начнётся весной следующего года. По прогнозам Daikin, приблизительно 70 % рынка к 2030 году будет приходиться на системы воздушного охлаждения и около 30 % — на СЖО. Daikin намерена предлагать оптимальные комбинации этих методов для операторов ЦОД и отраслевых подрядчиков. Дополнительно она предлагает и системы контроля охлаждения. Также компания сообщает, что намерена создать в США хаб по выпуску решений для ЦОД в 2026 фискальном году для контроля над североамериканским рынком. По данным индийской Fortune Business Insights, мировой рынок систем охлаждения для ЦОД должен вырасти более чем вдвое с 2024 по 2032 гг. до $42,4 млрд. Впрочем, гиперскейлеры работают над собственными решениями, которые позволят обрести им «суверенитет» от независимых вендоров. Например, собственную СЖО всего за 11 месяцев разработала и запустила в производство AWS. А Meta✴ пришлось пойти на ухищрения, чтобы обойтись воздушным охлаждением ИИ-стоек.
28.11.2025 [21:12], Владимир Мироненко
Сбой в системе охлаждения ЦОД обрушил крупнейшую в мире товарную биржу CMEВ пятницу, 28 ноября, на мировых фьючерсных рынках началась неразбериха после того, как CME Group (Чикагская товарная биржа, Chicago Mercantile Exchange), крупнейший в мире биржевой оператор по рыночной стоимости, столкнулся с одним из самых длительных сбоев в работе за последние годы, из-за которого была приостановлена торговля акциями, облигациями, сырьевыми товарами и валютой. Как сообщает агентство Reuters со ссылкой на данные LSEG, после продолжительного перерыва торговля на CME Group возобновилась в 13:35 по Гринвичу (16:35 МСК). EBS market, платформа, используемая для обмена валюты, вновь открылась немного раньше — в 15:00 МСК, пишет Bloomberg со ссылкой на уведомление на веб-сайте CME Group. В уведомлении не содержится никакой информации о том, когда возобновят работу другие затронутые рынки, от акций до облигаций и сырьевых товаров. CME сообщила о прекращении торгов на своих ключевых площадках из-за сбоя в системе охлаждения ЦОД CyrusOne в Авроре (Aurora, Иллинойс). Сбой повлиял на фьючерсы Globex, валютный рынок EBS и другие, остановив торги фондовыми индексами, сырьевыми товарами, энергоносителями, металлами и сельскохозяйственными товарами примерно на 10 часов в период низких объемов торгов в «чёрную пятницу». По данным LSEG, из-за сбоя были приостановлены торги основными валютными парами на платформе CME EBS, а также фьючерсами на нефть WTI, пальмовое масло, золото, Nasdaq 100 и Nikkei.
Источник изображения: CyrusOne «27 ноября на нашем объекте CHI1 произошел сбой в работе холодильной установки, затронувший несколько холодильных агрегатов. Наши инженерные группы совместно со специализированными подрядчиками по механическому оборудованию работают на месте над восстановлением полной мощности охлаждения. Мы успешно перезапустили несколько охлаждающих установок с ограниченной мощностью и развернули временное охлаждающее оборудование в дополнение к нашим постоянным системам», — пояснила CyrusOne в письме ресурсу Data Center Dynamics. Компания отметила, что находится на прямой связи со всеми пострадавшими клиентами и регулярно предоставляет обновлённую информацию по мере развития ситуации. «Наши команды работают круглосуточно, чтобы как можно быстрее и безопаснее восстановить нормальную работу», — подчеркнула CyrusOne. Как сообщает Data Center Dynamics, CyrusOne управляет примерно 55 ЦОД по всему миру. В 2016 году CME Group продала за $130 млн свой ЦОД в Авроре компании CyrusOne, который тут же арендовала на 15 лет. Кампус Aurora включает три ЦОД общей площадью 41,8 тыс. м2 общей мощностью 109 МВт. Глава CMC Markets по Азии и Ближнему Востоку Кристофер Форбс (Christopher Forbes) сообщил агентству Reuters, что не видел столь масштабного сбоя порядка 20 лет. Нынешний сбой в работе CME произошёл более чем через десять лет после того, как в апреле 2014 года бирже пришлось закрыть электронную торговлю некоторыми сельскохозяйственными контрактами из-за технических проблем. В 2021 году CME подписала соглашение с Google Cloud, в рамках которого Google инвестировала в неё $1 млрд, а CME запланировала перенести свою ИТ-инфраструктуру на платформу Google Cloud в течение следующего десятилетия. Биржа также является клиентом ЦОД Equinix за пределами США. Похожая сделка была заключена между Microsoft Azure и Лондонской фондовой биржей. А Nasdaq постепенно перебирается в AWS. Последняя недавно пережила крупный сбой. UPD 01.12.2025: CyrusOne сообщила, что сбой произошёл из-за проблем с чиллерами, но компания уже приняла меры и повысила надёжность охлаждения пострадавшего ЦОД. UPD 08.12.2025: причиной сбоя официально назван человеческий фактор — при подготовке системы охлаждения к холодам не были соблюдены все необходимые процедуры.
17.11.2025 [10:14], Руслан Авдеев
Vertiv представила иммерсионные СЖО CoolCenter Immersion на 25–240 кВтVertiv объявила о выпуске системы погружного охлаждения CoolCenter Immersion. Иммерсионная СЖО обеспечивает поддерживает отвод от 25 кВт до 240 кВт на модуль ёмкостью 24U до 52U, обеспечивая при этом PUE на уровне 1,08. По словам компания, иммерсионное охлаждение играет всё более важную роль из-за повсеместного внедрения HPC- и ИИ-платформ. В Vertiv CoolCenter Immersion применяется многолетний опыт, полученный Vertiv в сфере СЖО для создания спроектированных «под ключ» систем, безопасно и эффективно справляющихся с высокоплотными системами. Операторы ЦОД смогут практично масштабировать ИИ-инфраструктуру без ущерба надёжности и удобству обслуживания. Каждая система включает внутренний или внешний резервуар для теплоносителя, блок распределения жидкости (CDU), датчики температуры, а также насосы с регулируемой скоростью работы и трубки. Модуль включает два источника питания и резервные насосы, а также встроенные датчики мониторинга состояния и 9″ сенсорный дисплей. Предусмотрена возможность подключения к системе управления зданием (BMS). Тепло отводится через пластинчатый теплообменник во внешний водяной контур. Vertiv уже заключила контракт с Digital Realty в Италии на поставку электроэнергии и систем охлаждения для римского объекта Digital ROM1 мощностью 3 МВт. Запуск ЦОД запланирован на 2027 год. На объекте будет использоваться фрикулинг и система охлаждения, готовая к ИИ-нагрузкам, передаёт DataCenter Dynamics. Сделка стала ещё одной в череде европейских проектов Digital Realty в Париже, Мадриде, Амстердаме и др.
Источник изображения: Vertiv В Digital Realty подчеркнули, что Рим становится важнейшим шлюзом для цифровой инфраструктуры между Европой и Средиземноморским регионом. Передовые технологии для ROM1 помогут стать дата-центру стратегическим ИИ-хабом, задающим новые стандарты энергоэффективности и производительности в сфере HPC. Также Vertiv работает с Nextra в Африке и намерена сотрудничать с Ezditek для создания ЦОД в Саудовской Аравии. Ранее сообщалось, что нежелание NVIDIA сертифицировать иммерсионные СЖО во многом тормозит их развитие. Прямое жидкостное охлаждение (DLC) менее эффективно, чем иммерсионные системы, но NVIDIA всё ещё считает, что пока достаточно этого. Впрочем, эксперты прогнозируют, что настоящий расцвет технологии придётся на 2027–2028 гг. Ожидается, что она будут активно распространяться после выхода ускорителей NVIDIA Rubin Ultra.
07.11.2025 [12:17], Сергей Карасёв
Sugon ScaleX640 — первая в мире стоечная система с 640 ИИ-ускорителямиКитайская компания Sugon (Dawning Information Industry), специализирующаяся на разработке суперкомпьютеров, серверов и СХД, представила ИИ-систему ScaleX640. Это, как утверждается, первое в мире решение в виде одной стойки, допускающее использование до 640 ускорителей. Суперускоритель выполнен на «сверхскоростной ортогональной архитектуре». Используются вычислительные узлы высокой плотности, которые допускают установку ИИ-карт различных производителей. Говорится о совместимости с существующей экосистемой ПО для задач ИИ. Платформа ScaleX640 предусматривает применение иммерсионного жидкостного охлаждения с фазовым переходом и высоковольтных источников питания постоянного тока (DC). СЖО способна отвести до 1,72 МВт. По заявлениям Sugon, по плотности вычислений новинка до 20 раз превосходит другие суперузлы, доступные на рынке. При этом обеспечивается высокий показатель эффективности использования электроэнергии (PUE) — 1,04. Два суперузла ScaleX640 могут формировать вычислительный блок с поддержкой 1280 ускорителей ИИ. Стойки соединяются между собой посредством высокоскоростной сети. В целом, возможно развёртывание кластеров, насчитывающих до 100 тыс. ИИ-карт. Sugon утверждает, что по сравнению с традиционными платформами новая система обеспечивает повышение производительности на 30–40 % в сценариях обучения больших языковых моделей (LLM) с триллионами параметров и инференса. Проведённое всестороннее тестирование ScaleX640 говорит о высокой надёжности и стабильности работы комплекса.
06.11.2025 [17:12], Руслан Авдеев
Daikin Applied купила разработчика необычных СЖО с отрицательным давлением ChilldyneDaikin Applied Americas сообщила о покупке компании Chilldyne — лидера в сфере СЖО с отрицательным давлением, применяемых в HCP/ИИ-платформах. Покупка поможет пополнить существующее портфолио Applied для дата-центров, поддерживая миссию компании по предоставлению комплексных решений для охлаждения, отвечающих требованиям гиперскейлеров для дата-центров следующего поколения. Сделка позволит Chilldyne быстро расширить присутствие на рынке. Как заявляют в Daikin Applied Materials, покупая Chilldyne, компания стремится удовлетворить меняющиеся потребности клиентов и задать новый стандарт при обеспечении производительности и работы без сбоев. Утверждается, что системы компании с отрицательным давлением в контуре выгоднее экономически и надёжнее в сравнении с традиционными системами для ЦОД с положительным давлением. Проще говоря, в случае повреждения контура СЖО Chilldyne Cool-Flo охлаждающая жидкость будет из него высосана, что снизит риск повреждения оборудования, вероятность незапланированных простоев и стомость обслуживания. Покупка Chilldyne стала поворотным моментом в реализации более широкой стратегии Daikin Applied по созданию всеобъемлющей экосистемы решений для охлаждения для ЦОД гиперскейл-уровня. Chilldyne и DDC Solutions, купленная Daikin Applied в августе 2025 года, позволяет интегрировать СЖО Chilldyne с модульными охлаждающими шкафами DDC. Вместе они обеспечат высокоэффективные и надёжные решения для стоек высокой плотности. Это уже третья по счёту сделка в области СЖО для ЦОД за последние недели. Так, на днях появилась новость, что Vertiv купит за $1 млрд поставщика сервисов для СЖО и HVAC PurgeRite, а Eaton поглотит Boyd Thermal, чтобы пополнить портфолио решений для ИИ ЦОД передовыми СЖО. |
|
