Материалы по тегу: сервер
|
07.11.2025 [12:17], Сергей Карасёв
Sugon ScaleX640 — первая в мире стоечная система с 640 ИИ-ускорителямиКитайская компания Sugon (Dawning Information Industry), специализирующаяся на разработке суперкомпьютеров, серверов и СХД, представила ИИ-систему ScaleX640. Это, как утверждается, первое в мире решение в виде одной стойки, допускающее использование до 640 ускорителей. Суперускоритель выполнен на «сверхскоростной ортогональной архитектуре». Используются вычислительные узлы высокой плотности, которые допускают установку ИИ-карт различных производителей. Говорится о совместимости с существующей экосистемой ПО для задач ИИ. Платформа ScaleX640 предусматривает применение иммерсионного жидкостного охлаждения с фазовым переходом и высоковольтных источников питания постоянного тока (DC). СЖО способна отвести до 1,72 МВт. По заявлениям Sugon, по плотности вычислений новинка до 20 раз превосходит другие суперузлы, доступные на рынке. При этом обеспечивается высокий показатель эффективности использования электроэнергии (PUE) — 1,04. Два суперузла ScaleX640 могут формировать вычислительный блок с поддержкой 1280 ускорителей ИИ. Стойки соединяются между собой посредством высокоскоростной сети. В целом, возможно развёртывание кластеров, насчитывающих до 100 тыс. ИИ-карт. Sugon утверждает, что по сравнению с традиционными платформами новая система обеспечивает повышение производительности на 30–40 % в сценариях обучения больших языковых моделей (LLM) с триллионами параметров и инференса. Проведённое всестороннее тестирование ScaleX640 говорит о высокой надёжности и стабильности работы комплекса.
06.11.2025 [14:09], Сергей Карасёв
Новая фаза роста: глава AMD Лиза Су рассказала о прогрессе в разработке ИИ-систем следующего поколенияПрезидент и генеральный директор AMD Лиза Су (Lisa Su), по сообщению The Register, рассказала о прогрессе компании в сфере разработки продуктов следующего поколения для дата-центров, ориентированных на ИИ-нагрузки. Речь идёт, в частности, об ускорителях на базе GPU и мощных серверных стойках Helios. О разработке Helios (на изображении) было впервые объявлено в июне нынешнего года. Это стойка двойной ширины, которая будет оснащаться серверными модулями с процессорами AMD EPYC Venice с ядрами Zen 6 и ускорителями Instinct MI400. Кроме того, упомянуты сетевые адаптеры Pensando. Чипы Venice (EPYC шестого поколения) будут производиться с использованием 2-нм техпроцесса TSMC.
Источник изображения: AMD «Разработка наших GPU серии MI400 и стоечного решения Helios идёт быстрыми темпами, чему способствует тесное сотрудничество с гиперскейлерами, ИИ-компаниями, а также OEM- и ODM-партнёрами. Это позволит начать широкомасштабное развёртывание систем в следующем году», — сообщила Су. По её словам, решающую роль в разработке Helios играют специалисты компании ZT Systems, которую AMD купила весной нынешнего года за $4,9 млрд. Производственное подразделение этой фирмы недавно было продано поставщику услуг по выпуску электроники Sanmina за $3 млрд. Процессоры EPYC Venice, ускорители Instinct MI400 и стоечные решения Helios дебютируют в 2026 году. Лиза Су подчёркивает, что бизнес AMD в области ИИ-решений для ЦОД вступает в «следующую фазу роста». При этом наблюдается повышение интереса к будущим продуктам со стороны потенциальных заказчиков. Глава AMD отмечает, что для изделий Instinct MI450 готовятся различные варианты исполнения. При этом фиксируется значительный интерес именно «к полноценному стоечному решению».
05.11.2025 [09:59], Сергей Карасёв
350-кВт ИИ-суперускоритель Alibaba Panjiu 128 Supernode объединяет 128 GPU мощностью до 2 кВтОблачная платформа Alibaba Cloud в ходе мероприятия 2025 OCP Global Summit анонсировала систему Panjiu 128 Supernode, предназначенную для решения наиболее ресурсоёмких задач в сфере ИИ. Новинка представляет собой стойку высокой плотности мощностью до 350 кВт. Решение имеет «ортогональную архитектуру» с возможностью размещения определённых компонентов перпендикулярно друг к другу. Говорится о поддержке до 128 ускорителей на базе GPU и о гибких возможностях в плане конфигурации CPU — GPU. Задействованы фирменные DPU-решения Cloud Infrastructure Processing Unit (CIPU) 2.0 и высокопроизводительные сетевые адаптеры. Кроме того, реализована поддержка протокола UALink, который разрабатывается в качестве альтернативы NVIDIA NVLink.
Источник изображения: Alibaba / OCP Благодаря модульной конструкции упрощаются обслуживание и замена узлов. Стойка оборудована высокоэффективной системой жидкостного охлаждения, которая позволяет использовать ускорители мощностью до 2000 Вт. В состав Panjiu 128 Supernode входят пассивные полки питания. При этом реализована схема энергоснабжения с резервированием N+2, что, по заявлениям Alibaba Cloud, помогает добиться доступности на уровне 99,9999 %. В целом, реализованная архитектура обеспечивает задержки на уровне 150 нс внутри одноуровневой mesh-фабрики. По сравнению с традиционными решениями сопоставимого класса ИИ-система на базе Panjiu 128 Supernode теоретически позволяет повысить производительность инференса на 50 %, говорит компания. Нужно отметить, что спрос на оборудование для ИИ-инфраструктур стремительно растёт. По оценкам IDC, во II квартале текущего года продажи серверов и СХД для ИИ-платформ в денежном выражении достигли $82 млрд, что на 166 % больше по сравнению с аналогичным периодом 2024-го ($30,8 млрд). Причем серверы с ИИ-ускорителями принесли 91,8 % от суммарной выручки.
04.11.2025 [15:26], Сергей Карасёв
Cisco представила платформу Unified Edge для периферийных ИИ-нагрузокКомпания Cisco анонсировала аппаратную платформу Unified Edge, объединяющую вычислительные ресурсы, сетевые функции, а также средства хранения данных и защитные инструменты. Решение разработано с прицелом на распределённые рабочие нагрузки ИИ. Cisco Unified Edge имеет модульную архитектуру. Система состоит из шасси Cisco UCS XE9305 и вычислительных узлов Cisco UCS XE130c M8. Шасси выполнено в форм-факторе 3U. Оно оборудовано двумя контроллерами Cisco Edge Chassis Management Controller с возможностью горячей замены: каждый из них содержит пять портов 25GbE, два порта 10GbE SFP+, сетевой порт управления 1GbE RJ45 и два разъёма USB Type-C. Кроме того, система наделена двумя блоками питания мощностью 2400 Вт с сертификатом 80 PLUS Titanium, а также пятью «акустически оптимизированными» вентиляторами диаметром 80 мм (допускается горячая замена). Есть слот PCIe 5.0 для HHHL-карты мощностью до 75 Вт (например, NVIDIA L4). В шасси могут быть установлены до пяти узлов Cisco UCS XE130c M8. Каждый из них несёт на борту процессор Intel Xeon 6 поколения Granite Rapids с 12, 20 или 32 P-ядрами. Доступны восемь слотов для модулей оперативной памяти DDR5-6400. Есть два тыльных порта 25GbE и два фронтальных разъёма 10GbE RJ45, коннекторы KVM м USB Type-C. Возможна установка одного GPU с интерфейсом PCIe 5.0 формата HHHL (до 75 Вт). Кроме того, может быть добавлена одна карта расширения PCIe 5.0 HHHL — NIC, DPU, IPU и пр. Для вычислительных узлов предлагаются различные конфигурации подсистемы хранения данных. Это могут быть два SSD стандарта M.2 вместимостью 960 Гбайт каждый в конфигурации RAID 1, а также три или четыре E3.S NVMe SSD на 30 Тбайт каждый с фронтальным доступом. Диапазон рабочих температур простирается от +5 до +45 °C. Платформа Cisco Unified Edge уже доступна для заказа: поставки планируется организовать до конца текущего года. Новинка ориентирована на розничные торговые сети, медицинские учреждения, различные предприятия и организации, которым требуется агентный ИИ и инференс в реальном времени.
30.10.2025 [12:20], Сергей Карасёв
ASUS представила ИИ-сервер XA NB3I-E12 на базе NVIDIA HGX B300Компания ASUS анонсировала сервер XA NB3I-E12 на аппаратной платформе NVIDIA HGX B300, предназначенный для интенсивных нагрузок ИИ. В качестве потенциальных заказчиков системы названы предприятия, которые работают с большими языковыми моделями (LLM) и НРС-приложениями: это могут быть научно-исследовательские структуры и финансовые организации, компании автомобильного сектора и пр. Сервер выполнен в форм-факторе 9U. Возможна установка двух процессоров Intel Xeon 6700P поколения Granite Rapids с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM / 3DS RDIMM. Во фронтальной части расположены 10 посадочных мест на SFF-накопителей (NVMe). Предусмотрены четыре слота расширения PCIe 5.0 х16 и один слот PCIe 5.0 х8. Система имеет архитектуру 8-GPU (NVIDIA HGX B300 288GB 8-GPU). Задействованы сетевые адаптеры NVIDIA ConnectX-8 и DPU NVIDIA BlueField-3. Реализованы два сетевых порта 10GbE с разъёмами RJ45 на основе контроллера Intel X710-AT2 и выделенный сетевой порт управления (RJ45). Питание обеспечивают 10 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Применяется воздушное охлаждение; диапазон рабочих температур — от +10 до +35 °C. ASUS отмечает, что сервер имеет модульную конструкцию, благодаря чему минимизируется использование кабелей, упрощается обслуживание и повышается ремонтопригодность. Габариты устройства составляют 945 × 447 × 394,5 мм, масса — примерно 120 кг без установленных накопителей.
29.10.2025 [23:10], Владимир Мироненко
Fplus расширила возможности управление серверами в BIOS v1.0.5Fplus объявила о выходе BIOS v1.0.5, которое обеспечивает больше возможностей для управления серверами, в том числе для контроля производительности, энергоэффективности и отказоустойчивости. В частности, в новой версии добавлена функция настройки состояний процессора: P-state, C-state, PM-state и T-state, что помогает снизить энергопотребление в периоды низкой нагрузки без ущерба для пиковой производительности. Кроме того, добавлена функция управления состоянием сервера после сбоя электропитания — сервер может автоматически возвращаться в рабочее состояние сразу после возобновления питания. В обновлении также добавилось несколько функций для управления памятью. Появление возможности ручной настройки частоты оперативной памяти повышает стабильность работы платформы, говорит производитель. Кроме того, была добавлена поддержка технологий SDDC (исправление ошибок в пределах одной микросхемы) и ADDDC (исправление ошибок в двух устройствах памяти одновременно). Для критически важных систем, где недопустима потеря информации, предусмотрен режим полного зеркалирования памяти, при котором доступный объём RAM уменьшается вдвое, зато повышается сохранность данных в памяти. В предыдущем релизе Fplus BIOS v1.0.3 была добавлена поддержка Intel VT-d, фильтрация источников загрузки и фильтрация USB-устройств, а также переработаны Boot Manager и механизм предоставления в интерфейсе BIOS подробной информаций об установленных устройствах. Отметим, что все эти функции по умолчанию доступны в BIOS большинства зарубежных серверных платформ. Ранее Fplus объявила о разработке собственных BIOS и BMC.
29.10.2025 [13:31], Руслан Авдеев
NVIDIA вложит в Nokia $1 млрд, чтобы ускорить интеграцию ИИ в сети 5G/6G28 октября торги акциями Nokia закрылись с ростом на 21 % после того, как NVIDIA объявила о намерении приобрести пакет ценных бумаг компании за $1 млрд. Такой цены акции в последний раз достигали в январе 2016 года. Это лишь часть партнёрства, которое позволит компаниям совместно готовить новые продукты для сетей 5G и 6G, сообщает Silicon Angle. Nokia входит в число крупнейших поставщиков базовых станций 5G и ПО для оптимизации сетевой инфраструктуры операторами связи. Также программное обеспечение применяется для управления данными абонентов и выполнения вспомогательных задач. По этим продуктам выручка Nokia за последний финансовый квартал составила €4,82 млрд. Ключевым в партнёрстве с NVIDIA является продукт Arc Aerial RAN Computer Pro (ARC-Pro). По сути, это референсный дизайн, который может использоваться производителями серверов при создании вычислительных модулей для телеком-провайдеров. Устройства получат прочные корпуса и смогут работать даже в неблагоприятных температурных условиях, с т.ч. на морозе. Каждая система ARC-Pro включает ускоритель Blackwell RTX PRO «уровня рабочей станции» на той же архитектуре, что и флагманские ускорители NVIDIA для дата-центров, 72-ядерный CPU Grace и сетевые интерфейсы ConnectX-8 (100/200GbE, 24 порта). Телеком-провайдеры могут использовать ARC-Pro с базовыми станциями, в т.ч. для обеспечения выполнения ИИ-задач. Например, оператор может внедрить нейросеть, способную автоматически оптимизировать энергопотребление станций стандарта 5G. В NVIDIA утверждают, что ARC-Pro поможет операторам и подготовить сети к переходу на 6G, упростить внедрение функций вроде Ultra MIMO. Последняя пока находится в стадии разработки и увеличит объём трафика, обрабатываемого базовыми станциями за счёт установки вспомогательных антенн. Кроме того, в семейство ARC входят ARC-Compact (NVIDIA L4 + ConnectX-7) и ARC-1 (GB200 NVL2 + BlueField-3/ConnectX). Nokia намерена интегрировать ARC-Pro в своё портфолио сетевого оборудования. Также компания намерена упростить использование приложений 5G и 6G с помощью экосистемы CUDA. По словам Nokia, новый качественный скачок на рынке телекоммуникаций — не просто переход от 5G к 6G, а фундаментальная перестройка сети на базе ИИ-решений всех уровней, от ЦОД до периферийных приложений. Партнёрство с NVIDIA ускорят внедрение концепции AI-RAN. Тестирование новых решений AI-RAN будут проводить при поддержке T-Mobile US. Ожидается, что оператор начнёт испытания в 2026 году в рамках подготовки инфраструктуры к 6G. Изначально испытания будут направлены на оценку производительности и эффективности технологии. Как сообщает Reuters, глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что сделка поможет США стать центром новой революции в сфере внедрения связи шестого поколения. Он рассчитывает, что коммерческое внедрение нового ИИ-оборудования начнётся в 2027 году, сначала для 5G, потом для 6G. Переговоры Nokia и NVIDIA велись с прошлого года. Инвестиции сделают NVIDIA вторым по величине акционером Nokia. Последняя выпустит для NVIDIA более 166 млн дополнительных акций, каждая из которых будет стоить $6,01.
28.10.2025 [08:43], Сергей Карасёв
Dell разработала модульные OCP-стойки мощностью 480 кВт для ИИ-системКомпания Dell в ходе мероприятия 2025 OCP Global Summit рассказала о разработке передовых систем для ресурсоёмких нагрузок ИИ и HPC. Речь идёт, в частности, о полностью модульных архитектурах на базе открытых спецификаций, оптимизированных для жидкостного охлаждения. Ихаб Тарази (Ihab Tarazi), главный технический директор и старший вице-президент Dell Technologies, сообщил, что компания установила сотни тысяч GPU-ускорителей в кластерах, использующих оборудование на основе стандарта OCP ORv3. Благодаря достижениям в области водоблоков, термоинтерфейсов, блоков распределения охлаждающей жидкости (CDU) и быстроразъёмных коллекторов упрощается развёртывание масштабных ИИ-платформ, насчитывающих десятки тысяч GPU. Кроме того, Dell совместно с Национальной лабораторией имени Лоуренса в Беркли (LBNL) при Министерстве энергетики США (DoE) разработала модульную OCP-стойку мощностью 480 кВт с возможностью дальнейшего масштабирования до 1 МВт. Решение, ориентированное на экстремальные нагрузки ИИ, допускает установку высокопроизводительных серверов, насчитывающих в общей сложности до 27 тыс. CPU-ядер и до 144 ускорителей NVIDIA GB200. В перспективе также могут использоваться чипы AMD и NVIDIA следующего поколения, такие как Instinct MI450 и Vera Rubin. По словам Тарази, аналогичная архитектура стоек применяется в рамках суперкомпьютерной программы Техасского университета в Остине (UT Austin) и при развёртывании суверенных облаков. В целом, модульный подход обеспечивает возможность независимой модернизации вычислительных ресурсов, хранилищ и сетевых компонентов, сокращая время обновления инфраструктуры с нескольких лет до нескольких недель. Инновации в сфере СЖО повышают надёжность и удобство обслуживания платформ в рамках масштабных ИИ-кластеров.
26.10.2025 [14:20], Сергей Карасёв
d-Matrix представила систему SquadRack для ИИ-инференса со сверхнизкой задержкойКомпания d-Matrix анонсировала систему SquadRack — стоечное решение для пакетного инференса со сверхнизкой задержкой. Это, как утверждается, первый в отрасли продукт данного класса. В его разработке приняли участие специалисты Arista, Broadcom и Supermicro. В основу SquadRack положена серверная платформа Supermicro X14 AI. Судя по изображениям, используется модель SYS-522GA-NRT, которая допускает установку двух процессоров Intel Xeon 6900 (Granite Rapids) и 24 модулей оперативной памяти DDR5-8800. Доступны 24 фронтальных отсека для SFF-накопителей U.2/U.3 (NVMe). Устройство выполнено в форм-факторе 5U. Система SquadRack предусматривает использование ускорителей d-Matrix Corsair. Их архитектура основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, решение обеспечивает непревзойдённую производительность ИИ-инференса: быстродействие достигает 2,4 Пфлопс (8-бит вычисления). Кроме того, задействованы IO-карты d-Matrix JetStream, предназначенные для распределения нагрузок инференса. Одна такая карта может обслуживать до четырёх экземпляров Corsair, обеспечивая сетевую задержку на уровне 2 мкс. Решение SquadRack также оборудовано PCIe-коммутаторами Broadcom для масштабирования в пределах одного узла. В свою очередь, связь между узлами обеспечивают коммутаторы Arista Leaf Ethernet, подключённые к картам JetStream. Применяется программный стек d-Matrix Aviator. В одну стойку могут быть установлены до восьми экземпляров SquadRack, что позволяет с высокой скоростью обрабатывать модели ИИ, насчитывающие до 100 млрд параметров. В целом, возможно масштабирование до сотен узлов в нескольких серверных стойках.
25.10.2025 [22:49], Сергей Карасёв
Микрооблако с микро-EPYC: Supermicro представила 20-узловой сервер на базе процессоров AMD GradoКомпания Supermicro анонсировала сервер 6U20N MicroBlade (MBA-315R-1G x20), построенный на аппаратной платформе AMD. Система может применяться для решения таких задач, как облачные вычисления, ИИ-инференс, веб-хостинг, потоковая передача видео и пр.
Источник изображений: Supermicro Устройство, выполненное в форм-факторе 6U, имеет 20-узловую конфигурацию. Каждый узел может нести на борту один процессор EPYC 4005 Grado с 16 вычислительными ядрами (32 потока) и показателем TDP до 170 Вт. Применяется воздушное охлаждение. Доступны четыре слота для модулей оперативной памяти DDR5-5600 суммарным объёмом до 192 Гбайт. Каждый узел оснащён двумя сетевыми интерфейсами 25GbE на базе Mellanox ConnectX-4, контроллером Aspeed AST2500 BMC и двумя коннекторами M.2 для SSD (NVMe). Опционально могут устанавливаться два накопителя U.2 (NVMe). Кроме того, возможен монтаж GPU-ускорителя формата FHHL с интерфейсом PCIe 5.0. Сервер 6U20N MicroBlade может нести на борту два Ethernet-коммутатора и два модуля управления. Питание обеспечивают восемь блоков мощностью 2200/3000 Вт с сертификатом 80 Plus Titanium. Диапазон рабочих температур простирается от +10 до +35 °C. В одну серверную стойку стандарта 48U могут быть установлены до восьми таких систем, что в сумме даст 160 вычислительных узлов. В целом, как отмечается, серверы MicroBlade на процессорах EPYC 4005 построены на основе уникальной модульной архитектуры Supermicro, которая обеспечивает сокращение количества кабелей до 95 %, экономию пространства до 70 % и снижение энергопотребления на 30 % по сравнению с традиционными серверами типоразмера 1U. |
|



