Материалы по тегу: nvidia
|
12.09.2025 [11:39], Сергей Карасёв
OpenAI и NVIDIA инвестируют миллиарды долларов в британские дата-центрыКомпании OpenAI и NVIDIA, по сообщению Bloomberg News, намерены в ближайшее время объявить о масштабных инвестициях в инфраструктуру дата-центров в Великобритании. Речь идёт о вложениях в размере «миллиардов долларов». Ожидается, что анонс будет сделан на следующей неделе во время второго государственного визита президента США Дональда Трампа в Великобританию, который пройдёт с 17 по 19 сентября. Король Карл III и королева Камилла примут американского лидера и его жену Меланию в Виндзорском замке в графстве Беркшир. В состав делегации США войдут руководители ряда американских корпораций, включая генерального директора OpenAI Сэма Альтмана (Sam Altman) и главу NVIDIA Дженсена Хуанга (Jensen Huang). Ожидается, что эти компании в рамках финансирования развития британских ЦОД объединят усилия с лондонской фирмой Nscale Global Holdings Ltd. В целом, как ожидается, во время предстоящего визита Трампа американские компании из различных отраслей объявят о десятках миллиардов долларов инвестиций в Великобританию. Представители OpenAI и NVIDIA ситуацию пока никак не комментируют. OpenAI стремится укрепить позиции в Европе, где она сталкивается с гораздо более строгим регулированием, нежели в США. С мая нынешнего года компания реализует программу OpenAI for Countries, которая предполагает создание ИИ ЦОД по всему миру. Первым европейским дата-центром, создающимся в рамках этой инициативы, станет объект Stargate Norway в Норвегии. На начальном этапе мощность этого ЦОД составит 230 МВт с возможностью последующего добавления ещё 290 МВт. Интерес к развитию инфраструктуры дата-центров в Великобритании проявляют и другие американские компании. В частности, в конце прошлого года стало известно о том, что Cloud HQ, CyrusOne, CoreWeave и ServiceNow намерены вложить около $8,22 млрд в строительство ЦОД в этой стране.
12.09.2025 [07:26], Сергей Карасёв
Kioxia и NVIDIA разрабатывают SSD нового типа для ИИ-систем в качестве альтернативы HBMКомпании Kioxia и NVIDIA, по сообщению Nikkei, разрабатывают SSD нового типа для ИИ-систем, которые по показателю IOPS (операций ввода/вывода в секунду) будут превосходить современные изделия практически в 100 раз. Предполагается, что такие устройства смогут стать альтернативой HBM при расширении памяти ИИ-ускорителей. Коити Фукуда (Koichi Fukuda), главный инженер подразделения твердотельных накопителей Kioxia, рассказал, что компания проектирует устройства в соответствии с требованиями NVIDIA. Речь идёт об SSD следующего поколения с интерфейсом PCIe 7.0. Предполагается, что такие изделия смогут демонстрировать показатель IOPS на уровне 100 млн, что позволит применять их в том числе для ИИ-инференса. Более того, NVIDIA стремится к достижению значения IOPS в 200 млн. Такого результата Kioxia рассчитывает добиться путём объединения в массив двух SSD нового типа. Особенностью этих накопителей станет то, что они смогут обмениваться данными с GPU напрямую, не вовлекая в эти операции CPU, как в случае с традиционными решениями. Пробные поставки устройств планируется организовать во II половине 2026 года, тогда как на коммерческом рынке накопители нового типа могут появиться в 2027-м. Согласно прогнозам Kioxia, к 2029 году почти половина спроса на NAND-память, которая применяется в SSD, будет связана с системами ИИ. Участники рынка также говорят о возобновлении инвестиций в разработку NAND-продуктов после двухлетнего затишья. Восстановление активности среди производителей объясняется растущей потребностью в высокоскоростных накопителях большой вместимости с высокими показателями быстродействия при произвольном доступе. Одним из перспективных направлений названо создание решений на основе флеш-памяти с высокой пропускной способностью HBF (High Bandwidth Flash): разработки в данной сфере, в частности, ведёт SanDisk.
11.09.2025 [08:48], Руслан Авдеев
NVIDIA работает над эталонным дизайном гигаваттных ИИ-фабрикNVIDIA анонсировала разработку эталонного дизайна дата-центров гигаваттного уровня с использованием технологии цифровых двойников. Эталонные проекты ИИ ЦОД будут доступны компаниям-партнёрам по всему миру. В разработке нового решения компании помогают Schneider Electric, Siemens, Vertiv, Cadence, emeraldai, E Tech Group, phaidra.ai, PTC и Vertech. Для создания высокопроизводительной ИИ-инфраструктуры будет предложена технология цифровых двойников Omniverse Blueprint, позволяющая создавать высокопроизводительную и энергоэффективную ИИ-инфраструктуру. Технология позволяет заказчикам объединять все данные, связанные с созданием дата-центра, в единую универсальную модель, отражающую как можно больше деталей виртуального и физического строения объектов. Благодаря этому можно проектировать и моделировать оборудование с высокой энергетической и вычислительной плотностью. Модели ИИ-фабрики можно подключить к более масштабным системам: энергосетям, системам водоснабжения и транспортным артериям, что требует координации и моделирования на протяжении всего жизненного цикла кампусов ЦОД. В модель включаются локальные генерирующие мощности, энергохранилища, технологии охлаждения и даже ИИ-агенты для управления работой ЦОД. В компании заявляют, что только одновременное проектирование инфраструктуры и технологического стека обеспечивает настоящую оптимизацию, при которой питание, охлаждение, ускорители и ПО рассматриваются как единое целое.
Источник изображения: NVIDIA В марте 2024 года сообщалось, что NVIDIA и Siemens внедрят ИИ в промышленное проектирование и производство с помощью интеграции NVIDIA Omniverse Cloud API в платформу Xcelerator. Тогда же Schneider Electric и NVIDIA объявили о разработке эталонных проектов инфраструктур ИИ ЦОД. В рамках объявленного сотрудничества AVEVA, дочерняя компания Schneider Electric, должна была подключить свою платформу цифровых двойников к NVIDIA Omniverse, создав единую среду для виртуального моделирования и совместной работы.
10.09.2025 [13:35], Сергей Карасёв
NVIDIA представила соускоритель Rubin CPX со 128 Гбайт GDDR7 для масштабных задач ИИ-инференсаNVIDIA неожиданно анонсировала чип Rubin CPX — GPU нового класса, спроектированный для масштабных задач ИИ-инференса и работы с моделями, использующими длинный контекст. Поставки решения планируется организовать в конце 2026 года. Чип Rubin CPX выполнен в виде монолитного кристалла и оснащён 128 Гбайт памяти GDDR7. Заявленная ИИ-производительность достигает 30 Пфлопс в режиме NVFP4. Предусмотрены по четыре блока NVENC и NVDEC для кодирования и декодирования видеоматериалов. Новинка дополнит другие ускорители компании. Оркестрацией нагрузок будет заниматься платформа NVIDIA Dynamo, распределяющая нагрузки между подходящими для каждой задачи ускорителями. Изделие Rubin CPX предназначено для использования вместе с Arm-процессорами Vera и ускорителями Rubin в составе новой стоечной платформы NVIDIA Vera Rubin NVL144 CPX. Эта система будет объединять 144 чипа Rubin CPX, 144 чипа Rubin и 36 процессоров Vera (88 кастомных 3-нм Arm-ядер). Говорится об использовании суммарно 100 Тбайт памяти с агрегированной пропускной способностью 1,7 Пбайт/с. Общая производительность на операциях NVFP4 — до 8 Эфлопс, что примерно в 7,5 раза больше по сравнению с системами NVIDIA GB300 NVL72. Задействована система жидкостного охлаждения. Кроме того, NVIDIA планирует выпуск двухстоечного решения, включающего стойку Vera Rubin NVL144 CPX и «обычную» стойку Vera Rubin NVL144. «Платформа Vera Rubin ознаменует собой новый скачок производительности в области вычислений ИИ, предлагая как GPU следующего поколения Rubin, так и чип нового класса CPX. Это первый CUDA GPU, специально разработанный для ИИ с длинным контекстом, когда модели одновременно обрабатывают миллионы токенов», — отмечает Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. Основная задача Rubin CPX — работа с контекстом в больших моделях и создание KV-кеша. Эта операция ограничена вычислительными способностями чипа, тогда как генерация токенов зависит уже от пропускной способности памяти и интерконнекта для быстрого обмена данными. NVIDIA предложила разделить эти этапы и на аппаратном уровне. CPX лишён HBM, зато операции возведения в степень он делает втрое быстрее, чем Blackwell Ultra.
07.09.2025 [01:30], Владимир Мироненко
NVIDIA потратит $1,5 млрд на аренду собственных ИИ-ускорителей у Lambda, в которую сама же и инвестировалаNVIDIA, являющаяся поставщиком и инвестором Lambda, стала её крупнейшим клиентом. Как сообщает ресурс The Information, компания заключила соглашения со стартапом на общую сумму $1,5 млрд, которая пойдёт на аренду серверов, оснащённых её собственными ускорителями. По данным источников The Information, NVIDIA заключила соглашение под кодовым названием Project Comet об аренде 10 тыс. ускорителей NVIDIA сроком на четыре года на сумму около $1,3 млрд, а также отдельную сделку на $200 млн на аренду еще 8 тыс. ускорителей NVIDIA (возможно, более низкого класса или более старых моделей). Похожую сделку по аренде собственных ускорителей NVIDIA ранее заключила с CoreWeave в которую до этого она же и инвестировала. Такие сделки относятся к разряду «циклических» финансовых соглашений, используемых NVIDIA для продвижения своих чипов и оказания помощи небольшим поставщикам облачных услуг в конкуренции с традиционными гиперскейлерами. В режиме «внутреннего круговорота» ИИ-рынка NVIDIA одновременно выступает поставщиком, инвестором и заказчиком, поддерживая несколько неооблаков. По неофициальным данным, точно такая же ситуация и у AMD с TensorWave. Эти циклические соглашения подчёркивают, насколько ограниченным стало предложение мощных ускорителей. Несмотря на то, что NVIDIA доминирует в разработке и производстве чипов, она предпочитает сотрудничать с более мелкими игроками, такими как Lambda и CoreWeave, чтобы обеспечить себе доступ к готовой ИИ-инфраструктуре. Бизнес-модель Lambda такая же, как у CoreWeave. Она включает в себя аренду площадей в ЦОД, развёртывание серверов, оснащённых ускорителями NVIDIA, с последующим предоставлением мощностей в аренду. Что примечательно, NVIDIA, подобно Amazon и Microsoft, будет использовать арендуемые у Lambda серверы для собственных исследований. Контракты с Amazon и Microsoft принесли Lambda во II квартале почти $114 млн дохода. Как сообщает futunn.com, Lambda ожидает, что её выручка от облачных технологий превысит $1 млрд к 2026 году и $20 млрд к 2030 году и надеется на контракты с крупными разработчиками в сфере ИИ, такими как OpenAI, Google, Anthropic и xAI. Lambda также ожидает, что к 2030 году её мощности достигнут почти 3 ГВт, тогда как во II квартале она составляла всего 47 МВт. К этому моменту компания рассчитывает получить в своё распоряжение 1 млн ускорителей NVIDIA. Сейчас Lambda готовится к выходу на биржу, что упростит расширение деятельность за счёт заёмного финансирования. С Lambda связана и ещё одна необычная сделка — в прошлом году Supermicro, которая является одним из ключевых поставщиков Lambda, впервые арендовала дата-центр и тут же сдала его в субаренду Lambda. По словам экспертов, NVIDIA высоко оценивает сотрудничество с Lambda из-за нескольких факторов, один из которых заключается в том, что Lambda привлекает всё больше клиентов к переходу на её ускорители. Например, недавно Lambda подписала годовое соглашение со стартапом Midjourney, которое позволило ему перейти от ИИ-чипов Google TPU к ускорителям NVIDIA Blackwell. При этом Google, по слухам, тоже предлагает неооблаками свои фирменные ускорители.
06.09.2025 [13:42], Сергей Карасёв
Состоялся официальный запуск первого в Европе экзафлопсного суперкомпьютера JUPITERВ Юлихском исследовательском центре (FZJ) в Германии официально введён в эксплуатацию суперкомпьютер JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) — первый в Европе вычислительный комплекс экзафлопсного класса. Система будет использоваться в том числе для исследований в области климата, нейробиологии и квантового моделирования. Контракт на создание JUPITER подписан между Европейским совместным предприятием по развитию высокопроизводительных вычислений (EuroHPC JU) и консорциумом, в который входят Eviden (Atos) и ParTec. Суперкомпьютер состоит из блока Booster для решения ресурсоёмких задач и универсального блока cCuster. В основу Booster положена платформа BullSequana XH3000 с прямым жидкостным охлаждением. Используются около 6000 вычислительных узлов с гибридными ускорителями NVIDIA Quad GH200 и интерконнектом InfiniBand NDR200 (4×200G на узел, DragonFly+). В общей сложности задействованы почти 24 тыс. суперчипов NVIDIA GH200 (Grace Hopper). В июньском рейтинге TOP500 блок JUPITER Booster располагался на четвёртом месте: на тот момент его FP64-производительность составляла 793,4 Пфлопс. Теперь показатель преодолел рубеж в 1 Эфлопс. При этом ИИ-производительность, как ожидается, будет находиться на уровне 90 Эфлопс. «С запуском первого в Европе эксафлопсного суперкомпьютера мы открываем новую главу в развитии науки, искусственного интеллекта и инноваций. JUPITER укрепляет цифровой суверенитет Европы и ускоряет научные исследования», — отмечает Екатерина Захариева (Ekaterina Zaharieva), еврокомиссар по стартапам, исследованиям и инновациям. JUPITER планируется использовать для прогнозирования погоды и моделирования изменений климата, работы с европейскими большими языковыми моделями (LLM) и генеративным ИИ, разработки лекарственных препаратов и картирования человеческого мозга, моделирования молекулярной динамики и пр. Ожидается, что JUPITER сможет побить мировой рекорд по скорости обработки кубитов в квантовых вычислениях. Между тем продолжается создание блока cCuster. В его состав войдут энергоэффективные высокопроизводительные Arm-процессоры SiPearl Rhea1. Эти чипы содержат 80 ядер Neoverse V1 (Zeus), 64 Гбайт HBM2e и четыре интерфейса DDR5. Модуль cCuster будет оснащён двумя такими процессорами на каждый вычислительный узел, 512 Гбайт DDR5 (в отдельных узлах 1 Тбайт) и одним NDR200-подключением. Общее количество узлов составит около 1300. Ожидаемая FP64-производительность — 5 Пфлопс. Хранилище суперкомпьютера включает быструю СХД ExaFLASH и ёмкую ExaSTORE. ExaFLASH включает 20 All-Flash СХД IBM Storage Scale 6000: 21 Пбайт («сырая» 29 Пбайт), запись до 2 Тбайт/с, чтение до 3 Тбайт/с. В ExaSTORE под хранение будет выделена «сырая» ёмкость 300 Пбайт, а для резервного копирования и архивов будет использоваться ленточная библиотека ёмкостью 700 Пбайт. По оценкам, суммарные расходы на JUPITER и его эксплуатацию в течение шести лет достигнут примерно €500 млн. Половину от этой суммы предоставит EuroHPC, а остальную часть покроют Федеральное министерство образования и научных исследований Германии (BMBF) и Министерство культуры и науки земли Северный Рейн-Вестфалия (MKW NRW). Машина размещена в модульном ЦОД, что упростит дальнейшую модернизацию. Нужно отметить, что на сегодняшний день только три суперкомпьютера в мире официально преодолели планку в 1 Эфлопс. Это машины El Capitan, Frontier и Aurora: все они установлены в лабораториях Министерства энергетики США (DoE). Впрочем, Китай о своих HPC-комплексах публично практически не говорит уже несколько лет, так что реальный список экзафлопсных систем гораздо больше.
05.09.2025 [15:30], Руслан Авдеев
«Мрачная научная фантастика»: США намерены заставить NVIDIA и AMD продавать ИИ-ускорители американцам в приоритетном порядкеАмериканские законодатели намерены применить принцип «Америка превыше всего» к продаже передовых полупроводников, предполагающий право преимущественного приобретения чипов местными компаниями, сообщает The Register. В законопроекте «О гарантиях доступа и инноваций для национального ИИ» (GAIN AI Act), представляющим собой поправки в «Закон о национальной обороне», заявляется, что организации США, включая стартапы и университеты, должны получать наилучшие возможности для инноваций и использования потенциала искусственного интеллекта. Если законопроект будет одобрен Конгрессом США и президентом, экспортёров ждут важные изменения. Желающие получить экспортные лицензии в страны, «вызывающие обеспокоенность», должны будут подтвердить, что весь внутренний спрос на их продукцию удовлетворён, а американские покупатели имели приоритетный доступ к чипам. Министерство торговли США будет отказывать в выдаче лицензий на экспорт наиболее производительных ИИ-чипов, если американские организации ожидают поставок. При этом, согласно новым правилам, под экспортные ограничения попадут не только серверные ускорители, но и игровые GPU класса RTX 5090. Вполне ожидаемо, в NVIDIA не восторге от возможных изменений. В компании называют такие правила «мрачной научной фантастикой» — продажи по всему миру якобы ничего не лишают американских клиентов, а лишь расширяют рынок для многих американских бизнесов и целых отраслей. «Подкидывающие» Конгрессу фейковые новости эксперты лишают Америку шанса на лидерство в сфере ИИ, заявляют в NVIDIA. Глава компании Дженсен Хуанг (Jensen Huang) неоднократно говорил, что запреты только помогают Китаю развивать собственные ИИ-компетенции.
Источник изображения: Joe Richmond/unsplash.com NVIDIA считает, что GAIN AI Act опирается на ошибочную логику и фундаментальное непонимание работы цепочек поставок. В документе утверждается, что спрос на ускорители сейчас значительно превышает предложение, но именно так, по мнению NVIDIA, и должен работать свободный рынок. Более того, сами по себе чипы бесполезны, если их негде развернуть. Нужны современные ЦОД, оснащённые современными же системами охлаждения, электропитания и др. По словам Хуанга, NVIDIA отдаёт приоритет покупателям, готовым внедрять новые решения, а иначе ускорители и оборудование будут без дела лежать на складах. Стоит отметить, что законопроект GAIN AI Act запрещает и производство передовых чипов специально для стран, «вызывающих обеспокоенность». Это весьма недвусмысленная отсылка к урезанным ускорителям NVIDIA H20 и AMD MI308 для китайского рынка. Летом США одобрила возобновление их экспорта в обмен на 15 % от всей выручки таких поставок. В GAIN AI Act также утверждается, что большее количество чипов для КНР означает меньшее количество чипов для США, но в законопроекте не учитывается, насколько слабее «оптимизированные» для КНР. H20 основана на технологии трёхлетней давности и практически на порядок менее производителен, чем чипы Blackwell, продаваемые американским клиентам. Более того, H20 опирается на старый техпроцессе TSMC, который не может использоваться для выпуска Blackwell (как рассчитывают авторы законопроекта). Другими словами, новый закон может лишь закрыть крупный рынок для NVIDIA и AMD, в то же время способствуя появлению всё более конкурентоспособных китайских полупроводников.
03.09.2025 [14:11], Сергей Карасёв
Acer представила компактную ИИ-станцию Veriton GN100 за $4000 с суперчипом NVIDIA GB10Компания Acer анонсировала рабочую станцию небольшого форм-фактора Veriton GN100 AI Mini Workstation, предназначенную для решения задач в области ИИ. Новинка, в частности, обеспечивает возможность локального запуска моделей с большим количеством параметров, снижая зависимость от облачной инфраструктуры. Устройство выполнено в корпусе с габаритами 150 × 150 × 50,5 мм. Основой служит суперчип NVIDIA GB10 Grace Blackwell, который объединяет ускоритель Blackwell с тензорными ядрами пятого поколения и 20-ядерный процессор Grace (10 × Arm Cortex-X925 и 10 × Arm Cortex-A725). Заявленная ИИ-производительность достигает 1000 TOPS на операциях FP4. Новинка несёт на борту 128 Гбайт памяти LPDDR5x, а вместимость SSD формата M.2 (NVMe) может достигать 4 Тбайт (поддерживается шифрование данных). В оснащение входят адаптеры Wi-Fi 7 и Bluetooth 5.1, а также сетевой контроллер NVIDIA ConnectX-7 SmartNIC. Предусмотрены четыре порта USB 3.2 Type-C, интерфейс HDMI 2.1b и разъём RJ45 для сетевого кабеля. Весит устройство около 1,5 кг. В качестве программной платформы применяется NVIDIA DGX OS — модификации Ubuntu, адаптированная специально для работы с ИИ. Две рабочие станции Veriton GN100 AI Mini Workstation посредством ConnectX-7 могут быть объединены в одну систему, что позволит работать с ИИ-моделями, насчитывающими до 405 млрд параметров. Говорится о поддержке таких инструментов, как PyTorch, Jupyter и Ollama. Приобрести новинку можно будет по ориентировочной цене $4000 или €4000 в зависимости от региона продаж.
03.09.2025 [09:47], Владимир Мироненко
Гибридный суперчип NVIDIA GB10 оказался технически самым совершенным в семействе BlackwellNVIDIA поделилась подробностями о суперчипе GB10 (Grace Blackwell), который ляжет в основу рабочих станций DGX Spark (ранее DIGITS) для ИИ-задач, пишет ресурс ServeTheHome. Ранее сообщалось, что GB10 был создан NVIDIA в сотрудничестве MediaTek. GB10 объединяет чиплет CPU от MediaTek (S-Dielet) с ускорителем Blackwell (G-Dielet) с помощью 2.5D-упаковки. Оба кристалла изготавливаются по 3-нм техпроцессу TSMC. Как отметил ServeTheHome, GB10 технически является самым передовым продуктом на архитектуре Blackwell на сегодняшний день. CPU включает 20 ядер на базе архитектуры Armv9.2, которые разбиты на два кластера по десять ядер (Cortex-X925 и Cortex-A725). На каждый кластер приходится 16 Мбайт кеш-памяти L3. Унифицированная оперативная память LPDDR5X-9400 ёмкостью 128 Гбайт подключена напрямую к CPU через 256-бит интерфейс с пропускной способностью 301 Гбайт/с. Объёма памяти достаточно для работы с моделями с 200 млрд параметров. На кристалле CPU также находятся контроллеры HSIO для PCIe, USB и Ethernet. Для адаптера ConnectX-7 с поддержкой RDMA и GPUDirect выделено всего восемь линий PCIe 5.0, что не позволит работать обоим имеющимся портам в режиме 200GbE. Именно этот адаптер позволяет объединить две системы DGX Spark в пару для работы с ещё более крупными моделями. G-Die имеет ту же архитектуру, что и B100. Ускоритель оснащён тензорными ядрами пятого поколения и RT-ядрами четвёртого поколения и обеспечивает производительность 31 Тфлопс в FP32-вычислениях. ИИ-производительность в формате NVFP4 составляет 1000 TOPS. Ускоритель подключён к CPU через шину NVLink C2C с пропускной способностью 600 Гбайт/с. G-Die оснащён 24 Мбайт кеш-памяти L2, которая также доступна ядрам CPU в качестве кеша L4, что обеспечивает когерентность памяти между CPU и GPU на аппаратном уровне. Поддерживается технология SR-IOV, интегрированы движки NVDEC и NVENC. Возможно подключение до четырёх дисплеев: три DisplayPort Alt-mode (4K@120 Гц) и один HDMI 2.1a (8K@120 Гц). Что касается безопасности, есть выделенные процессоры SROOT и OSROOT, а также поддержка fTPM и дискретного TPM (по данным Wccftech). TDP GB10 составляет 140 Вт.
02.09.2025 [12:15], Сергей Карасёв
MSI выпустила серверы на платформе NVIDIA MGX с ускорителями RTX Pro 6000 Blackwell Server EditionКомпания MSI анонсировала серверы CG480-S5063 и CG290-S3063 на модульной архитектуре NVIDIA MGX. Новинки, ориентированные на задачи ИИ, оснащаются ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition с 96 Гбайт GDDR7. Модель CG480-S5063 выполнена в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP) с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5 (RDIMM 6400/5200 или MRDIMM 8000). Во фронтальной части могут быть размещены 20 накопителей E1.S с интерфейсом PCIe 5.0 x4 (NVMe). Кроме того, есть два внутренних коннектора М.2 2280/22110 (PCIe 5.0 x2; NVMe). Система предлагает восемь слотов PCIe 5.0 x16 для карт FHFL двойной ширины и пять слотов PCIe 5.0 x16 для карт FHFL одинарной ширины. Таким образом, могут быть задействованы до восьми ИИ-ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на основе Intel X710-AT2, выделенный сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Питание обеспечивают четыре блока мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Задействовано воздушное охлаждение с вентиляторами, допускающими горячую замену. Диапазон рабочих температур — от 0 до +35 °C. В свою очередь, сервер CG290-S3063 типоразмера 2U рассчитан на один процессор Xeon 6500P/6700P с TDP до 350 Вт. Предусмотрены 16 слотов для модулей DDR5 (RDIMM 6400/5200 или MRDIMM 8000). В тыльной части расположены отсеки для четырёх SFF-накопителей U.2 с интерфейсом PCIe 5.0 x4 (NVMe). Внутри есть два коннектора М.2 2280/22110 для SSD (PCIe 5.0 x2; NVMe). Данная система предоставляет четыре слота PCIe 5.0 x16 для карт FHFL двойной ширины и три слота PCIe 5.0 x16 для карт FHFL одинарной ширины. Могут быть использованы до четырёх ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. Прочие характеристики включают контроллер ASPEED AST2600, сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Применены четыре блока питания мощностью 2400 Вт с сертификатом 80 PLUS Titanium и воздушное охлаждение. |
|



