Материалы по тегу: ии

20.11.2025 [14:00], Руслан Авдеев

AMD, Cisco и Humain развернут ИИ-инфраструктуру на 1 ГВт — первые 100 МВт с Instinct MI450 появятся в Саудовской Аравии

Компании AMD, Cisco и саудовская инвестиционная компания Humain, участвующая в комплексных ИИ-проектах, объявили о создании совместного предприятия. Ожидается, что оно поддержит укрепление позиций Саудовской Аравии в качестве ведущего поставщика ИИ-решений мирового класса для клиентов регионального и мирового уровней.

Совместное предприятие должно заработать в 2026 году. Партнёры рассчитывают объединить передовые ИИ ЦОД Humain и технологическими решениями AMD и Cisco, обеспечив современную вычислительную инфраструктуру с низкими капитальными затратами и эффективным энергопотреблением. Эксклюзивными технологическими партнёрами предприятия выступят AMD и Cisco, к 2030 году с помощью их продуктов и сервисов планируется обеспечить до 1 ГВт ИИ-инфраструктуры.

Компании уже объявили о реализации первой очереди проекта — пока мощностью на 100 МВт, в т.ч. включающую мощности современного дата-центра Humain, ИИ-ускорители AMD Instinct MI450 и инфраструктуру Cisco. Ранее в 2025 году Cisco и AMD объявили о совместной инициативе с Humain, направленной на строительство самой открытой, масштабируемой и экономически эффективной ИИ-инфраструктуры. Новый анонс дополняет планы созданием совместного предприятия для того, чтобы ускорить преобразования и предоставить экономическую инфраструктуру для поддержки использования ИИ заказчиками.

 Источник изображения: NEOM/unsplash.com

Источник изображения: NEOM/unsplash.com

По словам главы AMD Лизы Су (Lisa Su), в рамках расширения сотрудничества в Саудовской Аравии также создаётся Центр передового опыта AMD (AMD Center of Excellence) для углубленной интеграции страны в ИИ-проекты. По данным Cisco, индекс готовности к развитию ИИ (AI Readiness Index) показывает, что, хотя 91 % организаций Саудовской Аравии готовятся к внедрению ИИ-агентов, только 29 % из них уже имеют доступ к значительным мощностям ИИ-ускорителей, что ещё раз подчёркивает острую потребность в современной инфраструктуре ЦОД.

Ожидается, что партнёрство не только обеспечит вычислительные мощности для масштабного внедрения ИИ, но и будет способствовать укреплению цифровой экономики страны. Это лишь один из многих проектов для Саудовской Аравии. В 2025 году сообщалось, что Oracle выделит $14 млрд на развитие ИИ и облака в стране, xAI ведёт с Humain переговоры о создании ИИ ЦОД там же, в августе появилась информация, что саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВт.

Постоянный URL: http://testsn.3dnews.ru/1132666
20.11.2025 [11:37], Сергей Карасёв

Представлен самый мощный суперкомпьютер на Ближнем Востоке — 122,8-Пфлопс система Shaheen III

Университет науки и технологий имени короля Абдаллы (KAUST) в Саудовской Аравии объявил о запуске вычислительного комплекса Shaheen III. На сегодняшний день, как утверждается, это самый мощный суперкомпьютер на Ближнем Востоке: его FP64-производительность достигает 122,8 Пфлопс. Применять Shaheen III планируется для решения широкого спектра ресурсоёмких задач. Среди них названа разработка нового поколения малых и больших языковых моделей (LLM), ориентированных на арабский регион.

Кроме того, суперкомпьютер поможет в создании цифрового двойника всего Аравийского полуострова — интегрированной среды моделирования, объединяющей атмосферные, океанические и земные процессы. Эта виртуальная модель будет способствовать решению комплексных проблем, таких как управление разливами нефти и оптимизация морских перевозок. В числе других задач названы оптимизация сельскохозяйственной деятельности и управления водными ресурсами, поиск передовых материалов, диагностика редких заболеваний, улучшение качества медицинской визуализации, разработка перспективных лекарственных препаратов и пр.

 Источник изображения: KAUST

Источник изображения: KAUST

Система создана компанией HPE на платформе Cray EX с прямым жидкостным охлаждением (DLC). В общей сложности задействованы 2800 гибридных суперчипов NVIDIA GH200 Grace Hopper с 72-ядерным Arm-процессором NVIDIA Grace и ускорителем NVIDIA H100 с 96 Гбайт памяти HBM3. Общее количество используемых ядер составляет 574 464. Применён интерконнект Slingshot-11. В качестве программной платформы используется HPE Cray OS.

В ноябрьском рейтинге самых мощных суперкомпьютеров мира TOP500 система Shaheen III занимает 18-ю позицию. Её теоретическое пиковое быстродействие заявлено на уровне 155,21 Пфлопс. Энергопотребление — 1,98 МВт.

Постоянный URL: http://testsn.3dnews.ru/1132664
20.11.2025 [10:11], Руслан Авдеев

EDF и OpCore переделают закрытую французскую ТЭС в крупный ИИ ЦОД стоимостью €4 млрд

Французская государственная энергетическая компания EDF (Électricité de France) и оператор ЦОД OpCore намерены создать дата-центр мощностью в сотни мегаватт недалеко от Парижа. На реализацию проекта потребуется €4 млрд ($4,3 млрд) — это соответствует стратегии ускоренного развития французской ИИ-инфраструктуры, сообщает ESG News.

Пока EDF и OpCore ведут переговоры о создании ЦОД на территории бывшей ТЭС в Монтеро-Валле-де-ла-Сен (Montereau-Vallee-de-la-Seine). Участок относится к более широкой Парижской агломерации, где правительство и коммунальные службы намерены ускорить масштабное внедрение цифровых технологий, при этом принимается в расчёт, например, поддержка населения и развитие связи.

Ранее в 2025 году EDF сообщила о желании найти застройщиков, способных возвести сверхмощные дата-центры на имеющихся у неё площадках. Компания является одним из крупнейших землевладельцев Франции и предлагает ускоренное присоединение к энергосети для инициатив, отвечающих национальным и экономическим интересам. OpCore, принадлежащая iliad Group и управляемым InfraVia фондам, имеет более 20 лет опыта разработки и управления ЦОД. Благодаря инфраструктурным возможностям iliad Group и капиталу InfraVia, компания может обеспечить инженерные и эксплуатационные потребности кампуса на сотни мегаватт.

 Источник изображения: Lindsay Thompson/unsplash.com

Источник изображения: Lindsay Thompson/unsplash.com

Источники описывают проект в Монтеро как «стратегический якорь» для развития ИИ в Европе. Проработавшая десятилетия угольная электростанция окончательно закрылась в 2004 году, а перестройка в кампус ЦОД соответствует местным амбициям по «реновации» бывших промышленных территорий с учётом современных экологических ограничений. Ожидается, что в период строительства и эксплуатации ЦОД появятся сотни рабочих мест. Интеграция проекта в местное сообщество будет осуществляться с привлечением муниципальных властей и региональных экономических ведомств.

Точная мощность кампуса не указывается, но сам факт того, что речь идёт о сотнях мегаватт, позволяет говорить, что он станет одним из мощнейших ИИ ЦОД в Европе. Французские власти однозначно заявляют о необходимости быстрого создания крупной национальной инфраструктуры, чтобы избежать стратегической зависимости от поставщиков облачных и вычислительных решений неевропейского происхождения. Ввод в эксплуатацию первой очереди запланирован в 2027 году.

Проект стал частью более масштабных усилий Франции по упрощению получения разрешений на инфраструктуру. Это способствует реализации национальных приоритетных планов, включая развитие ИИ, облачных сервисов и выпуск аккумуляторов. Представители французских властей всех уровней заявляют о необходимости превращения страны в крупную ИИ-сверхдержаву — лидера отрасли, с упором на атомную энергетику. Стоит отметить, что аналогичные амбиции имеет и Великобритания, тоже делающая ставку на мирный атом. Более того, в Евросоюзе рассматривают необходимость ограничения возможностей американских облачных гигантов.

Постоянный URL: http://testsn.3dnews.ru/1132622
19.11.2025 [17:38], Руслан Авдеев

По одному GPU на каждого американца: ИИ-облако Lambda привлекло ещё $1,5 млрд инвестиций на амбициозное развитие инфраструктуры

Поставщик облачных решений для ИИ-проектов — компания Lambda привлекла более $1,5 млрд. Раунд возглавила холдинговая TWG Global при участии Американского фонда инновационных технологий (US Innovative Technology Fund) и других, уже финансировавших бизнес инвесторов. Как заявил представитель Lambda, новый раунд финансирования поможет компании построить ИИ-фабрики гигаваттного масштаба, обеспечивающие работу сервисов, используемых миллионами людей ежедневно.

В компании добавили, что её миссия — сделать вычисления столь же общедоступными, как и, например, электричество, предоставив доступ к ИИ каждому американцу по принципу «один человек — один GPU». В раунде финансирования серии D, состоявшемся в феврале 2025 года, Lambda привлекла $480 млн .

 Источник изображения: Lambda

Источник изображения: Lambda

Основанная в 2012 году Lambda предлагает облачные вычисления на основе ИИ-ускорителей и, согласно информации на её сайте, располагает 15 дата-центрами по всей территории США. Компания намерена развернуть более 1 млн. ускорителей NVIDIA и 3 ГВт мощностей ЦОД с жидкостным охлаждением.

Раунд финансирования последовал за многомиллиардным контрактом компании с Microsoft, заключённым ранее в ноябре. Согласно условиям договора, Lambda предоставит IT-гиганту доступ к десяткам тысяч ИИ-ускорителей. Также подписано соглашение на $1,5 млрд с NVIDIA, которая будет арендовать у Lambda чипы собственного производства.

Постоянный URL: http://testsn.3dnews.ru/1132629
19.11.2025 [11:49], Сергей Карасёв

Второй европейский экзафлопсный суперкомпьютер Alice Recoque получит чипы AMD EPYC Venice и ускорители Instinct MI430X

Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) и французско-нидерландский Консорциум Жюля Верна объявили о том, что в создании суперкомпьютера Alice Recoque примут участие компании Eviden (входит в состав Atos Group), AMD и SiPearl.

О проекте Alice Recoque впервые стало известно в июне прошлого года. Это будет второй европейский суперкомпьютер экзафлопсного класса после системы JUPITER, смонтированной в Юлихском исследовательском центре (FZJ) в Германии. Соглашение о создании Alice Recoque подписано между EuroHPC JU и французским национальным агентством высокопроизводительных вычислений (GENCI). Комплекс будет смонтирован в дата-центре на территории Брюйер-ле-Шатель (Bruyères-le-Châtel), к юго-западу от Парижа.

Как сообщается, в состав Alice Recoque войдут унифицированный вычислительный раздел и скалярный раздел. Основой первого послужит новая платформа Eviden BullSequana XH3500, содержащая серверы с 256-ядерными процессорами AMD EPYC Venice и ускорителями Instinct MI430X, оснащёнными 432 Гбайт памяти HBM4 с пропускной способностью 19,6 Тбайт/с. Кроме того, говорится о применении AMD FPGA и высокопроизводительной подсистемы хранения данных DDN. Суперкомпьютер объединит 94 стойки с суммарным энергопотреблением «менее 15 МВт».

В свою очередь, скалярный раздел будет использовать 128-ядерные Arm-процессоры SiPearl Rhea2. Общее количество таких ядер превысит 100 тыс. В качестве интерконнекта в составе Alice Recoque планируется использовать технологию BullSequana eXascale Interconnect (BXI v3), обеспечивающую скорость передачи данных до 400 и 800 Гбит/с для CPU- и GPU-узлов соответственно.

 Источник изображения: AMD

Источник изображения: AMD

Машина получит систему прямого жидкостного охлаждения (DLC) пятого поколения (с тёплой водой) разработки Eviden для унифицированных стоек и технологию охлаждаемых дверей для скалярных стоек. Интеллектуальное программное обеспечение Eviden Argos обеспечит мониторинг в режиме реального времени и оптимизацию энергопотребления. Говорится о широком применении компонентов с открытым исходным кодом, таких как SLURM, Kubernetes, LUSTRE, Grafana и Prometheus.

Монтаж суперкомпьютера Alice Recoque начнётся в 2026 году. Затраты на приобретение, доставку, установку и обслуживание системы составят €354,8 млн. EuroHPC JU предоставит половину этой суммы, ещё столько же обеспечат Франция, Нидерланды и Греция в рамках Консорциума Жюля Верна. Общие инвестиции в проект на протяжении пяти лет оцениваются в €554 млн. Использовать новый вычислительный комплекс планируется для решения сложных задач в сферах моделирования климата, разработки передовых материалов, энергетики и пр. Система также поможет в развитии европейских моделей ИИ следующего поколения и цифровых двойников для персонализированной медицины.

Постоянный URL: http://testsn.3dnews.ru/1132596
19.11.2025 [11:00], Андрей Крупин

Релиз почтового сервера RuPost 4.0: поддержка геокластеризации и повышенная безопасность

Российский разработчик «РуПост» (входит в «Группу Астра») представил новый релиз почтового сервера RuPost 4.0. По словам компании, RuPost представляет собой коммуникационное решение корпоративного класса, отвечающее всем требованиям современной организации любого масштаба.

Продукт поддерживает кластеризацию, миграцию данных и одновременную работу с Microsoft Exchange, взаимодействие со службами каталогов ALD Pro, Active Directory, FreeIPA, а также оснащён средствами балансировки нагрузки, самодиагностики и мониторинга целостности конфигураций почтовых компонентов. Платформа RuPost подходит для решения задач импортозамещения. Программный комплекс включён в реестр Минцифры России и входит в дорожную карту «Цифровое рабочее место сотрудника».

 Источник изображений: rupost.ru

Источник изображений: rupost.ru

Главным технологическим нововведением релиза стала поддержка геокластеров с возможностью объединения нескольких территориально распределённых кластеров в единую инфраструктуру. Это обеспечивает кардинальное повышение уровня отказоустойчивости почтовой системы, стабильность бизнес-процессов, рациональное распределение нагрузки между региональными кластерами и снижение риска простоев.

В числе прочего обновлённый почтовый сервер RuPost 4.0 получил множество доработок по части информационной безопасности. В частности, была реализована поддержка Kerberos и OpenID Connect (OAuth 2.0) для веб-клиента, что упростило авторизацию пользователей. Появилась проверка SPF-записей, помогающая службам ИБ выявлять подделку отправителей. Квоты на ящики теперь задаются с дробными значениями, LDAP-домены поддерживают названия верхнего уровня (TLD) и однобуквенные корневые почтовые домены, а сервис postscreen при необходимости отключается, если фильтрацию выполняет внешний почтовый шлюз. Была добавлена возможность отслеживать доставку и открытие писем.

Отдельное внимание было уделено администрированию почтовых политик и предоставлению услуг технической поддержки. RuPost 4.0 получил средства централизованного управления ответами, создания шаблонов (например, для отпуска или командировки сотрудника) и назначения для них сроков действия из панели управления. Для мониторинга и интеграций доступны подключение к платформам Zabbix и «Астра Мониторинг» с передачей метрик по всем узлам, а также HTTP API, через который внешние системы могут получать информацию о состоянии комплекса и выполнять разные операции с почтовыми ящиками — от создания до изменения статусов.

«Новая версия нашего продукта даёт заказчикам совершенно другой уровень удобства, надёжности и масштабирования. Клиенты получают единую платформу для построения современной корпоративной почтовой среды. Она способна объединять несколько центров обработки данных и региональных подразделений в одно логическое пространство, минимизируя операционные риски и затраты на обслуживание. Высокая степень автоматизации, интеграция с системами мониторинга и отсутствие единой точки отказа делают RuPost 4.0 оптимальным решением для компаний, ориентированных на непрерывность бизнес процессов и информационную безопасность», — отмечает «РуПост».

Постоянный URL: http://testsn.3dnews.ru/1132526
19.11.2025 [01:11], Владимир Мироненко

$30 млрд и 1 ГВт: Microsoft, NVIDIA и Anthropic договорились о сотрудничестве

Microsoft, NVIDIA и Anthropic объявили о стратегическом партнёрстве, которое включает ряд новых инициатив. Как сообщается, Anthropic взяла на себя обязательство приобрести вычислительные мощности Azure стоимостью $30 млрд и заключить контракт на поставку дополнительных вычислительных мощностей объёмом до 1 ГВт для обеспечения будущих потребностей в масштабировании. В рамках партнёрства NVIDIA и Microsoft также обязуются инвестировать в Anthropic до $10 и $5 млрд соответственно.

Компании также расширят существующее партнёрство, чтобы обеспечить предприятиям более широкий доступ к ИИ-модели Claude. Клиенты Microsoft Azure AI Foundry смогут получить доступ к продвинутым (frontier) версиям модели Claude, включая Claude Sonnet 4.5, Claude Opus 4.1 и Claude Haiku 4.5. Это партнёрство делает Claude единственной frontier-моделью LLM, доступной во всех трёх самых известных облачных сервисах мира.

Также Claude будет интегрирована в пакет Copilot, включающий GitHub Copilot, Microsoft 365 Copilot и Copilot Studio. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) отметил, что акцент Microsoft на корпоративные платформы естественным образом подходит Claude, которая часто используется в бизнес-приложениях, пишет The Wall Street Journal.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках стратегического партнёрства Anthropic и NVIDIA будут сотрудничать в области проектирования и инжиниринга с целью обеспечения наилучшей производительности, экономичности и общей стоимости владения для моделей Anthropic, а также оптимизации будущих архитектур NVIDIA для рабочих нагрузок Anthropic. Первоначально Anthropic будет использовать вычислительные системы NVIDIA Grace Blackwell и Vera Rubin мощностью до 1 ГВт.

Аналитики Bank of America утверждают, что эти, на первый взгляд, цикличные сделки являются для лидеров отрасли способом расширить свой потенциальный целевой рынок, что «может многократно увеличить будущие выгоды». Как отметил ресурс Converge! Network Digest, с учётом нынешнего объявления портфель обязательств Microsoft в области ИИ теперь превышает $100 млрд, включая контракты с OpenAI, Inflection и Anthropic. Эти долгосрочные соглашения помогают Microsoft обосновать ускоренное строительство ИИ ЦОД, закупки электроэнергии и развёртывание ИИ-систем. Сделка также укрепляет позиции Azure по сравнению с AWS, запустившей для Anthropic ИИ-кластер Project Rainier, и Google Cloud, TPU которой также пользуется Anthropic.

Постоянный URL: http://testsn.3dnews.ru/1132592
18.11.2025 [16:55], Владимир Мироненко

d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptor

d-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий.

Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset.

Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он.

d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM.

По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок.

Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации.

AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.

Постоянный URL: http://testsn.3dnews.ru/1132561
18.11.2025 [16:01], Руслан Авдеев

Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной Корее

Компании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект.

На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября.

Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.

 Источник изображения:  Yu Kato/unsplash.com

Источник изображения: Yu Kato/unsplash.com

Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики.

Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.

Постоянный URL: http://testsn.3dnews.ru/1132535
18.11.2025 [13:36], Сергей Карасёв

ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлаждения

Компания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL.

 Источник изображений: Giga Computing

Источник изображений: Giga Computing

Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена.

Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub.

За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей.

Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.

Постоянный URL: http://testsn.3dnews.ru/1132550