Материалы по тегу: hardware
|
10.11.2025 [15:00], Владимир Мироненко
Фирменные ИИ-ускорители Amazon всё ещё не могут конкурировать с чипами NVIDIA, считают некоторые стартапыНекоторые стартапы считают, что ИИ-чипы Trainium и Inferenetia собственной разработки Amazon менее конкурентоспособны, чем ускорители NVIDIA, сообщил ресурс Business Insider со ссылкой на внутреннюю документацию AWS. Согласно июльскому «конфиденциальному» внутреннему документу Amazon, ИИ-стартап Cohere обнаружил, что чипы Amazon Trainium 1 и 2 «уступают по производительности» ускорителям NVIDIA H100. Стартап отметил, что доступ к Trainium2 был «крайне ограничен», а в работе наблюдались частые перебои. Amazon и её подразделение Annapurna Labs всё еще изучают возникшие у Cohere «проблемы с производительностью», но прогресс в решении этих проблем был «ограниченным», отмечено в официальном документе. Также в нём упоминается стартап Stability AI, разработавший, в том числе, ИИ-генератор изображений Stable Diffusion, который высказывал схожие претензии. В частности, говорится, что чипы Amazon Trainium2 уступают NVIDIA H100 по задержке, что делает их «менее конкурентоспособными» с точки зрения скорости и стоимости. Ставка Amazon на чипы собственной разработки является частью её усилий по обеспечению конкурентоспособности в ИИ-гонке. Её прибыльность основана в том числе на использовании собственных процессоров Graviton вместо дорогостоящих чипов Intel. И сейчас Amazon тоже стремится задействовать собственные чипы для обработки ИИ-нагрузок. Если некоторые клиенты AWS не захотят использовать Trainium и будут настаивать на том, чтобы AWS запускала свои облачные ИИ-системы с использованием чипов NVIDIA, которые гораздо дороже её собственных решений, это отразится на её прибыли от облачных вычислений, отметил Business Insider. Рынок стартапов давно является важным для AWS, поэтому их претензии имеют большое значение для компании. Представитель Amazon заявил, что компания «благодарна» клиентам за отзывы, которые помогают сделать её чипы «еще лучше и более широко используемыми». Он добавил, что кейс с Cohere «не является актуальным», отметив, что её чипы Trainium и Inferentia «достигли отличных результатов» с такими клиентами, как Ricoh, Datadog и Metagenomi. «Мы очень довольны ростом и внедрением Trainium2, который на данном этапе в основном используется небольшим числом очень крупных клиентов, таких как Anthropic», — написал представитель в электронном письме ресурсу Business Insider. AWS утверждает, что ее собственные ИИ-ускорители предлагают на 30-40 % лучшие ценовые характеристики, чем нынешнее поколение GPU. Компания обладает «невероятными талантами» в области проектирования чипов и работает над новыми поколениями ускорителей. «Мы рассчитываем привлечь больше клиентов, начиная с Trainium 3, превью которого ожидается позже в этом году», — сказал представитель Amazon. Генеральный директор Amazon Энди Джасси (Andy Jassy) заявил во время отчёта о доходах компании, что чипы Trainium2 «полностью распределены по подписке» и теперь являются «многомиллиардным» бизнесом, который последовательно увеличивается на 150 % от квартала к кварталу. Жалобы клиентов Amazon на её чипы поступали и раньше. Согласно июльскому документу, стартап Typhoon обнаружил, что устаревшие ускорители NVIDIA A100 в три раза экономичнее для определённых рабочих нагрузок, чем чипы Inferentia2 от AWS, ориентированные на инференс. В свою очередь, исследовательская группа AI Singapore установила, что серверы AWS G6, оснащённые ускорителями NVIDIA, более экономичны по сравнению с Inferentia2 при различных вариантах использования. В прошлом году клиенты облака Amazon также отмечали «проблемы при внедрении» её пользовательских ИИ-чипов, которые создают «проблемные области», что ведёт к снижению их использования. Эти проблемы нашли отражение в доле рынка Amazon. По данным исследовательской компании Omdia, NVIDIA доминирует на рынке ИИ-чипов с долей более 78 %. За ней следуют Google и AMD, владеющие по чуть более 4 %. AWS занимает лишь шестое место с 2 % рынка. Наглядно иллюстрирует проблемы Amazon в этом отношении соглашение AWS и OpenAI стоимостью $38 млрд. Сделка предполагает использование облачных ИИ-серверов на базе ускорителей NVIDIA, без упоминания чипов Trainium. Ускорители NVIDIA не только обеспечивают высокую производительность, но подкрепляются широко распространённой платформой CUDA. Это качество особенно ценно при разработке крупных проектов в области ИИ с высоким уровнем риска, когда надёжность и имеющийся опыт могут сыграть решающую роль. В июльском документе сотрудники Amazon отметили, что технические ограничения и другие проблемы, связанные со сравнением пользовательских ИИ-чипов компании и ускорителей NVIDIA, стали «критическим препятствием» для клиентов, задумывающихся о переходе на чипы AWS. До публикации отчёта о доходах Amazon на прошлой неделе аналитики Bank of America соблюдали осторожность в оценке прогресса Tranium. В аналитической заметке, опубликованной в конце октября, они предупредили, что инвесторы «скептически» относятся к возможностям Trainium, и что «неясно», проявится ли высокий спрос на них «за пределами Anthropic». Недавно AWS запустила проект Project Rainier — ИИ-кластер из полумиллиона чипов Trainium2, которые будут использоваться для обучения LLM следующего поколения Anthropic. Ожидается, что к концу года Anthropic получит более 1 млн чипов Trainium2, но решение по этому вопросу ещё не принято. Если реализация проекта будет успешной, это станет огромным подспорьем для Amazon. Вместе с тем в прошлом месяце Anthropic подписала многомиллиардный контракт на использование Google TPU, отметив, что продолжит использовать Trainium. Хотя Anthropic публично признала сложность использования архитектур с разными чипами, представитель Amazon сообщил Business Insider, что Anthropic продолжает расширять использование Trainium и подчеркнул стремление компании предлагать клиентам широкий спектр аппаратных опций в рамках своих облачных сервисов. В ходе общения с аналитиками на прошлой неделе Джасси подчеркнул, что AWS сосредоточена на предоставлении «нескольких вариантов чипов». Он отметил, что цель состоит не в том, чтобы заменить чипы NVIDIA, а в том, чтобы предоставить клиентам больше выбора. Этой стратегии AWS придерживается и в других областях облачных вычислений, сказал он. «В истории AWS никогда не было случая, чтобы какой-то один игрок в течение длительного периода времени владел всем сегментом рынка, а затем мог удовлетворить потребности всех во всех аспектах», — сказал Джасси. В долгосрочной перспективе не слишком удачные продажи собственных ускорителей не лучшим образом скажутся на AWS. Компания понимает, что её решения могут быть менее производительны и удобны, поэтому и предлагает их по меньшей цене, чем ускорители NVIDIA. Однако стоимость их производства сравнима со стоимостью производства чипов такого же класса, и со временем она будет только расти. Проще говоря, Amazon меньше зарабатывает на своих чипах, а в худшем случае может терять на них деньги.
10.11.2025 [11:59], Сергей Карасёв
Промышленный компьютер AAEON Boxer-6801-Rap получил слот PCI, COM-порты и чип Intel Raptor LakeКомпания AAEON анонсировала индустриальный компьютер Boxer-6801-Rap, предназначенный для систем машинного зрения, а также комплексов диспетчерского управления и сбора данных (SCADA). В устройстве соседствуют современные аппаратные компоненты и устаревшие технологии. Основой изделия служит платформа Intel Raptor Lake: в максимальной конфигурации применяется процессор Core i7-1370PE с 14 ядрами (6Р+8Е; 14C/20T; до 4,8 ГГц), оснащённый графическим ускорителем Intel Iris Xe. Доступны два слота SO-DIMM для модулей оперативной памяти DDR5 суммарным объёмом до 96 Гбайт. Есть коннектор M.2 2280 M-Key для SSD с интерфейсом PCIe 4.0 x4 и посадочное место для SFF-накопителя с интерфейсом SATA. Компьютер оборудован классическим слотом PCI и разъёмом PCIe x1. Реализованы пять сетевых портов 2.5GbE (контроллер Intel I226-LM), четыре из которых поддерживают PoE с общим бюджетом мощности 60 Вт. Имеются коннектор M.2 2230 E-Key (PCIe) для адаптера Wi-Fi и разъём M.2 3052 B-Key (USB; SIM-слот) для сотового модема. Устройство располагает двумя последовательными (COM) портами — RS-232/422/485, пятью гнёздами RJ45 для сетевых кабелей, двумя интерфейсами HDMI, двумя портами USB 3.2 Gen2 Type-A и двумя портами USB 2.0, комбинированным аудиогнездом на 3,5 мм, разъёмом DB-15. Питание (9–36 В) подаётся через 3-контактный разъём. Компьютер заключён в корпус с габаритами 264 × 179 × 124 мм, а масса составляет 4,9 кг. Ребристая поверхность выполняет функции радиатора для рассеяния тепла. Диапазон рабочих температур простирается от -20 до +60 °C. Устройство может монтироваться на DIN-рейку. Заявлена совместимость с Windows 10 IoT 2021 LTSC, Windows 11 IoT LTSC, Ubuntu 24.04 и выше. Приём предварительных заказов на модель AAEON Boxer-6801-Rap уже начался.
10.11.2025 [10:30], Руслан Авдеев
«Здоровое» питание: ExxonMobil предложила ИИ ЦОД электростанции на природном газе с интегрированной системой захвата углеродных выбросовОдна из крупнейших нефтегазовых компаний мира — ExxonMobil активно ведёт переговоры с поставщиками электричества и технологическими компаниям. Также ведутся переговоры о поставке в дата-центры генерирующих установок на природном газе, интегрированных с системами захвата и хранения углерода, сообщает Datacenter Dynamics. По словам ExxonMobil, она намерена улавливать до 90 % выбросов CO2. В компании надеются, что заявления гиперскейлеров о желании получить мощности с низким углеродным выбросом искренни, поскольку в краткосрочной и среднесрочной перспективе компания, вероятно, является единственным игроком, способным реально добиться этого. ExxonMobil уже «продвинулась в переговорах» и даже подобрала подходящие площадки. У неё есть инфраструктура и технологии улавливания, транспортировки и хранения углекислого газа. Также утверждается, что развитие ИИ создаст новые бизнес-возможности в «низкоуглеродных» дата-центрах, которыми Exxon намерена воспользоваться. В декабре 2024 года компания объявила о намерении построить новую газовую электростанцию мощностью 1,5 ГВт для дата-центров. Пока реализация проекта находится на ранней стадии, это будет первая электростанция Exxon, предназначенная не для обеспечения собственных нужд.
Источник изображения: ExxonMobil Дополнительно Exxon представила ряд продуктов для охлаждения ЦОД. В апреле она заключила партнёрское соглашение с Intel для создания новых технологий жидкостного охлаждения дата-центров. В октябре ExxonMobil сообщила о намерении выйти на рынок охлаждающих жидкостей для ЦОД, представив портфолио из синтетических и несинтетических продуктов. Дальнейшее расширение ассортимента планируется при поддержке Intel. На сектор ЦОД ориентируются и другие нефтегазовые компании помимо Exxon. В январе Chevron заключила соглашение с американским хедж-фондом Engine No. 1 о строительстве и масштабировании электростанций на природном газе мощностью до 4 ГВт для прямого обслуживания в США расположенных поблизости дата-центров. В марте 2025 года появились данные, что строитель флагманского дата-центра Stargate в Абилине (Техас) — компания Crusoe подписала контракт с Engine No. 1 о поставке 4,5 ГВт электричества, вырабатываемого турбинами.
10.11.2025 [10:10], Руслан Авдеев
Orange Marine занялась модернизацией флота, занимающегося укладкой и обслуживанием кабелейПодразделение телеком-оператора Orange — компания Orange Marine анонсировала строительство двух передовых кораблей по прокладке и обслуживанию кабелей. Ожидается, что это поможет повысить устойчивость подводных кабельных систем в Европе, на Ближнем Востоке и в Африке (регион EMEA), сообщает Orange. После постройки у Orange Group будет сразу четыре передовых корабля для обслуживания кабелей в Атлантике, Ла-Манше, Северном море, Индийском океане, Средиземном и Красном морях — в дополнение к двум кораблям для прокладки кабелей и судна-разведчика для мониторинга. Они управляются Orange Marine и её итальянской дочерней структурой Elettra. В Orange подчёркивают, что стратегические инвестиции во флотилию компании — ключ для обеспечения устойчивости и безопасности мирового интернета. Это демонстрирует уверенность бизнеса в перспективах Orange Marine и квалификации её команд.
Источник изображения: Orange Marine Два новых однотипных судна на основе дизайна Sophie Germain 2023 года в основном будут заниматься обслуживанием и ремонтом. Впрочем, они способны и прокладывать небольшие связующие сегменты протяжённостью до 1 тыс. км. Они заменят суда Léon Thévenin (построено в 1983 году и базируется в Южной Африке) и Antonio Meucci (построено в 1987 году, базируется в Италии), которые сейчас обслуживают кабели в Атлантическом и Индийском океанах, в Средиземном, Чёрном и Красном морях. Строительство поручено верфи Colombo Dockyard в Шри-Ланке (на ней же строили Sophie Germain), корабли будут готовы в 2028 и 2029 гг. соответственно. Дизайн новых судов позволит на 20 % снизить выбросы CO2 в сравнении с действующими кораблями. Среди особенностей кораблей отмечаются:
По словам Orange Marine, дефицит кораблей, способных работать с кабелями — одна из ключевых проблем для морской кабельной индустрии. Благодаря новым моделям компания получит самый современный профильный флот в мире и сможет обеспечить глобальное обслуживание клиентов, обеспечивая сниженные углеродные выбросы. В июле 2025 года Infra-Analytics совместно с TelegeGeography обнародовали материалы, посвящённые трендам, вызовам и стратегиям, касающимся кабельной интернет-инфраструктуры. Главный вывод — в ближайшем будущем миру грозит дефицит судов для ремонта подводных кабелей.
10.11.2025 [09:24], Сергей Карасёв
QNAP выпустила стоечное хранилище TS-h2477AXU-RP на платформе AMDКомпания QNAP Systems анонсировала сетевое хранилище (NAS) корпоративного класса TS-h2477AXU-RP, которое использует аппаратную платформу AMD, ОС QTS 5.2.6 и файловую систему ZFS. Новинка выполнена в форм-факторе 4U для монтажа в серверную стойку. Применён процессор серии Ryzen 7 Pro 7000 с восемью ядрами (16 потоков) с максимальной тактовой частотой до 5,3 ГГц. В состав чипа входит ускоритель AMD Radeon Graphics. Объём оперативной памяти DDR5 в стандартной конфигурации составляет 32 Гбайт (расширяется до 192 Гбайт в виде четырёх модулей на 48 Гбайт). Есть 5 Гбайт интегрированной флеш-памяти. Во фронтальной части располагаются 24 отсека для LFF/SFF-накопителей с интерфейсом SATA-3: могут применяться HDD или SSD с горячей заменой. Кроме того, предусмотрены два внутренних коннектора M.2 2280 для SSD с интерфейсом PCIe 5.0 x2. При использовании HDD на 30 Тбайт суммарная полезная ёмкость, как отмечает QNAP, достигает 600 Тбайт. При этом могут быть добавлены модули расширения: например, при использовании восьми дополнительных массивов TL-R2400PES-RP на 24 накопителя каждый можно получить ещё 192 отсека для HDD/SSD. Есть по два сетевых порта 2.5GbE и 10GbE. Хранилище получило три слота PCIe 4.0 х4, в которые могут устанавливаться карты расширения, включая сетевые адаптеры 25GbE. Имеются также два порта USB 3.2 Gen2 Type-A. Питание обеспечивают два блока мощностью 800 Вт с резервированием. За охлаждение отвечают три системных вентилятора диаметром 60 мм. Диапазон рабочих температур — от 0 до +40 °C. Габариты устройства составляют 177,35 × 432,4 × 511,7 мм, масса — 18,62 кг без установленных накопителей. Производитель предоставляет на модель TS-h2477AXU-RP пятилетнюю гарантию.
09.11.2025 [13:38], Сергей Карасёв
Nebius Аркадия Воложа развернула в Великобритании платформу AI Cloud на базе NVIDIA HGX B300Компания Nebius (бывшая материнская структура «Яндекса» Yandex N.V.) объявила о своём первом развёртывании ИИ-инфраструктуры в Великобритании. Кластер Nebius AI Cloud расположен в кампусе Longcross Park на площадке Ark Data Centres недалеко от Лондона. Как отмечает основатель и генеральный директор Nebius Аркадий Волож, Великобритания является одним из ведущих ИИ-центров в мире. Поэтому для компании создание кластера на территории этой страны имеет большое значение. Кластер состоит из 126 стоек с оборудованием, размещённых в трёх машинных залах. В рамках первой фазы проекта установлены 4 тыс. ускорителей NVIDIA HGX B300 (Blackwell Ultra) в составе серверов пятого поколения (Gen5) собственной разработки Nebius. Вторая фаза предполагает монтаж ещё 3 тыс. ускорителей B300. Общая мощность системы — 16 МВт. По заявлениям Nebius, британский кластер AI Cloud использует передовые энергоэффективные технологии охлаждения, сетевое подключение NVIDIA Quantum-X800 InfiniBand с низкой задержкой и надёжную локальную систему генерации электроэнергии. Говорится о полной интеграции с программной платформой NVIDIA AI Enterprise, предназначенной для разработки и развёртывания ИИ-приложений. Объединяя нашу облачную инфраструктуру с новейшими технологиями NVIDIA, мы предоставляем организациям по всей Великобритании возможность обучать, развёртывать и масштабировать модели и приложения ИИ быстрее, безопаснее и эффективнее, чем когда-либо», — говорит Волож. Британский кластер использует облачную платформу Nebius AI Cloud 3.0 Aether, которая разработана специально для создания и использования ИИ в таких областях, как здравоохранение, финансы, науки о жизни, корпоративный сектор и государственная сфера. Говорится о поддержке сквозного шифрования и о полном соответствии стандартам защиты данных GDPR и CCPA. Ранее Nebius сообщила о запуске своего первого кластера AI Cloud в Израиле, который расположился на площадке в Модиине (Modiin). У Nebius также имеются дата-центры в Финляндии, Франции и США.
09.11.2025 [00:35], Владимир Мироненко
Создание Microsoft массивной ИИ-инфраструктуры в ОАЭ повышает риск утечки технологий и ресурсов в КитайПоддержка Microsoft масштабного развёртывания ИИ-инфраструктуры в ОАЭ, объём инвестиций которой в 2023–2029 гг. в различные проекты в стране составит $15,2 млрд, вызывает опасения у экспертов по поводу обеспечения безопасности, пишет ресурс Dark Reading. В партнёрстве с местной ИИ-компанией G42, поддерживаемой суверенным фондом благосостояния ОАЭ, Microsoft строит первую очередь ИИ-кампуса с новейшими ускорителями NVIDIA. За время президентства Джо Байдена (Joe Biden) Microsoft поставила в ОАЭ эквивалент 21,5 тыс. ускорителей NVIDIA A100. А при администрации Дональда Трампа (Donald Trump) компания получила экспортные лицензии, которые позволяют поставить в ОАЭ эквивалент ещё 60,4 тыс. A100. В прошлом году Microsoft инвестировала в G42 $1,5 млрд. В мае этого года пять компаний — Cisco, NVIDIA, OpenAI, Oracle и SoftBank Group — объединили усилия с G42 для создания Stargate UAE — вычислительного кластера мощностью 1 ГВт в рамках проекта по строительству 5-ГВт ИИ-кампуса. Что касается безопасности, то при заключении Microsoft соглашения об инвестициях в G42 обеим сторонам пришлось согласовать обязательный рамочный документ — Межправительственное соглашение о гарантиях (IGAA) — для соблюдения передовых требований в области кибербезопасности, физической безопасности, экспортного контроля и политики «Знай своего клиента» (KYC). Однако, по неофициальным данным, одним из условий сделки Microsoft с G42 также был отказ ОАЭ от сотрудничества с Китаем и вывод ряда китайских решений из инфраструктуры страны. Безопасность — ключевой элемент уравнения, особенно учитывая, что ОАЭ считаются «сложным» партнёром для США, говорит Джанет Иган (Janet Egan), старший научный сотрудник и заместитель директора программы технологий и национальной безопасности Центра новой американской безопасности (CNAS), указав на то, что в ОАЭ не демократический режим и поддерживаются тесные партнёрские отношения с Китаем, в том числе по вопросам безопасности. «США стремятся приблизить [ОАЭ] к своей орбите и геостратегическому партнёрству, но в то же время должны быть очень осторожны, чтобы не вооружить другую страну, которая может затем сместить или отделить свои интересы от интересов США», — отметила Иган. Опасения понятны — контролировать дата-центры с новейшими технологиями за пределами США гораздо сложнее. Это касается и возможных утечек, и готовности к атакам любого рода. Кроме того, КНР уже не раз ловили на использовании облачной инфраструктуры с передовыми чипами через посредников. Этот вопрос снова был поднят в связи со сделками между G42 и Cerebras. Последняя не только является разработчиком ИИ-ускорителей, но и поставщиком облачных ИИ-решений. ОАЭ — важный союзник США в регионе и самый активный в мире разработчик ИИ-технологий — согласно отчёту Microsoft «AI Diffusion Report» страна занимает первое место по уровню использования ИИ. Страна всерьёз собирается стать ИИ-сверхдержавой. Впрочем, это не мешает, к примеру, китайской Alibaba Cloud развиваться в стране, а Huawei — пытаться продать ОАЭ собственные ускорители Ascend, пока США тянули с разрешением на поставки чипов NVIDIA. По словам вице-председателя и президента Microsoft Брэда Смита (Brad Smith), при администрации Байдена компания проделала «значительную работу… для соответствия строгим требованиям кибербезопасности, национальной безопасности и другим технологическим требованиям, предъявляемым лицензиями на экспорт чипов». Последние разрешения на экспорт чипов, выданные нынешней администрацией Белого дома, потребовали ещё более строгих технологических гарантий, отметил Dark Reading.
08.11.2025 [12:53], Сергей Карасёв
WORM, WORSe и WORN — определены три уровня архивного хранения данных для ИИ-системОрганизация Active Archive Alliance, по сообщению ресурса Blocks & Files, определила три основных уровня архивного хранения данных в эпоху ИИ. Предложенная концепция поможет преобразовать архивы из пассивных хранилищ в активные механизмы с возможностью быстрого извлечения нужных сведений. Active Archive Alliance — это отраслевая группа, сформированная в 2010 году для продвижения концепции «активных архивов». Такие системы обеспечивают упрощённый и быстрый доступ к любым данным в любое время. В состав альянса входят Arcitecta, BDT Media Automation GmbH, Cerebyte, FujiFilm, IBM, Iron Mountain, MagStor, Point, Savartus, Spectra Logic, Wasabi, Western Digital и XenData.
Источник изображений: Horison Information Strategies / Blocks & Files Отмечается, что на фоне стремительного развития ИИ организациям в различных отраслях всё чаще требуется быстрый доступ к огромным объёмам исторической информации. Помочь в удовлетворении таких потребностей призван «активный архив». Архитектура таких платформ предполагает применение накопителей разных типов — SSD, HDD, оптических дисков и ленточных устройств. Распределение данных между ними управляется при помощи специального интеллектуального ПО. Сами накопители могут размещаться локально или в облаках. Предусмотрены различные слои архивирования: «горячие» (SSD, HDD), «тёплые» (HDD, оптические диски) и «холодные» (LTO). Данные по мере старения перемещаются от горячего до холодного слоя, но могут вернуться обратно в случае необходимости. ![]() При этом Active Archive Alliance предлагает три уровня доступа к информации — WORM (Write Once, Read Many), WORSe (Write Once, Read Seldom) и WORN (Write Once, Read Never.) Первый предполагает однократную запись и многократное чтение, второй — однократную запись и редкое чтение, третий — однократную запись при практически полном отсутствии операций чтения. Эти уровни соответствуют трём типам хранилищ — активному, архивному и глубокому. Все они относятся к вторичным массивам, на которые, по оценкам, приходится около 80 % данных (ещё 20 % располагаются в первичных высокопроизводительных системах). Причём активный ярус хранения обеспечивает около 15 % ёмкости, архивный — 60 %, глубокий — только 5 %.
07.11.2025 [18:08], Руслан Авдеев
Energy Storage Solutions построит в Северной Каролине гигантские кампусы ЦОД стоимостью $38 млрдПлан девелопера Energy Storage Solutions по созданию огромного парка ЦОД с энергохранилищами в Северной Каролине, наконец, получил разрешение местных властей, разрешивших строительство в рамках действующего зонирования, сообщает Datacenter Knowledge. Кампус мощностью 900 МВт намерены возвести в восточной части штата на участке площадью более 120 га. Начать реализацию первой фазы проекта, которая обойдётся в $19,2 млрд, намерены на площадке Kingsboro в Тарборо (Tareboro, Северная Каролина) в I квартале 2026 года. Проект-близнец рассчитывают реализовать в Фейетвилле (Fayetteville) по соседству. После завершения работ кампусы станут одними из крупнейших на юго-востоке США. Строительство на обоих объектах будет осуществляться в 24 этапа в течение 3–5 лет, каждый кампус обеспечит работой более 1 тыс. сотрудников. В каждом будет около дюжины зданий площадью около 3,6 тыс. м2. Первоначально предусматривалась реализация менее масштабных проектов, но инвесторы попросили увеличить площади, чтобы удовлетворить рост спроса. Компания намерена использовать природный газ для питания ЦОД. На модернизацию инфраструктуры в регионе может уйти до $176 млн, зато газовая генерация позволит продавать излишки электроэнергии местным коммунальным службам. Впрочем, не всё идёт гладко. Ранее Energy Storage Solutions не удалось вовремя получить разрешение строительство ещё одного объекта из-за протестов местного сообщества. По словам аналитиков HyperFrame Research, локальные законы о зонировании территорий продолжат оказывать влияние на крупные проекты в США, поскольку гиперскейлеры и другие участники рынка активно масштабируют строительство ЦОД для удовлетворения спроса на рынке ИИ. При этом бизнесу приходится налаживать контакты на местном уровне, а также на уровне штата и федеральном. И если стратегическая задача конкуренции с Китаем — федерального уровня, то на местах приходится решать тактические задачи, связанные с зонированием. Большую роль играет противодействие строительству со стороны общественности. Ранее в этом году AWS отменила строительство дата-центра в Вирджинии из-за протестов местных жителей, а в августе власти Тусона (Tuscon) в Аризоне отклонили постройку кампуса Project Blue AI. Energy Storage Solutions подчёркивают, что компания хочет оказать положительное влияние на регион с помощью реализации проектов ЦОД. Другие проекты планируется реализовать в Южной Каролине и Вирджинии. В компании подчёркивают, что иногда опасения местных сообществ не имеют собой почвы — и негативные слухи могут быть основаны на информации из интернета. В сентябре Институт Банка Америки (Bank of America Institute) опубликовал данные, согласно которым затраты на строительство дата-центров в США в последние годы бьют рекорды.
07.11.2025 [17:07], Руслан Авдеев
Iren резко улучшила финансовые показатели и занялась строительством 3-ГВт ИИ-платформы AI CloudIren Ltd. отчиталась о результатах работы в I квартале 2026 финансового года, который закончился 30 сентября 2025 года (). Благодаря быстрому расширению сегмента AI Cloud и заключению серии многолетних контрактов общая выручка компании выросла на 355 % год к году до $240,3 млн. Показатель скорректированной EBITDA увеличился на 3568 % до $91,7 млн. Чистая прибыль (правда, с учётом нереализованной прибыли) составила $384,6 млн против убытка годом ранее. Такие рекордные показатели связаны со стремительным ростом спроса на ИИ-вычисления со стороны гиперскейлеров и корпоративных клиентов. Мощность инфраструктуры IREN вскоре вырастет до 3 ГВт. К концу 2026 года компания намерена иметь парк из 140 тыс. ИИ-ускорителей, на которые придётся лишь лишь 16 % энергетического портфолио. Компания заключила многолетние соглашения с Together AI, Fluidstack и Fireworks AI, в результате чего плановая выручка AI Cloud в годовом исчислении составит более $500 млн к концу I квартала 2026 года. Iren также упомянула ранее анонсированный контракт с Microsoft на сумму $9,7 млрд, который и внесёт основной вклад в годовую регулярную выручку (ARR, Annual Recurring Revenue) сегмента AI Cloud, запланированную на уровне $3,4 млрд.
Источник изображения: Iren Iren сообщила не только о росте клиентской базы, но и о наличии $1,8 млрд денежных средств или их эквивалентов, выпуске бескупонных конвертируемых облигаций на $1 млрд и привлечении целевых $400 млн на приобретение ускорителей для поддержки роста. 160-МВт площадка в Британской Колумбии до конца года будет переведена с ASIC-чипов для майнинга на ИИ-ускорители. В техасском Чилдрессе (Childress) Iren намерена ускорить строительство 750-МВт кампуса уровня Tier III с поддержкой СЖО и плотностью стоек 130–200 кВт для обучения высокопроизводительных ИИ-моделей. Площадка Sweetwater Hub мощностью 2 ГВт будет развёрнута в две фазы: 1,4 ГВт — в апреле 2026 года, 600 МВт — в конце 2027 года. Это часть портфолио объектов IREN, общая мощность которого составит 3 ГВт. По мнению экспертов Converge Digest, переход с ASIC-майнеров на ИИ-решения аналогичен мерам, принятым компаниям вроде CoreWeave и Crusoe Energy, в своё время перешедших с майнинговых проектов на работу с искусственным интеллектом. Это знаменует более широкий поворот в индустрии на создание ИИ ЦОД с высокой энергетической плотностью с заключением долговременных контрактов с гиперскейлерами. |
|

