Материалы по тегу: openai
|
07.09.2025 [13:29], Руслан Авдеев
OpenAI намерена потратить $115 млрд к 2029 годуOpenAI значительно увеличила прогноз затрат до 2029 года. Поскольку компания наращивает расходы на поддержку ИИ-проектов, общая сумма в этот период составит до $115 млрд, сообщает Reuters со ссылкой на данные The Information. Согласно новым данным, ожидаемые расходы увеличатся на $80 млрд. Согласно отчёту компании, OpenAI, ставшая одним из ключевых арендаторов ИИ-серверов в мире, рассчитывает потратить в текущем году более $8 млрд — приблизительно на $1,5 млрд больше, чем ожидалось ранее. В самой компании не отреагировали на вопросы журналистов. По данным The Information, в следующем году расходы вырастут до более чем $17 млрд, на $10 млрд выше, чем OpenAI рассчитывала ранее. В 2027 году будет потрачено $35 млрд, а в 2028 году — $45 млрд. Для того, чтобы обуздать растущие расходы, OpenAI разрабатывает собственные ИИ-чипы, а также оборудования для обеспечения работы своих решений. Ускоритель, разрабатываемый совместно с Broadcom, должен появиться в 2026 году. По словам Financial Times, OpenAI намерена использовать чип для обеспечения потребностей в вычислениях самой компании, без продажи его третьим лицам. Впрочем, Google, также создавшая ускорители TPU для собственных нужд, начала продвижение своих ускорителей на «внешнем» рынке. OpenAI углубила свои связи с Oracle в июле 2025 года, запланированная арендная мощность ЦОД составляет 4,5 ГВт в рамках инициативы Stargate. Проект предусматривает траты до $500 млрд и создание мощностей до 10 ГВт с участием SoftBank Group. В число поставщиков вычислительных мощностей добавили и Google Cloud.
06.09.2025 [14:47], Владимир Мироненко
Broadcom получила нового клиента с заказом на $10 млрд — акции взлетели на 15 %Компания Broadcom сообщила результаты III квартала 2025 финансового года, завершившегося 3 августа. Основные показатели компании за квартал превысили прогнозы Уолл-стрит благодаря сохраняющемуся высокому спросу на ИИ-решения. Хок Тан (Hock Tan, на фото ниже), президент и гендиректор Broadcom, которому, согласно поданным в марте в регулирующие органы документам, в этом году исполнилось 73 года, заявил, что намерен возглавлять компанию как минимум ещё пять лет. Как сообщает Reuters, эта новость была позитивно воспринята инвесторами. Ещё больше восторга вызвало заявление Тана о том, что компания получила заказ от нового клиента на разработку и поставку кастомного ИИ-чипа на сумму более $10 млрд, после чего акции компании взлетели в пятницу на 15 %, пишет CNBC. По мнению аналитиков, речь идёт об OpenAI. Это подтвердил со ссылкой на информированные источники ресурс The Financial Times, сообщивший, что новый чип, созданный в результате партнёрства двух компаний, выйдет в 2026 году. Ранее в этом году Тан намекал, что у компании в дополнение к трём существующим крупным клиентам есть ещё четыре крупных потенциальных клиента, проявляющих интерес к разработке кастомных ИИ-решений. Хотя Broadcom не раскрывает названия своих крупных клиентов в сфере ИИ-технологий, ещё в прошлом году аналитики утверждали, что это Google, Meta✴ и ByteDance (TikTok). «Один из этих потенциальных клиентов разместил заказ на производство в Broadcom, и мы охарактеризовали его как квалифицированного клиента для XPU», — сообщил, по данным ресурса SiliconANGLE, Тан. Он добавил, что этот заказ стал основанием для повышения прогноза Broadcom по выручке от ИИ-решений в следующем году, когда начнутся поставки. Выручка Broadcom в III финансовом квартале составила $15,95 млрд, превысив на 22 % результат аналогичного квартала годом ранее и консенсус-прогноз аналитиков, опрошенных LSEG, в размере $15,83 млрд. Скорректированная прибыль (Non-GAAP) на акцию равняется $1,69, что выше целевого показателя Уолл-стрит в $1,65 на акцию. Чистая прибыль (GAAP) составила $4,14 млрд или $0,85 на акцию, тогда как годом ранее у компании были убытки в $1,88 млрд или $0,40 на акцию, вызванные единовременным налоговым возмещением в размере $4,5 млрд, связанным с передачей интеллектуальной собственности в США. Скорректированный показатель EBITDA увеличился на 30 % до $10,70 млрд с $8,22 млрд в прошлом году, составив 67 % выручки. «Свободный денежный поток составил рекордные $7,0 млрд, увеличившись на 47 % по сравнению с аналогичным периодом прошлого года», — отметила в пресс-релизе Кирстен Спирс (Kirsten Spears), финансовый директор Broadcom. Тан сообщил, что выручка от ИИ-продуктов выросла год к году на 63 % до $5,2 млрд, добавив, что в IV финансовом квартале компания ожидает получить выручку по этому направлению в размере $6,2 млрд, «что обеспечит одиннадцать кварталов роста подряд,». Вместе с тем Тан отметил слабость в сегменте полупроводников, не связанных с ИИ: продажи корпоративных решений в области сетей и хранилищ последовательно снизились. Объём продаж группы полупроводниковых решений Semiconductor Solutions составил $9,17 млрд (+26 % г/г), а выручка от инфраструктурного ПО выросла до $6,79 млрд (+17 % г/г) благодаря VMware. В IV финансовом квартале Broadcom ожидает получить выручку в размере $17,4 млрд, что выше прогноза Уолл-стрит в $17,02 млрд. Как сообщает ресурс Converge! Network Digest, Broadcom также ожидает, что рост выручки от ИИ-чипов на уровне около 60 % в годовом исчислении в текущем финансовом году сохранится и в 2026 финансовом году благодаря росту потребности в рабочих нагрузках обучения и инференса. Компания также подтвердила свои предыдущие прогнозы по развёртыванию многомиллионных ИИ-кластеров тремя основными клиентами в 2027 году.
02.09.2025 [14:47], Руслан Авдеев
OpenAI построит в Индии дата-центр мощностью более 1 ГВтOpenAI намерена построить в Индии дата-центр мощностью не менее 1 ГВт. Компания ищет местных партнёров для сотрудничества в рамках нового проекта, сообщает Silicon Angle со ссылкой на Bloomberg. Кроме того, партнёров ищут и для продвижения ChatGPT на местном рынке. По предварительным оценкам, новый ИИ ЦОД сможет разместить почти 60 тыс. чипов NVIDIA B200. Пока нет данных, входит ли новый ЦОД в инициативу компании OpenAI for Countries. Программа, запущенная в 2025 году, предполагает создание ИИ ЦОД по всему миру. OpenAI уже заключила контракты на создание инфраструктуры в ОАЭ и Норвегии. Впрочем, речь идёт не только о дата-центрах. Компания предлагает помощь в запуске локальных версий ChatGPT и поддержку местных ИИ-стартапов, в том числе инвестиции в некоторые из них. В феврале 2025 года глава OpenAI Сэм Альтман (Sam Altman) встретился с представителями индийских властей, чтобы обсудить создание «недорогой» ИИ-платформы. Недавно компания запустила новый тариф ChatGPT специально для Индии — подписка ChatGPT Go стоит всего около $4,5/мес. и позволяет обрабатывать в сутки в 10 раз больше запросов, чем в бесплатной версии. Также компания намерена распространить среди местных преподавателей и студентов около 500 тыс. лицензий на использование ChatGPT. До конца года OpenAI намерена открыть офис в Нью-Дели. Создание собственного ЦОД в Индии позволит сократить задержку доступа для местных пользователей. Кроме того, такой проект способен помочь и в борьбе за местных корпоративных клиентов. Особенно это касается организаций, которым необходимо хранить данные локально, обеспечивая информационную безопасность и конфиденциальность. Данные о строительстве ЦОД в Индии появились через несколько недель после заключения соглашения с Oracle о строительстве в США дата-центра на 4,5 ГВт. В следующие четыре года OpenAI намерена ввести в эксплуатацию в США не менее 5,5 ГВт дополнительных мощностей, что обойдётся, вероятно, в $500 млрд.
29.08.2025 [15:05], Руслан Авдеев
Microsoft, OpenAI и NVIDIA предупредили, что ИИ теперь может физически навредить энергосетямГодами эксперты в области кибербезопасности уделяли внимание защите критической инфраструктуры в основном от цифровых атак с помощью самых разных систем, не позволявших создать угрозу электросетям. Однако новое исследование, проведённое специалистами из Microsoft, OpenAI и NVIDIA, показывает, что главной угрозой электросетям выступают отнюдь не хакеры, а ИИ. Исследование «Стабилизация энергоснабжения для обучающих ИИ ЦОД» (Power Stabilization for AI Training Datacenters) выявило интересную тенденцию, связанную с быстрым внедрением ИИ в больших масштабах. В процессе эксплуатации ускорителей есть два основных этапа: вычислительный, когда они активно выполняют сложные математические операции, потребляя много энергии, и коммуникационный, когда они обмениваются данными между собой. Во время перехода от первого этапа ко второму происходит резкий спад энергопотребления, а от второго к первому — его стремительный рост. В случае с гиперскейлерами скачки могут составлять десятки или сотни мегаватт, что негативно сказывается на состоянии электросетей в целом. Дело не просто в неэффективном использовании ресурсов — речь идёт об угрозе критически важной инфраструктуре. В докладе говорится, что колебания потребления могут совпасть с резонансными частотами ключевых компонентов энергосистемы, включая генераторы и оборудование ЛЭП, что потенциально приводит к дестабилизации сети, повреждению оборудования и масштабным авариям. Другими словами, активность ИИ представляет прямую физическую угрозу для аналоговой инфраструктуры электросетей.
Источник изображения: American Public Power Association/unsplash.com Для решения этой проблемы предлагаются три основных подхода. Во-первых, во время простоя на ускорителях можно решать второстепенные (или вообще бессмысленные, как делала Meta✴) задачи, держа оборудование на «холостом ходу» без полной остановки вычислений. Метод простой, но не самый лучший — общая энергоэффективность не растёт, снижение производительности при выполнении основной задачи вполне возможно. Во-вторых, можно непосредственно на уровне ИИ-ускорителей задавать минимальный порог энергопотребления, что тоже не способствует энергоэффективности. Наконец, в-третьих, можно использовать аккумулирующие энергию системы: в моменты низкого потребления они заряжаются, а во время скачка нагрузки отдают накопленную в них энергию вместо того, чтобы резко увеличивать потребление от общей электросети. Подобные системы позволяют избежать скачков и сгладить рост и снижение потребляемой мощности. Так, Google уже давно размещает литий-ионных ячейки непосредственно в стойках. Для стоек GB300 NVL72 NVIDIA дополнила блоки питания буфером, который позволяет смягчить колебания потребления и снизить пиковую нагрузку на сеть до 30 %. Энергосети давно являются частью критической инфраструктуры, но новые угрозы для них теперь находятся на стыке цифрового и реального мира. Получив неавторизованный доступ к крупному ИИ-кластеру, злоумышленники могут намеренно изменить паттерн энергопотребления так, чтобы навредить материальной инфраструктуре. Другими словами, злоумышленники могут повредить электростанцию или энергосети, даже не приближаясь к ним. В докладе Microsoft, OpenAI и NVIDIA заинтересованные стороны прямо отмечают, что масштаб ИИ вырос до отметки, на которой цифровая активность ведёт к важным физическим последствиям. Специалистам по кибербезопасности придётся уделять время не только цифровой реальности, но и заняться защитой критически важной инфраструктуры и учитывать последствия разрабатываемых и внедряемых алгоритмов. Примером может служить инцидент, произошедший летом 2024 года в Вирджинии, когда миллисекундный сбой привёл к одномоментному отключению 60 дата-центров мощностью 1,5 ГВт на несколько часов.
20.08.2025 [13:24], Руслан Авдеев
Vantage построит за $25 млрд 1,4-ГВт кампус ИИ ЦОД неподалёку от первого дата-центра Crusoe StargateVantage Data Centers занялась расширением ЦОД в Техасе. Новый кампус Frontier площадью более 485 га и мощностью 1,4 ГВт появится в округе Шакелфорд (Shackelford, Техас), сообщает Datacenter Dynamics. Кампус станет крупнейшим в глобальном портфолио компании, и самым дорогим — Vantage потратит в общей сложности более $25 млрд. На территории разместятся 10 объектов общей площадью около 345 тыс. м2. Строительство уже началось, первое здание должно быть готово в I полугодии 2026 года. ЦОД достанется Oracle и OpenAI в рамках проекта Stargate. Кампус Frontier получит поддержку 250-кВт стоек. В кампусе будет применяться СЖО с замкнутым циклом, требующая минимального расхода воды. Компания намерена получить для объекта сертификат LEED (Leadership in Energy and Environmental Design). Телекоммуникационная инфраструктура здания получит три операторских точки подключения (Meet-Me-Room, MMR) и один ввод. По словам Vantage, Техас стал критически важным рынком для поставщиков ИИ-решений. В частности, запуск кампуса Frontier знаменует переломный момент для Vantage. В компании уверены, что инвестиции в Техас станут драйвером экономического роста региона. По словам губернатора штата, инвестиции Vantage в строительство нового кампуса помогут создать тысячи хорошо оплачиваемых рабочих мест для местных жителей и обеспечить доход местной и региональной экономике.
Источник изображения: Vivian Arcidiacono/unspalsh.com Новости о том, что Vantage намерена строить крупный кампус в Техасе, появились в июле 2025 года. Компания подтвердила данные, но не раскрыла подробностей. Сообщалось, что строительство планировалось на пересечении трасс 604 и 351. Frontier находится вблизи Абилина (Abilene), где Crusoe строит первый крупный кампус для Oracle и OpenAI в рамках проекта Stargate. Vantage Data Centers, принадлежащая DigitalBridge, управляет или строит дата-центры по всей территории США, в том числе в Огайо, Джорджии, Техасе, Калифорнии, Вирджинии, Аризоне, Индиане, Неваде, Висконсине и Вашингтоне.
18.08.2025 [14:09], Владимир Мироненко
OpenAI намерена потратить триллионы долларов на ИИ-инфраструктуру, но для начала их надо где-то найтиГенеральный директор OpenAI Сэм Альтман (Sam Altman) рассчитывает, что со временем компания потратит на создание ИИ-инфраструктуры триллионы долларов — однако нужно найти способ привлечь такие средства для реализации его планов, пишет Bloomberg. «Следует ожидать, что OpenAI потратит триллионы долларов на строительство ЦОД в “недалёком будущем”», — заявил Альтман журналистам в ходе брифинга. Он добавил, что «кучка экономистов» назовёт это безрассудством, на что будет ответ: «Знаете что? Позвольте нам заниматься своим делом». По словам Альтмана, стартап разрабатывает новый способ финансирования. «Мы можем разработать очень интересный новый вид инструмента для финансов и вычислений, который мир ещё не изобрел», — сказал он. Ранее было объявлено, что в течение четырёх лет на инфраструктурный проект Stargate будет израсходовано $500 млрд, но Альтман предполагает выйти далеко за рамки этой суммы. Альтман также сообщил, что видит параллели между нынешним инвестиционным ажиотажем в области ИИ и пузырём доткомов в конце 1990-х годов. По его словам, в обоих случаях «умные люди» были «чрезмерно воодушевлены» новой технологией. Но в каждом случае, по его мнению, эта технология была «реальной» и в конечном итоге должна была оказать долгосрочное влияние на деловой мир и общество. Глава OpenAI заявил, что считает развитие ИИ-технологий самым важным событием за очень долгое время, отметив, что «общество в целом» вряд ли пожалеет об огромных инвестициях в ИИ, но также признал, что считает некоторые текущие оценки стартапов «безумными» и «иррациональными»: «Кто-то на этом обожжётся». Несмотря на то, что OpenAI «потратит много денег», в конечном итоге это окупится и принесёт «огромную прибыль», пообещал Сэм Альтман: «Для нас очень разумно продолжать инвестировать прямо сейчас». Планы OpenAI также включают первичное публичное размещение акций в будущем, но Альтман отказался назвать конкретные сроки проведения IPO. «Я думаю, что когда-нибудь нам, вероятно, придётся выйти на биржу», — сказал гендиректор, отметив, что он не очень «хорошо подходит» для должности гендиректора публичной компании. В настоящее время OpenAI завершает сложную корпоративную реструктуризацию, которая продолжается уже несколько месяцев, отмечает Bloomberg.
14.08.2025 [17:29], Руслан Авдеев
Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие моделиНедавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют. По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч. Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США. В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3. Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений. Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o. Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.
08.08.2025 [12:44], Руслан Авдеев
OpenAI похвасталась, что на GPT-5 «ушло» 200 тыс. ИИ-ускорителей, а с 2024 года её вычислительные мощности выросли в 15 разОдновременно с премьерой новейшей ИИ-модели GPT-5 компания OpenAI рассказала некоторые подробности о своей инфраструктуре. В частности, появилась информация о том, что с 2024 года компания нарастила вычислительные мощности в 15 раз, сообщает Datacenter Dynamics. По словам представителя компании, только за последние 60 дней было развёрнуто более 60 кластеров, сформирована цифровая магистраль, пропускающая больше трафика, «чем целые континенты», а также задействовано более 200 тыс. ИИ-ускорителей для запуска LLM GPT-5 для 700 млн человек. Дополнительно ведётся подготовка ещё 4,5 ГВт мощностей для «сверхразума». Стало известно и о вакансиях для проекта Stargate, курируемого OpenAI. Было заявлено, что сегодня небольшая команда строит ИИ-инфраструктуру планетарного масштаба беспрецедентными темпами. Она нанимает специалистов в сфере обработки данных, энергетики, ЦОД, планирования новых мощностей, развития бизнеса, финансов и др.
Источник изображения: Felix Mittermeier/unsplash.com При этом компания «агрессивно» нанимает людей в команду Stargate, при этом преимущественно полагаясь на Oracle. Так, в июле компании подтвердили сделку по аренде 4,5 ГВт для проекта Stargate в США. Как ожидается, сделка будет обходиться в $30 млрд ежегодно. Впрочем, не так давно сообщалось, что OpenAI по-прежнему планирует самостоятельно строить собственные дата-центры. Также компания намерена построить кампус ЦОД Stargete в Объединённых Арабских Эмиратах (ОАЭ) при участии других IT-гигантов, включая Oracle, NVIDIA, Cisco, SoftBank и G42. В Европе компания уже работает над дата-центром в Норвегии совместно с Nscale. Кроме того, она ищет площадки для новых инициатив по всему миру. При этом развитием инфраструктуры занимается в основном сама OpenAI, а сам проект Stargate развивается не так быстро, как планировалось.
07.08.2025 [16:00], Владимир Мироненко
В Yandex Cloud AI Studio появились открытые модели OpenAIYandex B2B Tech открыла API-доступ на платформе Yandex Cloud AI Studio к новым рассуждающим open source моделям OpenAI gpt-oss-120b и gpt-oss-20b. С помощью новых моделей можно создавать агентские системы для выполнения различных задач, например, для автоматизации рекрутмента и технической поддержки, анализа и обработки документов и первичной коммуникации с клиентами, говорит компания. Доступность новых моделей по API позволяет российскому бизнесу использовать технологии OpenAI в бизнес-процессах без задействования собственной инфраструктуры. Использовать ИИ-модели напрямую у разработчика российским компаниям вряд ли удастся, так как для этого нужно передавать данные для обработки за рубеж, что идёт вразрез с требованиями российского законодательства. Как отметила Yandex B2B Tech, при использовании Yandex Cloud AI Studio данные компаний хранятся и обрабатываются в российских ЦОД, и её сервис полностью соответствует требованиям закона «О персональных данных». Сообщается, что указанные нейросети сопоставимы по качеству с ведущими моделями OpenAI o3-mini и o4-mini, и в некоторых сценариях превосходят GPT-4o и o1. В них допускается регулировка интенсивности рассуждений и скорости генерации ответа. Вскоре для этих моделей будет доступен вызов функций для взаимодействия с внешними приложениями, что позволит осуществлять поиск информации в интернете при генерации ответа.
04.08.2025 [16:08], Руслан Авдеев
CoreWeave заняла ещё $2,6 млрд для масштабирования ИИ-проектов OpenAICoreWeave закрыла сделку по получению отложенного кредита (DDTL 3.0) на сумму $2,6 млрд. Средства будут потрачены на покупку и обслуживание современного оборудования и элементов облачной инфраструктуры для предоставления услуг в рамках долгосрочного соглашения с OpenAI, сообщает Datacenter Dynamics. Раунд финансирования возглавили Morgan Stanley и MUFG, в качестве организатора выступила Goldman Sachs. В сделке также приняли участие JPMorgan Chase, Wells Fargo, BBVA, Crédit Agricole, SMBC, PNC и Société Générale. В CoreWeave подчеркнули, что гордятся сотрудничеством с ведущими финансовыми учреждениями на пути масштабирования узкоспециализированной облачной ИИ-платформы для удовлетворения потребностей клиентов-инноваторов. В OpenAI отметили, что CoreWeave является важным партнёром для комплексной инфраструктуры компании. Масштабирование ИИ-проектов требует вычислительных ресурсов мирового уровня, а партнёрство с CoreWeave и ведущими финансовыми учреждениями даёт возможность обучать более эффективные ИИ-модели и предоставлять более качественные услуги. В мае 2025 года CoreWeave подписала с OpenAI новый контракт на $4 млрд, дополнив предыдущее соглашение на $11,9 млрд. Также сообщается, что CoreWeave предоставит часть вычислительных мощностей для сделки OpenAI и Google.
Источник изображения: CoreWeave Кредит DDTL 3.0 предоставлен CoreWeave под плавающую ставку SOFR + 4 % (SOFR — базовая ставка ФРС) и должен быть погашен к 21 августа 2030 года. Залогом выступают практически все активы дочерней компании CoreWeave Compute Acquisition Co. VII, LLC. Новый раунд финансирования состоялся после закрытия 28 июля продажи облигаций на $1,75 млрд. Первоначально планировалось привлечь $1,5 млрд, однако сумма была увеличена. Средства будут направлены на общие корпоративные цели, включая погашение долгов и покрытие сопутствующих расходов. Это уже третий крупный раунд финансирования в 2025 году после майского привлечения $2 млрд. По данным CoreWeave, за последние 18 месяцев компания привлекла более $25 млрд как за счёт акционерного капитала, так и за счёт заёмных средств. Это превысило план в $21 млрд, озвученный в мае 2025 года. Дополнительно стало известно, что CoreWeave заключила соглашение с Applied Digital об аренде ЦОД мощностью 150 МВт, дополнив июньское соглашение с той же компанией на 250 МВт. Совокупная выручка Applied Digital составит $11 млрд за 15 лет. Кроме того, CoreWeave приобрела дата-центр Northeast Science & Technology Center (NEST) за $322 млн в Кенилворте (Нью-Джерси). Площадь кампуса составляет более 43 га, продавцами выступили Machine Investment Group и Onyx Equities. CoreWeave арендовала здание № 11 в кампусе ещё в октябре 2024 года, планируя превратить лабораторный и промышленный корпус площадью 26 тыс. м² в ЦОД, инвестировав $1,2 млрд. Ещё $50 млн на модернизацию должны были вложить предыдущие владельцы. Теперь компания приобрела весь кампус «смешанного назначения» площадью 185 тыс. м², включающий офисные здания, подстанцию на 50 МВт, котельную и другие помещения. В 2023 год нынешние владельцы купили кампус за $187,5 млн, но не преуспели в его использовании. В последнее время CoreWeave стремится получить управляемые ей ЦОД в собственность — в июле она сообщила о покупке компании Core Scientific за $9 млрд, у которой сейчас арендет ЦОД на 840 ГВт. |
|

