Материалы по тегу: ии
|
26.02.2026 [13:30], Руслан Авдеев
Amazon захотела пристроить крупный ЦОД к АЭС Comanche Peak в ТехасеКомпания Amazon намерена построить ещё один дата-центр в Техасе. На этот раз речь идёт об объекте в непосредственной близости от атомной электростанции, сообщает Datacenter Dynamics. На днях окружной суд Сомервелла (Somervell) подал ходатайство о заключении договора о развитии с дочерней структурой Amazon — Amazon Data Services. При её посредничестве Amazon осуществляет большую часть операций, связанных с рынком ЦОД. Предлагаемый проект предлагают реализовать на землях компании Vistra, прилегающих к АЭС Comanche Peak. В соответствии с данными из заявки на получение налоговых льгот, проект предусматривает строительство до 18 двухэтажных строений на площади около 176 га. Объём инвестиций составит порядка $5 млрд. По данным техасских СМИ, строительство может стартовать уже в 2027 году. Детали соглашения пока хранятся в секрете, но уже есть данные, что оно предусматривает выплату округу $2,5 млн после начала строительства и ещё по $300 тыс. за каждое здание. АЭС Comanche Peak мощностью 2,4 ГВт введена в эксплуатацию в 1974 году. Оператором выступает дочерняя структура Vistra — Luminant Generation. Станция находится в Соммервелле, граничащим с округом Худ (Hood). Amazon уже взаимодействует с властями последнего в рамках инициативы Project Spectrum, предусматривающей строительство кампуса ЦОД на территории площадью более 511 га, который тоже может быть запитан от Comanche Peak. Округ Худ привлекает пристальное внимание инвесторов и застройщиков. Sailfish намерена построить крупный объект на площади более 809 га и мощностью 5 ГВт, тоже недалеко от атомной электростанции. MARA занимается майнингом в том же округе, а Pacifico Energy планирует «несетевой» проект газовой энергетики, предназначенный для снабжения энергии дата-центров на территории Худа. Впрочем, единого мнения относительно разрешения строительства новых ЦОД среди местных властей нет. Ранее Amazon (AWS) приобрела кампус ЦОД, расположенный в непосредственной близости от АЭС Susquehanna в Пенсильвании (США). Изначально компания пыталась запитать ЦОД напрямую от АЭС, но власти и регуляторы не одобрили сделку. Тем не менее, планируется значительное расширение кампуса. Летом 2025 года также сообщалось, что компания инвестирует $20 млрд в развитие ИИ ЦОД в Пенсильвании и $10 млрд в Северной Каролине.
26.02.2026 [07:49], Владимир Мироненко
«Базис» увеличил годовую выручку до 6,3 млрд рублей — почти треть теперь приходится на комплементарные решенияКомпания «Базис», специализирующаяся на разработке ПО для организации динамической инфраструктуры, создания виртуальных рабочих мест и оказания облачных услуг, сообщила консолидированные финансовые результаты по стандартам МСФО за 2025 год. Выручка «Базиса» выросла год к году на 37 % до 6,3 млрд руб., что соответствует прогнозу компании, предоставленному в ноябре 2025 года. Рост выручки был достигнут за счёт увеличения продаж лицензий и роста числа подписок. Доля выручки от лицензий и подписок составила 91 %, в то время как на техническую поддержку приходится 8 % в объёме выручки, а на прочие услуги — около 1 %. При этом выручка от флагманских продуктов, включая решения для серверной виртуализации и виртуализации рабочих мест, выросла на 22 % до 4,2 млрд руб. Выручка от комплементарных решений, дополняющих экосистему продуктов «Базиса», выросла на 83,6 %, с 1,1 до 2,0 млрд руб., в результате чего их доля в выручке увеличилась с 24 до 32 %. К комплементарным продуктам относится ПО в области контейнеризации, резервного копирования, защиты виртуальных сред, автоматизированной миграции, а также программно-определяемых хранилищ (SDS) и сетей (SDN) и другие решения. Чистая прибыль выросла на 8,6 % до 2,22 млрд руб. Рентабельность чистой прибыли составила 35 % в сравнении с 44 % годом ранее. Количество клиентов выросло на 19 % до 248, а персонал увеличился на 37 % до 500 человек. В 2026 году компания ожидает увеличения выручки на 30–40 %. «Ключевым драйвером нашего роста в 2025 году стала последовательная реализация стратегии развития продуктовой экосистемы. Она заключается в совершенствовании флагманских продуктов и масштабировании комплементарных решений, доля которых в выручке превысила треть от всех доходов компании», — заявил глава ПАО «ГК «БАЗИС». Он подчеркнул, что 38 % выручки компании составили рекуррентные продажи, «что делает рост более качественным и устойчивым в долгосрочной перспективе, сглаживает сезонность и обеспечивает предсказуемость денежных потоков».
25.02.2026 [19:13], Андрей Крупин
«Группа Астра» представила комплексное решение для создания VDI-инфраструктур«Группа Астра» сообщила о доступности заказчикам единой лицензии Termidesk Enterprise, позволяющей компаниям развернуть инфраструктуру виртуальных рабочих столов (Virtual Desktop Infrastructure, VDI) любой сложности на базе интегрированных продуктов виртуализации из экосистемы вендора. В составе Termidesk Enterprise представлены три программных продукта. Первый — мультиплатформенное решение Termidesk VDI для создания виртуальных рабочих мест с защищённым доступом к рабочим окружениям, корпоративным данным и приложениям. Второй — разработка класса Application Delivery Controller (ADC) Termidesk Connect, выполняющая функции безопасного шлюза доступа к инфраструктуре. Третий — это масштабируемая платформа управления аппаратной и контейнерной виртуализацией VMmanager. Она играет роль поставщика вычислительных ресурсов и позволяет сделать весь IT-ландшафт более устойчивым.
Источник изображения: ThisisEngineering / unsplash.com Инструментарий Termidesk Enterprise ориентирован на широкую аудиторию — от государственного сектора и крупных корпораций, реализующих программы импортозамещения ПО, до предприятий малого и среднего бизнеса. Решение может применяться как для развёртывания классических VDI- и высоконагруженных 3D-VDI-инфраструктур в корпоративной среде, так и для работы с терминальными серверами, организация безопасного удалённого доступа к физическим компьютерам без сторонних продуктов-аналогов TeamViewer и решения прочих задач. Представленные в составе Termidesk Enterprise продукты зарегистрированы в реестре российского ПО и могут использоваться с целью импортозамещения зарубежных софтверных решений.
25.02.2026 [17:31], Владимир Мироненко
Axelera AI привлекла $250 млн для разработки европейских ИИ-чиповПроизводитель ИИ-чипов Axelera AI из Эйндховена (Нидерланды) привлёк $250 млн в рамках раунда финансирования, который возглавил европейский венчурный фонд Innovation Industries. Наряду с имеющимися инвесторами в нём также приняли участие BlackRock и SiteGround Capital в качестве новых инвесторов. Это одна из крупнейших инвестиций на сегодняшний день в европейскую компанию по производству ИИ-чипов, отметило агентство Reuters. Генеральный директор Фабрицио Дель Маффео (Fabrizio Del Maffeo) указал в своём заявлении, что компания использует привлечённые средства для расширения производства своего чипа Europa, запуск которого запланирован до июня, а также для дальнейшей разработки ПО, упрощающего использование чипов для клиентов. У Axelera «большой портфель возможностей, требующих инвестиций, и этот портфель растет», — заявил Фабрицио Дель Маффео в интервью Bloomberg. По его словам, клиенты ищут более доступные вычислительные ресурсы, более высокую эффективность и способы сокращения расходов на дорогостоящую ИИ-инфраструктуру. Дель Маффео сообщил, что инференс может осуществляться на децентрализованной архитектуре, которая потребляет меньше энергии. Большие потребности крупных ЦОД в энергии, необходимой для обеспечения вычислительных мощностей для обучения ИИ-моделей, подвергаются критике на фоне опасений по поводу перегрузки электросетей и резкого роста цен на электроэнергию для потребителей, отметил Bloomberg. С момента основания в июле 2021 года Axelera AI привлекла более $450 млн в виде акционерного капитала, грантов и венчурного кредитования. В частности, в марте 2025 года Axelera получила грант в размере €61,6 млн ($66 млн) от EuroHPC JU в рамках проекта Digital Autonomy with RISC-V for Europe (DARE) по разработке передового чипа Titania для использования в так называемых ИИ-фабриках. Ожидается, что этот чип появится в 2027 году. Компания отметила, что финансовый раунд прошёл в тот момент, когда она начала поставки своему 500-му глобальному клиенту в области физического и периферийного ИИ в таких отраслях, как оборона и общественная безопасность, промышленное производство, розничная торговля, агротехнологии, робототехника и безопасность. По словам Axelera AI, её клиентская база за последний год увеличилась более чем втрое.
25.02.2026 [16:39], Руслан Авдеев
STACK и AWS построят за $12 млрд «ответственный» ИИ ЦОД на северо-западе ЛуизианыSTACK Infrastructure обнародовала планы строительства многопрофильного дата-центра стоимостью $12 млрд на северо-западе Луизианы — в округах Каддо (Caddo Parish) и Божер (Bossier Parish). Партнёром компании выступила Amazon при поддержке региональных представителей публичного сектора, сообщает Converge Digest. По данным STACK, скоординированные инвестиции в несколько кампусов расширят возможности местной цифровой инфраструктуры и выступят драйверами экономической активности в регионе в долгосрочной перспективе. Проект связан с кампусами по обоим берегам Ред-Ривер (Red River). Планируется поддержка ИИ ЦОД и облачных мощностей нового поколения. После ввода кампусов в эксплуатацию будет обеспечено более 540 рабочих мест на постоянной основе, с полной занятостью. Местные власти заявляют, что новые объекты принесут в бюджет штата и муниципалитетов миллионы долларов. Кроме того, будет финансироваться и модернизация местной инфраструктуры, в т.ч. систем водоснабжения, водоотведения и электроснабжения. STACK намерена финансировать все инфраструктурные расходы, необходимые для поддержки работы ЦОД. При развитии будут учитываться имеющиеся мощности коммунальных компаний и уже запланированные улучшения энергосистемы. Эти шаги направлены на повышение надёжности и обеспечение долгосрочной стабильности местных тарифов. Дополнительно в соответствии с принципами «ответственного строительства» STACK будут внедряться программы оптимизации водопотребления.
Источник изобрапжения: Michael Sanchez/unsplash.com AWS и другие поставщики облачных сервисов активно диверсифицируют географическое присутствие за пределами классических рынков ЦОД вроде Северной Вирджинии, осваивая вторичные рынки, где есть земля, энергия, ВОЛС и прочая инфраструктура. STACK Infrastructure уже создала глобальную сеть ЦОД в Северной Америке, EMEA и Азиатско-Тихоокеанском регионе. Компания предлагает решения под заказ для гиперскейлеров и ИИ-сервисов. Основная специализация — на крупномасштабных кампусах с поэтапными схемами расширения. В последние годы компания расширила присутствие в Северной Вирджинии, Кремниевой долины, Портленда, Торонто, Милана, Осло и Токио, с акцентом на регионы с доступом к возобновляемыми источниками энергии, высокой плотностью оптоволоконных сетей, а также налаженным контактам с коммунальными структурами, способными обеспечить энергией высокопроизводительные ЦОД. Так, помимо проекта STACK-Amazon, Meta✴ строит гигаваттный ИИ ЦОД Hyperion в округе Ричленд (Richland Parish), для которого построят ЛЭП за $1,2 млрд и газовую электростанцию, а прочие операторы дата-центров рассматривают использование площадок на севере Луизианы, связанных с региональной инфраструктурой передачи данных и расположенных недалеко от технопарка National Cyber Research Park в округе Божер.
25.02.2026 [14:03], SN Team
Омниканальная коммуникационная платформа МТС Exolve включена в Реестр российского ПОКомпания МТС Exolve, предлагающая отечественный конструктор омниканальных диалогов для бизнеса и принадлежащая ПАО «МТС», сообщила, что её одноименная коммуникационная платформа была включена в Реестр российского ПО. Платформа зарегистрирована в категории «Программное обеспечение для решения отраслевых задач в области информации и связи». Единый реестр российских программ для электронных вычислительных машин и баз данных (Реестр российского ПО) — это система учета программ российского происхождения. Включение в реестр требует, чтобы правообладатель был из РФ, а ПО работало без использования иностранных компонентов. Продукты, находящиеся в реестре, гарантируют компаниям надёжность, соответствие стандартам безопасности и долгосрочную стабильность. Они всегда доступны на российском рынке вне зависимости от внешних факторов. Цифровая платформа МТС Exolve была запущена в январе 2023 года. Она позволяет бизнесу интегрировать различные каналы связи (звонки, SMS, мессенджеры, роботы) в свои приложения и CRM-системы через API. Благодаря платформе можно автоматизировать общение с клиентами, анализировать его и выстраивать сложные сценарии звонков, в том числе с использованием роботов и виртуальной АТС. «Платформа коммуникационных решений МТС Exolve — это актуальный ответ современным задачам бизнеса в области коммуникаций с клиентами. Над ее созданием работала большая команда, учитывала задачи и потребности бизнеса, который искал решение, позволяющее в режиме «единого окна» осуществлять, контролировать и повышать эффективность общения с клиентами. — говорит генеральный директор МТС Exolve Рамиль Биккужин. — Наша платформа — уникальный продукт на рынке, который по своим качествам не уступает, и даже наоборот, во многом превосходит зарубежные аналоги. Включение в реестр — это не только признание заслуг команды разработки, но и подтверждение ожиданий наших клиентов, которые повышают эффективность своих коммуникаций, используя сервисы, отвечающие самым современным требованиям». Платформа МТС Exolve и другие сервисы из реестра избавляют компании от зависимости от иностранных разработчиков и минимизируют риски для бизнеса, позволяя строить долгосрочные планы, не меняя инструменты.
25.02.2026 [12:12], Владимир Мироненко
AMD поставит Meta✴ ускорители и процессоры на 6 ГВт, а Meta✴ получит акции AMD на $100 млрдAMD и Meta✴ заключили соглашение с целью развёртывания ИИ-инфраструктуры Meta✴ следующего поколения мощностью 6 ГВт на базе нескольких поколений ускорителей AMD Instinct. Соглашение расширяет существующее стратегическое партнёрство компаний, координируя их планы развития в области кремниевых компонентов, систем и ПО для создания ИИ-платформ, специально разработанных для рабочих нагрузок Meta✴. Соглашение рассчитано на несколько лет с поэтапной реализацией. Изначально планируется развернуть 1 ГВт во II половине 2026 года. AMD поставит кастомные ускорители AMD Instinct на базе MI450, созданные с учётом нагрузок Meta✴, а также процессоры AMD EPYC Venice, работающие под управлением ПО ROCm и построенные на стоечной архитектуре AMD Helios AI. Helios была разработана совместно AMD и Meta✴ в рамках проекта Open Compute Project (OCP) — двухсекционная стойка включает в себя процессоры EPYC Venice, ускорители MI455X и DPU Pensando Vulcano, обеспечивая производительность 2,9 Эфлопс в формате FP4 на стойку. Meta✴ также станет «ведущим заказчиком» процессоров AMD EPYC Venice и EPYC Verano, выпуск последних запланирован на 2027 год.
Источник изображения: Meta✴ В рамках сделки AMD выпустила для Meta✴ варрант на приобретение до 160 млн акций обыкновенного акционерного капитала AMD по цене 1¢/шт., привязанный к достижению определённых показателей, связанных с поставками Instinct. Первый транш предоставляется после поставок оборудования на 1 ГВт, а последующие транши будут предоставляться по мере дальнейших поставок. Предоставление прав на покупку акций также привязано к достижению AMD определённых пороговых значений цены акций, а исполнение прав — к достижению Meta✴ ключевых технических и коммерческих целей. Последняя партия акций будет реализована, если все запланированные заказы будут выполнены, а цена акций AMD превысит $600. По данным Wall Street Journal, общая стоимость сделки может превысить $100 млрд, пишет SiliconANGLE. «Это многолетнее сотрудничество, охватывающее несколько поколений, в рамках которого используются ускорители Instinct, процессоры EPYC и ИИ-системы стоечного масштаба, согласовывает наши планы по созданию высокопроизводительной, энергоэффективной инфраструктуры, оптимизированной для рабочих нагрузок Meta✴, ускоряя одно из крупнейших развёртываний ИИ в отрасли и ставя AMD в центр глобального развития ИИ», — отметила гендиректор AMD Лиза Су (Lisa Su). Марк Цукерберг (Mark Zuckerberg), основатель и генеральный директор Meta✴, назвал соглашение важным шагом для Meta✴ по диверсификации её вычислительных ресурсов. «Я ожидаю, что AMD останется важным партнёром на долгие годы», — заявил он. Как отметил ресурс Data Center Dynamics, это соглашение во многом похоже на сделку AMD с OpenAI, заключённую в октябре 2025 года, в соответствии с условиями которой AMD поставит OpenAI ускорители общей мощностью 6 ГВт. Ожидается, что поставки начнутся во II половине 2026 года, при этом OpenAI заявила о строительстве ЦОД мощностью 1 ГВт с использованием чипов MI450. На прошлой неделе Meta✴ подписала соглашение с NVIDIA о поставке нескольких поколений ускорителей, в рамках которого она будет использовать её Arm-процессоры чипов наряду с «миллионами» ускорителей Blackwell и Rubin, а также сетевой платформой Ethernet Spectrum-X.
25.02.2026 [11:55], Сергей Карасёв
Akash Systems начала поставки первых в мире GPU-серверов с алмазным охлаждениемКомпания Akash Systems, базирующаяся в Сан-Франциско (Калифорния, США), объявила о начале поставок первых в мире ИИ-серверов, оснащённых системой алмазного охлаждения Diamond Cooling. Заказчиком выступил NxtGen AI PVT Ltd — крупнейший в Индии государственный облачный провайдер. Технология Diamond Cooling основана на применении синтетических алмазов. Этот материал обладает самой высокой теплопроводностью из всех известных соединений. Akash Systems подчёркивает, что синтетические алмазы способны отводить тепло от чипов в пять раз эффективнее по сравнению с медью, что открывает качественно новые возможности в плане охлаждения современного оборудования высокой плотности для дата-центров, ориентированных на задачи ИИ и НРС. Akash Systems поставляет серверы на базе NVIDIA H200, для охлаждения которых применяется система Diamond Cooling. В отличие от стандартных ЦОД, оборудование в которых функционирует при температурах от +24 до +29 °C, серверы с технологией Diamond Cooled способны обеспечивать максимальную производительность при температуре окружающей среды до +50 °C. Благодаря этому снижаются общие требования к системам охлаждения дата-центров, что позволяет уменьшить эксплуатационные расходы. Среди одного из ключевых преимуществ Diamond Cooling разработчики называют устранение теплового троттлинга: это обеспечивает наилучшее быстродействие при выполнении ресурсоёмких задач, таких как обучение больших языковых моделей (LLM) и инференс. Кроме того, достигается повышение производительности (Флопс/Вт) до 15 % на каждый сервер. Плюс к этому существенно сокращается общее энергопотребление ЦОД, поскольку отпадает необходимость в интенсивном охлаждении. «Система Diamond Cooling решает две самые сложные проблемы в гонке ИИ — повышение энергоэффективности и сокращение капиталовложений. В ситуации, когда увеличение вычислительной мощности на 1–2 % имеет большое значение, повышение на 15 % фактически меняет правила игры», — говорит доктор Феликс Эджекам (Felix Ejeckam), соучредитель и генеральный директор Akash Systems.
24.02.2026 [23:00], Владимир Мироненко
SambaNova представила ИИ-ускоритель SN50 и объявила о расширении партнёрства с IntelSambaNova представила ИИ-ускорители пятого поколения SN50 на основе фирменных RDU (Reconfigurable Dataflow Unit), которые, по словам компании, «обеспечивает непревзойденное сочетание сверхнизкой задержки, высокой пропускной способности и энергоэффективной производительности для рабочих нагрузок ИИ-инференса, коренным образом меняя экономику генерации токенов». Кроме того, объявлено об инвестициях и сотрудничестве с Intel, которая передумала покупать SambaNova целиком. Как отметил The Register, новый чип представляет собой значительное улучшение по сравнению с SN40L 2023 года. По данным компании, SN50 обеспечивает в 2,5 раза более высокую производительность при 16-бит вычислениях (1,6 Пфлопс) и в 5 раз более высокую производительность в режиме FP8 (3,2 Пфлопс). В основе SN50 лежит архитектура потоковой обработки данных (SambaNova DataFlow). Как и в предшественнике, в SN50 используется трёхуровневая иерархия памяти, которая сочетает в себе DDR5, HBM и SRAM, что позволяет платформам на основе новинки поддерживать ИИ-модели с 10 трлн параметров и длиной контекста до 10 млн токенов. Каждый RDU оснащен 432 Мбайт SRAM, 64 Гбайт HBM2E с пропускной способностью 1,8 Тбайт/с и от 256 Гбайт до 2 Тбайт памяти DDR5. Доступность HBM2E и конфигурируемый объём DDR5 позволят повысить привлекательность и доступность SN50 на фоне дефицита памяти. Каждый ускоритель получил интерконнект со скоростью 2,2 Тбайт/с (в каждую сторону) для связи с другими чипами через коммутируемую фабрику. Как утверждает SambaNova, по сравнению с ускорителем NVIDIA B200, SN50 обеспечивает в 5 раз большую максимальную скорость генерации токенов на пользователя и более чем в 3 раза большую пропускную способность для агентного инференса, что было продемонстрировано на примере ряда моделей, таких как Meta✴ Llama 3.3 70B. Архитектура позволяет эффективно разгружать KV-кеш и переключаться между моделям в HBM и SRAM в режиме «горячей замены» за миллисекунды, что крайне важно для агентных рабочих нагрузок, часто переключающихся между несколькими ИИ-моделями. Также в SN50 входные токены могут кешироваться в памяти, сокращая время предварительной обработки и время ожидания первого токена (TTFT) для запросов. Такое сочетание производительности, эффективности и масштабируемости обеспечивает преимущество в совокупной стоимости владения (TCO), по словам компании, не имеющее аналогов на рынке, для поставщиков сервисов инференса, использующих такие модели, как OpenAI GPT-OSS, с восьмикратной экономией по сравнению с NVIDIA B200. SN50 ориентирован и на такие приложения, как голосовые помощники на основе ИИ, требующие сверхнизкой задержки для работы в режиме реального времени. По заявлению компании, он сможет обеспечить работу тысяч одновременных сессий. Также была представлена 20-кВт система SambaRack SN50, которая объединяет 16 чипов SN50. SambaRack могут масштабироваться до кластера из 256 ускорителей с пропускной способностью интерконнекта в несколько Тбайт/с, что сокращает время обработки запросов и поддерживает большие размеры пакетов. В результате можно развёртывать модели с более высокой пропускной способностью и быстродействием. Поставки SN50 клиентам начнутся во II половине 2026 года. Раннее SambaNova сообщила о привлечении более $350 млн в рамках переподписанного раунда финансирования серии E, возглавляемого частной инвестиционной компанией Vista Equity Partners при партнёрстве с Cambium Capital. В нём также приняло «активное участие» инвестиционное подразделение Intel — Intel Capital, сообщил SiliconANGLE. Также SambaNova заявила о сотрудничестве с Intel в разработке новых высокопроизводительных и экономически эффективных систем для выполнения ИИ-задач. Цель — предоставить предприятиям альтернативу GPU, которые сегодня используются в большинстве рабочих нагрузок. Intel инвестирует в стартап, чтобы ускорить развёртывание нового «облачного решения для ИИ» на базе существующей платформы SambaNova Cloud. Обновлённая платформа, оптимизированная для многомодальных LLM, получит процессоры Xeon, а также GPU, сетевые и иные решения Intel, в том числе в области СХД. Идёт ли речь о создании специализированных моделей Xeon, как это было в случае NVIDIA, не уточняется. В дальнейшем Intel и SambaNova планируют совместно продвигать и продавать новую платформу, используя существующие связи Intel с предприятиями и партнёрские каналы. Партнёрство несёт выгоду обеим компаниям. SambaNova сможет воспользоваться глобальным охватом и производственной базой Intel для масштабирования своих ИИ-ускорителей, а Intel получит шанс наконец-то заявить о себе на ИИ-рынке. До сих пор Intel не могла конкурировать с NVIDIA и другими производителями чипов, такими как AMD, в ИИ-сфере. Чипы SN50 от SambaNova в сочетании с процессорами Intel Xeon потенциально могут изменить эту ситуацию. Стоит отметить, что у Intel, которая сама чувствует себя не лучшим образом, есть довольно крупная сделка с NVIDIA. Компания также предлагает собственные GPU для инференса, пусть и значительно более простые в сравнении с SN50, и даже странные гибриды из ускорителей Habana Gaudi 3 и NVIDIA B200. Наконец, имеется и сделка с AWS по выпуску кастомных Xeon 6 и неких ИИ-ускорителей. Что касается старых «коллег» SambaNova в деле борьбы с NVIDIA, то Groq в итоге была поглощена последней, а Cerebras, наконец, подписала заметную сделку с действительно крупным игроком на рынке ИИ — OpenAI.
24.02.2026 [16:32], Владимир Мироненко
Pure Storage сменила имя на Everpure и приобрела 1touch для управления данными в эпоху ИИPure Storage провела ребрендинг, сменив название на Everpure, а также объявила о приобретении стартапа 1touch, специализирующегося на контекстной аналитике данных, переходя от продажи флеш-массивов к позиционированию себя как полноценной платформы управления данными для эпохи ИИ. «[Название] Everpure отражает ту компанию, которой мы стали, помогая предприятиям раскрыть весь потенциал своих данных. Она воплощает в себе мощь нашей архитектуры Enterprise Data Cloud и адаптивность Evergreen, укрепляя то, что всегда отличало нас, поскольку мы переосмысливаем важные рынки», — заявил генеральный директор Everpure Чарльз Джанкарло (Charles Giancarlo). Как сообщает Blocks & Files, компания «осознала», что в эпоху аналитики и ИИ клиентам необходимо управление данными, а не просто массивы хранения и информация на них. И Джанкарло неоднократно говорил об этом, касаясь темы архитектуры. Компания сообщила, что стратегия Everpure решает две основные проблемы предприятий, позволяя клиентам создавать собственное корпоративное облако данных. Первая проблема заключается в том, что клиенты управляют своими наборами данных с помощью людей, а не ПО, что делает управление непоследовательным, трудоёмким и подверженным ошибкам. Вторая же заключается в том, что традиционная архитектура корпоративного хранения данных, разработанная для операционных систем учёта, не оптимизирована для обслуживания систем ИИ и аналитики. «Теперь мы можем не только автоматизировать хранение данных для наших клиентов, но и помочь им лучше управлять глобальными корпоративными данными в масштабе. С помощью Everpure Fusion и нашей архитектуры Enterprise Data Cloud предприятия могут применять управление на основе политик для всех рабочих нагрузок, выходя за рамки традиционного хранения и стандартизируя, защищая и интеллектуально управляя своими наборами данных», — сообщила Everpure. Everpure стремится обеспечить полное управление жизненным циклом данных, их конвейерную обработку для ИИ и аналитики, характеристику и обогащение, присвоение тегов, онтологию, семантику и автономный информационный слой во всех хранилищах Pure. В этом поможет приобретение 1touch. Теперь у Everpure будет интеллектуальная плоскость управления, охватывающая локальные среды — ЦОД и периферию — и публичные облачные среды, предоставляемая как услуга, пишет Blocks & Files. Как сообщила Everpure, «технология 1touch решает общекорпоративные проблемы с данными, повышая киберустойчивость, укрепляя суверенитет данных и соответствие нормативным требованиям, а также обеспечивая более глубокую классификацию и контекстуализацию данных для подготовки к ИИ». Компания отметила, что приобретение 1touch поможет расширить возможности управления, добавив в платформу Everpure функции обнаружения данных и семантического контекста. «Благодаря интеграции хранилища с возможностями 1touch по обнаружению, классификации, контекстуализации и обогащению данных во всех наборах данных и в любой среде — от SaaS до периферии — Everpure обеспечит готовность корпоративных данных к использованию ИИ на самом источнике», — сообщила Everpure. По данным Blocks & Files, 1touch привлекла $3,5 млн в рамках посевного финансирования, за которым последовал раунд A в июне 2020 года на сумму $14 млн, а также ещё $14 млн в рамках раунда B в мае 2023 года — в общей сложности $31,5 млн. В марте 2025 года 1touch сообщила о 500-% росте новых заказов в годовом исчислении, нулевом оттоке клиентов и растущем списке клиентов из списка Fortune 500. Также ею была заключена многомиллионная сделка с одной из трех крупнейших мировых компаний, выпускающих кредитные карты, которая использует 1touch.io для управления конфиденциальными данными. На основе ПО Inventa было разработано решение для анализа и оркестрации данных под названием Kontextual, которое было запущено в ноябре 2025 года. |
|


