Материалы по тегу: ии
|
08.03.2026 [14:44], Владимир Мироненко
Huawei представила решения для оптических сетей нового поколения для ИИ-нагрузокHuawei провела на MWC 2026 презентацию продуктов и решений, в рамках которой Боб Чен (Bob Chen), президент подразделения оптических продуктов Huawei, представил продукты и решения для оптических сетей нового поколения, призванные способствовать синергии между ИИ и сетями, с упором на ориентированные на ИИ. Он отметил, что развитие ИИ открывает новые возможности для операторов, но также предъявляет более высокие требования к пропускной способности сети, задержке и надёжности, делая необходимой модернизацию оптических сетей для эпохи ИИ. Ведущие мировые операторы также ускоряют развертывание оптических сетей следующего поколения. Боб Чен заявил, что Huawei развивает решения для оптических сетей следующего поколения в двух направлениях: «ИИ для сетей» и «сети для ИИ». В рамках направления «ИИ для сетей» ИИ-технологии обеспечивают интеллектуальное обнаружение волоконно-оптических кабелей, повышают производительность сети и удобство использования, улучшают эффективность эксплуатации и технического обслуживания, а также снижают энергопотребление. В рамках направления «сети для ИИ» расширенные сетевые возможности помогают операторам создавать целевые оптические сети, ориентированные на ИИ, ускоряя внедрение ИИ в домах и на предприятиях.
Источник изображения: Huawei «ИИ для сетей»: повышение качества и эффективности сети
«Сети для ИИ»: ускорение популяризации ИИ
В области оптического доступа Huawei представила FAN-продукты следующего поколения, такие как технология FTTR (Fiber-to-the-Room), OLT (Optical Line Terminal), ONT (Optical Network Terminal) и ODN (Optical Distribution Network). В частности, Huawei выпустила продукты OTN (Optical Transport Network) следующего поколения для магистральных и метросетей, помогая операторам создавать агентные UBB-сети.
08.03.2026 [14:20], Сергей Карасёв
ИИ-облако Iren закупит 50 тыс. ускорителей NVIDIA B300Неооблачная компания Iren объявила о заключении соглашения о покупке более 50 тыс. ускорителей NVIDIA B300. Эта сделка позволит Iren расширить общий парк установленных ускорителей примерно до 150 тыс. ед., что к концу 2026 года обеспечит доход от облачных ИИ-вычислений в размере свыше $3,7 млрд. Закупаемые ускорители NVIDIA B300 в течение этого года будут развёрнуты в существующих дата-центрах Iren с воздушным охлаждением в Маккензи (Британская Колумбия, Канада) и Чилдрессе (Техас, США). При этом подчёркивается, что площадки компании в Чилдрессе и Канал-Флэтс (Британская Колумбия) располагают возможностями для дальнейшего наращивания вычислительных мощностей. За последние восемь месяцев Iren привлекла $9,3 млрд в виде предоплат от клиентов, конвертируемых облигаций, лизинга и средств для приобретения оборудования. В частности, были получены $3,6 млрд на закупку ИИ-ускорителей для нужд Microsoft. Iren намерена использовать эти и другие источники средств для финансирования дополнительных капитальных затрат в размере приблизительно $3,5 млрд: деньги пойдут на покупку серверов, хранилищ, сетевых устройств и вспомогательного оборудования, а также на оплату труда. Условия соглашений предусматривают выполнение платежей после отгрузки техники — это повышает эффективность использования оборотного капитала. «Наращивание мощностей до 150 тыс. ускорителей ставит Iren в число крупнейших мировых поставщиков облачной инфраструктуры для ИИ», — говорит Дэниел Робертс (Daniel Roberts), соучредитель и один из генеральных директоров компании. На сегодняшний день Iren управляет несколькими кампусами ЦОД общей мощностью 810 МВт. Ещё 2,1 ГВт находятся в стадии строительства, 1 ГВт — в стадии разработки. Компания, ранее фокусировавшаяся на майнинге криптовалют, переориентирует свои ресурсы на задачи в сфере ИИ.
07.03.2026 [22:57], Владимир Мироненко
Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta✴Oracle и OpenAI отказались от планов расширения флагманского ИИ ЦОД в Абилине (Abilene, Техасе), одного из первый объектов проекта Stargate, сообщил Bloomberg. Строительство этого ЦОД на территории Clean Campus компании Lancium осуществляет разработчик проекта Crusoe Energy. Объект находится в ведении Oracle в интересах OpenAI. В сентябре прошлого года были введены в эксплуатацию два здания ЦОД, а в этом году планируется запуск ещё шести, в результате чего его мощность составит около 1,2 ГВт. Далее Oracle и OpenAI планировали увеличить мощность до 2 ГВт. Переговоры об этом между Oracle, Crusoe и OpenAI велись с середины 2025 года, но планы изменились. По словам источников, переговоры затянулись из-за проблем с финансированием, а также в связи с часто меняющимися прогнозами спроса OpenAI и изменением взглядов на Stargate, что в итоге привело к их срыву. Также на отношения между Oracle и Crusoe повлияли проблемы с надёжностью функционирования объекта. По словам источников, ранее в этом году ЦОД не функционировали в течение нескольких дней из-за зимней непогоды, повлиявшей на работу части оборудования жидкостного охлаждения. Вместе с тем, компании заверили что их партнёрство по-прежнему прочное, и что арендованная Oracle площадка в Абилине быстро развивается. «Crusoe и Oracle работают в тесном сотрудничестве, чтобы создать одну из крупнейших в мире ИИ-фабрик в Абилине, — говорится в заявлении Crusoe. — Наше сотрудничество позволяет создавать масштабную инфраструктуру быстрее, чем кто-либо другой в отрасли». Также в силе осталась договорённость OpenAI с Oracle, согласившейся поставить для неё 4,5 ГВт мощностей ЦОД. Как сообщает Bloomberg, эта сделка по-прежнему находится в процессе, и компании объявили о ряде проектов в других локациях, например, об объекте недалеко от Детройта, принадлежащем Related Digital. Что касается отказа от расширения проекта в Абилине, то после публикации статьи Bloomberg руководитель отдела инфраструктуры OpenAI Сачин Катти (Sachin Katti) сообщил в соцсетях следующее: «Наша флагманская площадка Stargate — один из крупнейших кампусов ИИ ЦОД в Соединённых Штатах. Мы рассматривали возможность дальнейшего расширения, но в конечном итоге решили разместить дополнительные мощности в других местах». «Сегодня у нас в разработке более полудюжины площадок в нескольких штатах, включая площадку, которую мы строим совместно с Oracle в Висконсине, где на этой неделе были установлены первые стальные балки», — добавил он, о чём сообщил Data Center Dynamics. По данным The Information, полноценное электроснабжение на площадке в Абилине будет доступно только через год, к тому времени OpenAI надеется использовать ускорители NVIDIA Vera Rubin вместо ускорителей Blackwell, которые будут установлены в Абилине, поэтому компания предпочла изменить планы. Кроме того, недалеко от первого техасского кампуса Stargate строится и второй — 1,4-ГВт ИИ ЦОД в округе Шакелфорд (Shackelford, Техас) возводится под началом Vantage Data Centers. Как рассказали источники, когда Crusoe начала подыскивать арендаторов для своего ЦОД в Абилине, к процессу подключилась NVIDIA. Чтобы избежать появления на этой площадке продукции конкурирующего разработчика чипов AMD, компания, как сообщается, внесла Crusoe депозит в размере $150 млн для обеспечения аренды площадки. Сообщается, что провал переговоров между Oracle и OpenAI создал возможность для Meta✴ по аренде запланированной для расширения площадки в Абилине, и NVIDIA ведёт с ней переговоры по этому поводу. Сделка между Crusoe и Meta✴ пока не подписана. Добавим, что только в этом году Meta✴ планирует направить на капитальные затраты до $135 млрд. В свою очередь, OpenAI намерена инвестировать в вычислительные мощности около $600 млрд к 2030 году, что гораздо меньше ранее заявленных $1,4 трлн к 2033 году. При этом до $300 млрд из этой суммы планируется выделить Oracle, которая сама испытывает трудности с финансированием строительства своих ЦОД, накапливает долги и планирует уволить тысячи сотрудников для снижения расходов.
07.03.2026 [22:20], Сергей Карасёв
640 Кбайт хватит для ИИ: микроконтроллеры STM32U3B5/C5 со сверхнизким энергопотреблением могут работать даже без батарейSTMicroelectronics анонсировала микроконтроллеры STM32U3B5 и STM32U3C5, ориентированные на автономные устройства с функциями ИИ и машинного обучения. Изделия отличаются сверхнизким энергопотреблением и возможностью перехода в режим глубокого сна при отсутствии данных. Таким образом, допускается работа без батарей — исключительно за счёт преобразования энергии окружающей среды (свет, тепло, вибрации, радиоволны) в электрическую. Микроконтроллеры используют 32-бит ядро Arm Cortex-M33 с частотой 96 МГц. Заявленная производительность достигает 1,5 DMIPS/МГц (Dhrystone 2.1) и 395,4 CoreMark (4,12 CoreMark/МГц). В оснащение входит HSP (Hardware Signal Processor) — специальный блок, предназначенный для ускорения определенных вычислений, связанных с ИИ. Есть 640 Кбайт SRAM и 2 Мбайт флеш-памяти. Предусмотрены интерфейсы SDMMC и OCTOSPI с поддержкой внешней памяти SRAM, PSRAM, NOR, NAND и FRAM. Реализована поддержка 114 × GPIO, USB 2.0, SAI (Serial Audio Interface), 4 × I2C FM+, SMBus/PMBus, 3 × I3C (SDR), 3 × USART и 2 × UART (SPI, ISO 7816, LIN, IrDA, Modem), 1 × LPUART, 4 × SPI, 2 × CAN FD, GPDMA (12 каналов), 2 × 12-bit ADC, 12-bit DAC и др. Возможны различные варианты исполнения, в том числе UFQFPN48 (7 × 7 мм), LQFP48 (7 × 7 мм), LQFP64 (10 × 10 мм), WLCSP72 (3,67 × 3,58 мм), WLCSP99 (3,67 × 3,58 мм), LQFP100 (14 × 14 мм), WLCSP126 (3,67 × 3,58 мм), UFBGA132 (7 × 7 мм) и LQFP144 (20 × 20 мм). Диапазон рабочих температур простирается от -40 до +105 °C. В микроконтроллеры встроены развитые средства безопасности, включая Arm TrustZone, генератор случайных чисел TRNG, защиту от несанкционированного доступа и пр. Единственное различие между решениями STM32U3B5 и STM32U3C5 заключается в том, что второе включает криптографическое ядро для ускорения операций шифрования и дешифрования. Цена варьируется от $2,9298 до $4,6829 за штуку в зависимости от конфигурации при заказах партий от 10 тыс. единиц.
06.03.2026 [17:26], Владимир Мироненко
Акции Marvell подскочили после отчёта о росте продаж чипов для ИИ ЦОДАмериканская компания Marvell Technology, специализирующаяся на производстве процессоров, микроконтроллеров и телекоммуникационных решений, сообщила результаты IV квартала и всего 2026 финансового года, завершившегося 31 января 2026 года. Результаты превысили ожидания аналитиков. Также Marvell прогнозирует доходы в 2028 финансовом году выше оценок Уолл-стрит, что свидетельствует о высоком спросе на специализированные микросхемы и решения для интерконнекта, используемые в ИИ ЦОД, в результате чего ее акции подскочили на 15 % на дополнительных торгах, сообщило агентство Reuters. Выручка Marvell за IV квартал составила $2,22 млрд, что на 22 % больше год к году и $19,0 млн выше среднего значения прогноза компании, представленного 2 декабря 2025 года. Также это превысило консенсус-прогноз аналитиков, опрошенных FactSet, в размере $2,21 млрд (по данным Investors.com). Скорректированная прибыль на разводнённую акцию (non-GAAP) составила $0,80 при среднем прогнозе аналитиков в $0,79. Чистая прибыль (GAAP) составила $396,1 млн, или $0,46 на разводнённую акцию против $1,90 млрд и $2,20 на разводнённую акцию годом ранее. Выручка сегмента решений для ЦОД, на который пришлось 74 % от общего дохода компании, составила $1,65 млрд, увеличившись год к году на 21 %. Сегмент связи и прочих услуг принёс $567,4 млн, что на 26 % больше, чем годом ранее. Выручка за 2026 финансовый год составила $8,195 млрд, что на 42 % больше, чем годом ранее. Чистая прибыль (GAAP) равняется $2,67 млрд или $3,07 на разводнённую акцию, тогда как годом ранее у компании были убытки в размере $885 млн или $1,02 на разводнённую акцию. Скорректированная чистая прибыль (Non-GAAP) за 2026 финансовый год равна $2,47 млрд или $2,84 на разводненную акцию. Компания отметила, что выручка от коммутаторов превысила $300 млн в 2026 финансовом году и ожидается, что она превысит $600 млн в 2027 финансовом году. За прошедший год выручка от кастомных микросхем удвоилась и ожидается сильный рост в 2027 финансовом году. В I квартале 2027 года Marvell прогнозирует скорректированную прибыль в размере $0,79 на разводнённую акцию +/- $0,05 при выручке в $2,40 млрд ±5 %. Аналитики Уолл-стрит ожидают прибыль в размере $0,74 на разводнённую акцию при выручке в $2,28 млрд. За аналогичный период прошлого года Marvell заработала $0,62 на акцию прибыли при выручке в $1,9 млрд. Компания заявила, что квартальный прогноз включает ожидаемые результаты Celestial AI и XConn Technologies, приобретённых в конце прошлого и начале этого года. Marvell ожидает, что существенный вклад в выручку от Celestial AI начнётся во II половине 2028 финансового года, достигнув $500 млн в IV квартале 2028 финансового года и удвоившись до $1 млрд к IV кварталу 2029 финансового года. Также Marvell ожидает, что первоначальный вклад в выручку от XConn начнется в III квартале 2027 финансового года, достигнув $50 млн в годовом исчислении в IV квартале 2027 финансового года. В 2028 финансовом году Marvell ожидает, что XConn принесет $100 млн выручки. «Мы ожидаем, что рост выручки в годовом исчислении будет ускоряться каждый квартал в 2027 финансовом году благодаря устойчивому росту нашего бизнеса в сфере ЦОД, при этом объёмы заказов продолжают расти рекордными темпами. В дополнение к нашим сильным результатам и перспективам, количество заключенных нами контрактов на проектирование в 2026 финансовом году достигло исторического максимума, что, как мы ожидаем, будет и дальше способствовать нашему будущему росту», — заявил Мэтт Мерфи (Matt Murphy), председатель совета директоров и генеральный директор Marvell. Ожидается, что крупные технологические компании, включая Alphabet, Microsoft, Amazon и Meta✴, потратят в этом году не менее $630 млрд на развитие ИИ-инфраструктуры, что повысит спрос на чипы, используемые в серверах и сетевом оборудовании таких компаний, как Marvell. «Мы изучаем планы капитальных затрат крупных компаний на этот год и можем оценить темпы нашего привлечения клиентов, и мы очень уверены в достижении этих показателей», — заявил в интервью Reuters президент и главный операционный директор Крис Купманс (Chris Koopmans). Marvell также ожидает, что выручка вырастет почти на 40 % и приблизится к $15 млрд в 2028 финансовом году, что выше средней оценки аналитиков, по данным LSEG, в $12,92 млрд. Компания также повысила свой прогноз выручки на $2027 финансовый год, ожидая роста более чем на 30 % в годовом исчислении, до $11 млрд, по сравнению с предыдущим прогнозом в $10 млрд. Broadcom, приямой конкурент Marvell, рассчитывает изрядно заработать на кастомных ИИ-ускорителях.
06.03.2026 [17:01], Руслан Авдеев
Инференс-нагрузки Perplexity прописались в облаке CoreWeaveКомпания CoreWeave объявила о заключении долгосрочного соглашения с Perplexity. Стратегическое партнёрство призвано обеспечить выполнение рабочих ИИ-нагрузок последней, также предусмотрено пилотное внедрение в обеих организациях новых сервисов. Утверждается, что CoreWeave позволяет клиентам переходить от разработки непосредственно к внедрению без перепроектирования систем и инструментов. Соглашение предусматривает, что платформа CoreWeave будет использоваться Perplexity для инференса нового поколения. Выделенные кластеры на основе суперускорителей NVIDIA GB200 NVL72 гарантируют соответствие инфраструктуры облачного провайдера изменению задач Perplexity и высоким требованиям экосистемы на основе Sonar и Search API. В своё время Perplexity начинала с выполнения задач инференса с помощью CoreWeave Kubernetes Service и применения платформы W&B Models для (до-)обучения моделей и управления ими на всех этапах, от экспериментального до ввода в эксплуатацию. Дополнительно CoreWeave повсеместно внедрит в своей организации инструменты Perplexity Enterprise Max, что позволит её специалистам искать информацию в интернете и внутренней базе данных, проводить углублённые исследования, анализировать данные и визуализировать их. Партнёрство является свидетельством «мультиоблачной» стратегии Perplexity. Чуть более месяца назад Microsoft заключила крупную облачную сделку с Perplexity, но ключевым провайдером ИИ-поисковика останется AWS.
Источник изображения: CoreWeave/Perplexity Это лишь последняя из удачных сделок CoreWeave, сдающей в аренду мощности даже таким компаниям, как Microsoft, Meta✴ и OpenAI. В 2025 году компания получила средства от NVIDIA, которая арендовала свои же ускорители у CoreWeave. В сентябре 2025 года компания обязалась выкупить у неооблачного оператора все нераспроданные мощности. CoreWeave на волне роста спроса на облачные услуги удвоит в 2026 году капитальные затраты, хотя некоторые инвесторы сомневаются в целесообразности таких мер.
06.03.2026 [16:22], Руслан Авдеев
LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в ПусанеЮжнокорейская LG представила контейнерные дата-центры — занимающееся ИИ-проектами и облачными технологиями подразделение LG CNS создало модуль AI Box, вмещающий до 576 ИИ-ускорителей IT-мощностью до 1,2 МВт, сообщает Datacenter Dynamics. Каждый модуль включают системы энергоснабжения и охлаждения. По словам LG, полностью готовые к развёртыванию модули можно подготовить за шесть месяцев. AI Box состоит из «электрощитовой», отвечающей за силовую инфраструктуру, включающей ИБП, трансформаторы и распределительные щиты, а также машинный зал с серверами, ИИ-ускорителями и охлаждающим оборудованием. Извне подключается электрогенератор, блок аккумуляторов и внешний контур охлаждения. Модульный дизайн позволяет легко масштабировать ЦОД до десятков контейнеров, формируя ИИ-объект гиперскейл-уровня. Первый AI Box компания построит на пусанской площадке Busan Global Cloud Data Center. В планах создание крупного кампуса, вмещающего около 50 контейнеров на территории более 27 тыс. м2 для удовлетворения местного спроса на ИИ-инфраструктуру. Компания объявила, что с выход AI Box знаменует переход к новой парадигме в связанном с ЦОД бизнесе. После успеха на локальном рынке LG намерена расширить глобальное присутствие, в частности, в Юго-Восточной Азии и Северной Америке.
Источник изображения: LG CNS Подразделения одной только LG, связанные с телекоммуникациями и технологиями, управляют в Южной Корее многочисленными дата-центрами. Основанная в 1987 году LG CNS является провайдером IT-сервисов. Она ещё в 1992 году ввела в эксплуатацию первое в Южной Корее специализированное здание ЦОД — Incheon Data Center. Теперь она управляет дата-центрами в Сеуле и Пусане, а также четырьмя площадками за рубежом. Телеком-подразделение LG Uplus управляет несколькими колокейшн-ЦОД, включая три объекта в Сеуле и один в Аняне (Anyang). Конечно, модульные ЦОД активно внедряют и в других странах. Так, например, в феврале 2026 года французский стартап Policliud пообещал развернуть тысячу суверенных модульных микро-ЦОД за пять лет, а в начале марта появилась новость о более экзотическом решении — Aikido объединила морские ветряки с модульными ИИ ЦОД.
06.03.2026 [12:37], Руслан Авдеев
На просвет не видно, чьё: кабели с иностранным оптоволокном предложено временно считать российскимиМинпромторг РФ выступил с предложением отложить обязательное использование российского оптоволокна в кабелях ВОЛС на два года, сообщает «Коммерсантъ». В ПП №719 указаны параметры, при которых продукция признаётся российской. В этом случае производители могут включать её в реестр Минпромторга, что, например, позволяет участвовать в государственных закупках. Требование подтверждать отечественное происхождение оптоволокна министерство предложило перенести на 2028 год. Предлагается считать с 1 июня 2026 года российским кабель, выпущенный в стране из иностранного оптоволокна. Утверждается, что единственный в ЕАЭС завод по выпуску оптоволокна «Оптиковолоконные системы» (ОВС) в Мордовии приостановил производство в результате повреждения оборудования, а запасы на складах подходят к концу. Восстановление производства вероятно в декабре 2027 года. Не исключено, что к 2028 году потребности рынка удовлетворить отечественным волокном в полной мере не удастся. По данным «Коммерсанта», новый проект постановления способен расширить количество предприятий, которые могут подтвердить российское происхождение продукции для включения в реестр. По данным ассоциации «Электрокабель», пока существующее требование об обязательном использовании российского оптоволокна невыполнимо и сейчас оно блокирует закупки оптоволоконных кабелей для критически важных систем связи, энергетического комплекса и др.
Источник изображения: Compare Fibre/unsplash.com До приостановки производства, по некоторым оценкам, доля продукции ОВС на российском рынке составляла порядка 30-40 %, общие мощности компании обеспечивали выпуск 4 млн км оптоволокна в год, хотя стране требуется не менее 20 млн км. По имеющимся данным, оптоволокно зарубежного, преимущественно китайского, производства уже кратно подорожало в последнее время. По словам экспертов, современный объём потребления оптоволокна в России в рыночных целях составляет около 15 млн км ежегодно, из них на выпуск кабелей уходит около 2 млн км. В случае, если отсрочка будет одобрена, заводы смогут продолжить своевременный выпуск кабелей и обеспечат выполнение программы госзакупок, но решение носит временный характер и «фиксирует» зависимость страны от импорта до 2028 года.
06.03.2026 [08:58], Руслан Авдеев
Akamai развернёт тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференсаОблачный провайдер Akamai анонсировал покупку «тысяч» ИИ-ускорителей для развития своей распределённой облачной инфраструктуры по всему миру. Развёртывание новых чипов позволит создать единую оптимизированную ИИ-платформу для быстрого и распределённого инференса в глобальной сети Akamai. По словам компании, она готовит базовую инфраструктуру для «физического» и «агентного» ИИ, где решения необходимо принимать в режиме реального времени. Ранее компания анонсировала проект Akamai Inference Cloud. Как заявляет Akamai, пока крупные облачные бизнесы расширяют проекты обучения ИИ, компания сосредоточилась на удовлетворении потребностей эпохи инференса. Централизованные ИИ-фабрики имеют важное значение для создания моделей, но для их масштабной эксплуатации необходима децентрализованная «нервная система». Внедрение NVIDIA Blackwell в распределённая инфраструктуру, как ожидается, позволит ИИ взаимодействовать с «физическим» миром на местах — с системами автономной доставки, умными энергосетями, роботами-хирургами, антифрод-системами т.п. — без географических и финансовых ограничений, характерных для классических облаков. Интеграция ускорителей Blackwell обеспечит:
Предоставляя инструментарий для выполнения задач ближе к конечным пользователям, Akamai обеспечивает высокую пропускную способность и, как утверждается, одновременно снижает задержку до 2,5 раз. Это позволит бизнесам экономить до 86 % на инференсе в сравнении с обычными облачными компаниями-гиперскейлерами. Платформа объединяет серверы на основе ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition с DPU NVIDIA BlueField-3 и распределённую облачную инфраструктуру Akamai с 4,4 тыс. точек присутствия. Cloudflare применяет платформу с «бессерверным» инференсом в более чем 200 городах. Её Workers AI обеспечивают глобальный инференс с задержкой менее 100 мс без специального выделения кластеров ускорителей. Fastly применяет платформу периферийных вычислений, но предлагает меньшее количество локальных точек присутствия (PoP) для выполнения задач на GPU/CPU.
06.03.2026 [01:05], Владимир Мироненко
Планирование пошло не по плану: аналоги ERP SAP и Oracle причислили к КИИВ России признали ERP-системы, аналогичные продуктам зарубежных SAP и Oracle, объектами критической информационной инфраструктуры (КИИ). Распоряжением правительства №360-р они были добавлены в единый перечень из 397 типовых отраслевых объектов КИИ. Они прямо включены в перечень объектов КИИ для химической, металлургической, горнодобывающей, ракетно-космической и оборонной промышленности, сообщил «Коммерсантъ». Ресурс отметил, что решение правительства формализует принятые ранее отраслевые перечни (с 2024 года) и обязывает предприятия проводить категорирование ERP, усиливать их защиту по требованиям ФСТЭК, что влечёт за собой дополнительные расходы. Также включение в перечень стимулирует к переходу на отечественные аналоги вместо иностранных SAP или Oracle из-за возможных штрафов, производственных простоев и роста IT-затрат. Ранее было предложено создание национального аналога SAP, но она не нашла поддержки у бизнеса. Импортозамещение ERP-систем, в том числе в субъектах КИИ, сейчас курирует Национальный центр компетенций по информационным системам управления (НЦК ИСУ). Он предлагает поэтапный подход, чтобы минимизировать риски: сначала провести категорирование объектов с обязательным аудитом текущих платформ (включая SAP и Oracle), а затем начать миграцию на отечественные аналоги с сохранением ключевых бизнес-процессов. НЦК ИСУ отметил, что вводимые правила в итоге затруднят категорирование ERP, приведут к усложнению проектов и росту затрат на них, а причисление ERP к КИИ означает, что регулятор видит риски защищённости самих этих решений. Вместе с тем эксперты отметили, что явных требований к самим системам распоряжение правительства не добавляет, а существующие приказы ФСТЭК и других ведомств описывают лишь меры обеспечения защиты от различных угроз. Поэтому следует ожидать, что поддержка иностранных ERP-решений, которая всё ещё осуществляется без участия западных вендоров, сохранится. Как ожидается, из-за перевода в объекты КИИ затраты компаний вырастут из-за внедрения дополнительных средств защиты, сегментации сети, резервирования и пересмотра архитектуры, но основная сумма пойдёт не на лицензии, а на интеграцию, аудит и сопровождение. |
|

