Материалы по тегу: облако
|
08.12.2025 [23:50], Андрей Крупин
В России запущена облачная платформа квантовых вычислений Bauman Octillion — она открыта для всех исследователейМГТУ им. Н. Э. Баумана сообщил о запуске облачной платформы квантовых вычислений Bauman Octillion, позволяющей запускать алгоритмы и экспериментировать на квантовых сопроцессорах, их эмуляторах, а также изучать образовательные материалы и модели, демонстрирующие потенциальные возможности квантовых вычислений. Площадка запущена в сотрудничестве с ФГУП «ВНИИА им. Н.Л. Духова», госкорпорацией «Росатом» и представляет собой альтернативу сервису IBM Quantum Platform, недоступному пользователям из РФ и ряда других стран мира. Bauman Octillion представляет собой комплекс для проведения гибридных квантово-классических вычислений на базе спроектированной и изготовленной совместным центром МГТУ им. Н. Э. Баумана и ФГУП «ВНИИА им. Н.Л. Духова» квантовой электронной компонентной базы, включающей сверхпроводниковые квантовые сопроцессоры SnowDrop 4Q (4 кубита) и SnowDrop 8Q (8 кубитов), а также систему считывания кубитов с уровнем собственных шумов, близким к квантовому пределу. К услугам пользователей в постоянном доступе 4-кубитная квантовая машина, квантовый эмулятор, среда запуска квантово-классических алгоритмов, система управления и полный стек программного обеспечения. С 10 по 20 декабря будет также открыт доступ к 8-кубитному квантовому сопроцессору SnowDrop 8Q, вычислительное пространство которого составляет 256 состояний, что в 16 раз больше, чем у SnowDrop 4Q.
Пользовательский интерфейс облачной платформы Bauman Octillion (источник изображения: docs.octillion.bmstu.ru) Квантовые сопроцессоры и их эмуляторы доступны в режиме реального времени, задачи выполняются в порядке очереди. Для работы в Bauman Octillion предусмотрены графический конструктор алгоритмов, API-клиент и обучающие материалы. Для написания квантовых алгоритмов API-клиент поддерживает фреймворки Qiskit и QASM. Облачная платформа открыта для всех заинтересованных лиц — для работы с ней необходимо создать учётную запись и предоставить краткое обоснование необходимости доступа к системе. Сервис ориентирован на широкий круг ведущих отечественных организаций, осуществляющих научные исследования и внедрение передовых технологий, включая госкорпорации и компании высокотехнологичного сектора, инвестирующие в развитие квантовых решений, а также широкий ряд научных институтов Российской академии наук. «Вычислительная облачная платформа Bauman Octillion — это новый инструмент изучения квантового мира с акцентом на практические применения. Мы последовательно расширяем линейку доступного «железа» — от 4 кубитов к 8 — впервые в российской квантовой индустрии. Мы приглашаем всех заинтересованных исследователей подключаться к нашему облаку, экспериментировать на реальных чипах, не покидая стен своих лабораторий», — говорится в сообщении пресс-службы МГТУ им. Н. Э. Баумана.
08.12.2025 [16:35], Владимир Мироненко
Помимо циклических сделок NVIDIA теперь раздаёт партнёрам и «кредиты доверия»Несмотря на растущую критику стратегии NVIDIA по финансированию своих клиентов, компания продолжает поддерживать своих партнёров и заказчиков всё новыми способами. Как пишет Data Center Dynamics, в своём недавнем отчёте по форме 10-Q NVIDIA сообщила, что выступила в качестве гаранта своего партнёра, что позволило последнему «обеспечить аренду объекта с ограниченной доступностью, подкреплённую кредитной историей» NVIDIA. Партнёр, имя которого не раскрывается, разместил на эскроу-счете около $470 млн, и у него уже есть соглашение о продаже облачных мощностей, что, по словам NVIDIA, снижает риск. Если компания не выполнит свои обязательства, NVIDIA имеет право взять объект в аренду для внутреннего использования или сдать его в субаренду, но ей придётся выплатить в течение пяти лет $860 млн. За последнее время NVIDIA заключила с покупателями своих ускорителей ряд сделок, отличающихся циклическим характером, что увеличило и без того высказываемые опасения экспертов в растущем пузыре на ИИ-рынке. Компания поддержала, в том числе, такие необлака, как CoreWeave, Nebius, Nscale, Lambda и Crusoe. В некоторых случаях компания выступает в качестве гаранта продаж. В сентябре этого года NVIDIA пообещала выкупить нераспроданные вычислительные мощности у CoreWeave за $6,3 млрд, а также заключила сделку с Lambda на $1,5 млрд на аренду серверов с собственными чипами. NVIDIA также готова инвестировать крупные суммы в разработчиков ИИ-моделей. Она заключила мегасделку на $100 млрд с OpenAI, а также сделку на $10 млрд с Anthropic. Обе сделки пока не завершены, и также привязаны к гарантиям продажи ускорителей. Также сообщается, что NVIDIA обсуждала возможность поддержки кредитов OpenAI на ЦОД, чтобы ускорить реализацию планов по расширению комплекса Stargate. Компания также инвестирует в разработчиков ИИ-моделей Mistral AI, xAI и Cohere, планирует инвестировать $5 млрд в Intel и $2 млрд в разработчика ПО Synopsys, а также поддерживает фонд ЦОД под руководством BlackRock. Уровень инвестиций в поддержание собственных продаж вызвал критику известного инвестора Майкла Берри (Michael Burry), ставшего прообразом одного из героев фильма «Игра на понижение», вынудив NVIDIA оправдываться, заявив, что она отличается от Enron, обанкротившейся из-за бухгалтерского мошенничества, а также от WorldCom или Lucent, оказавшихся в центре скандалов из-за манипуляций с учётом финансов и отчётностью.
08.12.2025 [08:49], Сергей Карасёв
Японские Arm-процессоры Fujitsu MONAKA пропишутся в «зелёном» европейском ИИ-облаке ScalewayЯпонская корпорация Fujitsu и французский облачный провайдер Scaleway объявили о заключении соглашения о стратегическом сотрудничестве, направленном на формирование в Европе устойчивой ИИ-платформы с прицелом на суверенитет данных. Стороны намереные использовать будущие CPU Fujitsu для инференса. Речь идёт о Fujitsu Monaka, выход которых запланирован на 2027 год. Эти 2-нм чипы с 3.5D-упаковкой получат до 144 вычислительных ядер с архитектурой Arm, а также 12 каналов оперативной памяти DDR5, интерфейс PCIe 6.0 с CXL 3.0. Для систем на базе Monaka предусмотрено воздушное охлаждение. Отмечается, что в настоящее время многие организации используют ИИ-модели в своих операциях и производственных процессах на постоянной основе. Это порождает потребность в предсказуемой производительности и контролируемых эксплуатационных расходах при одновременном снижении негативного воздействия на окружающую среду. Архитектуры на базе CPU способствуют решению подобных задач, поскольку обеспечивают стабильное быстродействие, более низкое по сравнению с GPU энергопотребление и простую интеграцию в существующие окружения. В рамках партнёрства Fujitsu и Scaleway проведут совместное тестирование CPU-платформ для задач ИИ: цель заключается в создании оптимальных инфраструктурных решений, адаптированных к конкретным рабочим нагрузкам. В результате, заказчики смогут выбрать наиболее подходящую систему с учётом своих потребностей и бюджета. В целом, платформы на базе Monaka станут дополнением к GPU-системам. Предварительные результаты испытаний, предоставленные Fujitsu, говорят о повышении энергоэффективности в 1,9 раза и снижении затрат в 1,7 раза в случае определённых нагрузок, связанных с инференсом. Платформы с чипами Monaka, как утверждается, могут поддерживать ИИ-модели, насчитывающие до 70 млрд параметров.
05.12.2025 [13:41], Сергей Карасёв
Пять облачных гигагерц: AWS запустила инстансы EC2 X8aedz на базе AMD EPYC Turin для требовательных к памяти нагрузокОблачная платформа AWS анонсировала инстансы EC2 X8aedz, оптимизированные для нагрузок, которым требуется большой объём памяти. Это могут быть задачи, связанные с автоматизацией проектирования электроники (EDA), реляционные базы данных и пр. В основу инстансов положены процессоры AMD EPYC Turin, тактовая частота которых достигает 5 ГГц: утверждается, что это самый высокий показатель в облаке AWS. Новые экземпляры обеспечивают до двух раз более высокую вычислительную производительность по сравнению с инстансами EC2 X2iezn предыдущего поколения. В случае EC2 X8aedz количество vCPU варьируется от 2 до 96, а объём оперативной памяти — от 64 до 3072 ГиБ. Инстансы предлагают локальное NVMe-хранилище ёмкостью от 158 до 7600 Гбайт. Пропускная способность сетевого подключения составляет от 18,75 до 75 Гбит/с, пропускная способность EBS — от 15 до 60 Гбит/с. Задействованы карты AWS Nitro шестого поколения, которые отвечают за виртуализацию, разгрузку сетевых функций и функций хранения. В обозначении X8aedz, как отмечает Amazon, суффикс «a» указывает на аппаратную платформу AMD, «e» — на расширенную память, «d» — на локальные NVMe SSD, физически подключённые к хост-серверу, а «z» — на высокую частоту процессоров. Соотношение памяти к виртуальным CPU у всех новых экземпляров составляет 32:1. Инстансы Amazon EC2 X8aedz уже доступны в регионах US West (Орегон) и Asia Pacific (Токио). В дальнейшем география охвата будет расширяться. Заказчики могут выбирать между различными конфигурациями, включая два варианта Bare Metal.
04.12.2025 [09:48], Владимир Мироненко
Частное ИИ-облако под ключ: Amazon представила AWS AI Factory для развёртывания в собственных ЦОД заказчиковAmazon представила AWS AI Factory — выделенную ИИ-инфраструктуру, включающую ускорители NVIDIA, чипы Trainium, а также сетевые решения, хранилища и базы данных AWS, которую можно развернуть в собственных ЦОД клиентов, обеспечивая их потребность в реализации суверенитета и соблюдении нормативных требований. «Клиенты могут использовать пространство своего существующего ЦОД, сетевое подключение и электроэнергию, в то время как AWS берет на себя все сложности развёртывания и управления интегрированной инфраструктурой», — пояснила компания. AWS отметила, что организации в регулируемых отраслях и государственном секторе при развёртывании своих масштабных проектов в сфере ИИ сталкиваются с проблемой их размещения в соответствующей требованиям инфраструктуре. Создание собственной ИИ-инфраструктуры требует значительных капиталовложений в покупку ускорителей, (до-)оснащение ЦОД и электроэнергию, а также сложных циклов закупок, выбора ИИ-модели для конкретного сценария использования и лицензирования моделей у разных поставщиков ИИ-технологий. Это требует много времени и усложняет эксплуатацию, отвлекая клиентов от основных бизнес-целей. AWS AI Factory позволяет решить эту проблему путём развёртывания готовой к использованию выделенной ИИ-инфраструктуры AWS в собственных дата-центрах клиентов. AWS AI Factory функционирует как частный облачный регион AWS, предоставляя безопасный доступ с низкой задержкой к вычислительным ресурсам, хранилищу данных, базам данных и ИИ-сервисам AWS для обучения и инференса ИИ-моделей. Кроме того, предоставляются управляемые сервисы, обеспечивающие доступ к ведущим базовым моделям без необходимости заключения отдельных контрактов с их поставщиками. Всё это помогает организациям соблюдать требования безопасности, суверенитета данных и нормам обработки и хранения данных, экономя усилия по развёртыванию и управлению инфраструктурой. Компания отметила, что AWS AI Factory разработаны в соответствии со строгими стандартами безопасности AWS, обеспечивая выполнение самых важных рабочих нагрузок на всех уровнях секретности: «Несекретно», «Конфиденциально», «Секретно» и «Совершенно секретно». AWS AI Factory — совместный проект AWS и NVIDIA, благодаря чему клиенты получат доступ к ПО NVIDIA и множеству приложений с ускорением на базе GPU. AWS Nitro и EC2 UltraClasters поддерживают платформы Grace Blackwell и Vera Rubin. AWS и NVIDIA также сотрудничают в рамках стратегического партнёрства с HUMAIN из Саудовской Аравии. AWS создаёт в Саудовской Аравии первую в своём роде «Зону искусственного интеллекта» (AI Zone) в кампусе HUMAIN, включающую до 150 тыс. ИИ-чипов, в том числе ускорители NVIDIA GB300 и Amazon Trainium, выделенную ИИ-инфраструктуру и ИИ-сервисы AWS.
03.12.2025 [13:25], Сергей Карасёв
AWS представила ИИ-ускорители Trainium3: 144 Гбайт памяти HBM3E и 2,52 Пфлопс в режиме FP8Облачная платформа Amazon Web Services (AWS) анонсировала ускорители Trainium3 для задач ИИ, а также серверы Trainium3 UltraServer (Trn3 UltraServer). Эти машины, как утверждается, превосходят решения предыдущего поколения — Trainium2 UltraServer — в 4,4 раза по производительности, в 4 раза по энергоэффективности и почти в 4 раза по пропускной способности памяти. Чипы Trainium3 изготавливаются по 3-нм технологии TSMC. Они оснащены 144 Гбайт памяти HBM3E с пропускной способностью до 4,9 Тбайт/с. По сравнению с Trainium2 объём памяти увеличился в 1,5 раза, её пропускная способность — в 1,7 раза. Ранее сообщалось, что энергопотребление новых ускорителей может достигать 1 кВт. Изделие Trainium3 предназначено для высокоплотных и сложных параллельных рабочих нагрузок с использованием расширенных типов данных (MXFP8 и MXFP4). По утверждениям AWS, на операциях FP8 быстродействие достигает 2,52 Пфлопс. Для сравнения, AMD Instinct MI355X показывает результат в 10,1 Пфлопс, а чип поколения NVIDIA Blackwell — 9 Пфлопс. Как уточняет The Register, ускорители Trainium3 используют структурированную разрежённость (structured sparsity) формата 16:4, что фактически поднимает производительность в четыре раза — до 10 Пфлопс — на таких задачах, как обучение ИИ-моделей. Системы Trainium3 UltraServer объединяют 144 ускорителя Trainium3, которые соединены посредством интерконнекта NeuronSwitch-v1: эта технология, по оценкам AWS, увеличивает пропускную способность в два раза по сравнению с машинами UltraServer предыдущего поколения. Усовершенствованная сетевая архитектура Neuron Fabric сокращает задержки при передаче данных между чипами до менее чем 10 мкс. Каждая система Trainium3 UltraServer оперирует 20,7 Тбайт памяти HBM3E с общей пропускной способностью 706 Тбайт/с. Заявленная производительность достигает 362 Пфлопс в режиме FP8. Применённые в Trainium3 технологии, как заявляет AWS, дают возможность создавать приложения ИИ с практически мгновенным откликом. Платформа EC2 UltraClusters 3.0 позволяет объединять тысячи систем UltraServer, содержащих до 1 млн ускорителей Trainium, что в 10 раз больше, чем в случае изделий предыдущего поколения. При этом следующее поколение ускорителей Trainium4 получит интерконнект NVLink Fusion шестого поколения.
02.12.2025 [12:41], Руслан Авдеев
Американский ИИ-стартап ищет деньги, чтобы снабдить китайцев чипами NVIDIA через ЯпониюБазирующийся в США стартап PaleBlueDot AI ищет, у кого бы занять $300 млн, чтобы купить ускорители NVIDIA и разместить их в токийском ЦОД — и всё это в интересах китайской медиакомпании RedNote (Xiaohongshu), сообщает Bloomberg. В своё время RedNote получила известность за пределами КНР благодаря временному запрету TikTok в Соединённых Штатах — тогда американцы начали массово регистрироваться в китайской соцсети. PaleBlueDot AI из Кремниевой долины обратилась к банкам и частным кредитным компаниям для получения финансирования. Сообщается, что JPMorgan Chase & Co. причастен к подготовке маркетинговых материалов для потенциальных заёмщиков, но от участия в самой сделке, вероятно, откажется. Источники утверждают, что сделка обсуждается, как минимум, в последние три месяца, хотя неизвестно, каков прогресс. По словам PaleBlueDot AI, «упомянутая информация не соответствует действительности», в JPMorgan от комментариев отказались, а NVIDIA и Xiaohongshu просто не ответили на запросы. PaleBlueDot AI позиционирует себя как посредника, предлагающего безопасные и экономически эффективные вычислительные решения. Примечательно, что у истоков компании и в её руководстве числятся бизнесмены китайского происхождения.
Источник изображения: zhang kaiyv/unsplash.com Планируемый заём наглядно демонстрирует, как именно намерены технологические компании обходить ограничения на продажу в Китай передовых ИИ-чипов, неоднократно ужесточавшиеся с 2022 года. Хотя китайские компании теперь не могут покупать оборудование напрямую, они могут вполне легально получать доступ к ЦОД в странах за пределами Китая. Буквально на днях сообщалось, что Alibaba и ByteDance стали обучать передовые ИИ-модели в дата-центрах Юго-Восточной Азии. Финансирование подобных проектов всегда воспринимается с осторожностью. Это связано с озабоченностью тем, что американские власти могут наложить дополнительные санкции. Хотя сама NVIDIA давно критикует политику полных запретов поставок ИИ-чипов в Китай, компания постоянно обещает, что будет строго придерживаться политики, предотвращающей попадание чипов «не в те руки». Впрочем, подход американских властей может измениться. По слухам, уже рассматривается возможность поставок в КНР относительно устаревших вариантов — NVIDIA H200.
02.12.2025 [09:15], Владимир Мироненко
AWS и Google Cloud подружили свои облачные сети, чтобы интернет падал пореже и не у всех сразуAmazon и Google представили мультиоблачный сетевой сервис, разработанный совместными усилиями и призванный удовлетворить растущий спрос на надёжное подключение, в то время как даже кратковременные перебои в работе интернета могут привести к серьезным сбоям в работе сервисов. Новый сервис объединяет AWS Interconnect – multicloud и Google Cross-Cloud Interconnect, предлагая организациям возможность установления защищённых частных высокоскоростных сетевых соединений между Google Cloud и AWS, что обеспечивает онлайн-бизнесу подстраховку в случае сбоя в работе одного из провайдеров. Кроме того, сервис упрощает одновременное использование облачных услуг обоих провайдеров в рамках одного приложения. Теперь компании смогут за считанные минуты установить соединение между вычислительными платформами через выбранную облачную консоль или API. Как отметила Google Cloud, ранее для подключения провайдеров облачных услуг клиентам приходилось вручную настраивать сложные сетевые компоненты, включая физические соединения и оборудование. Это требовало длительного времени на подготовку и координации с несколькими внутренними и внешними командами, и могло занять недели или даже месяцы. Сервис предлагает подключение выбранной ёмкости между двумя облачными регионами обоих провайдеров с четырёхкратным резервированием на уровне ЦОД, пограничных маршрутизаторов и т.д. Оба поставщика осуществляют непрерывный мониторинг для проактивного выявления и устранения проблем, а также совместно управляют резервированием и занимаются эксплуатационной поддержкой. Шифрование MACsec защищает соединения между периферийными маршрутизаторами AWS и Google Cloud. Партнёры также выпустили унифицированный API и открытую спецификацию, предложив другим поставщикам облачных и сетевых услуг фреймворк для интеграции аналогичных мультиоблачных подключений. Благодаря новому сервису клиенты, использующие в работе несколько облаков, получают стандартизированный подход к гибридному перемещению данных, рабочих ИИ-нагрузок и кросс-облачной аналитике. ![]() Salesforce в числе первых внедрила эту технологию. В компании отметили, что интеграция Salesforce Data 360 с более широким ИТ-ландшафтом требует надёжного частного подключения. AWS Interconnect – multicloud позволяет наводить критически важные мосты с Google Cloud с той же лёгкостью, что и развёртывание внутренних ресурсов AWS. В октябре в AWS произошел крупный сбой, который вывел из строя ряд сервисов, включая Fortnite, Alexa и Snapchat. В последующие недели сбои наблюдались и в Microsoft Azure, и в Cloudflare, что вызвало опасения по поводу рисков, связанных с использованием лишь нескольких крупных поставщиков интернет-инфраструктуры. AWS планирует развернуть аналогичный сервис с Microsoft Azure в следующем году. Ранее AWS, Google Cloud и Microsoft Azure уже сделали шаг навстречу другу другу, отказавшись от платы за выгрузку данных при переезде в другое облако.
30.11.2025 [13:39], Владимир Мироненко
Google отозвала жалобу на Microsoft по поводу антиконкурентной практики Azure после запуска расследования в ЕС
google
google cloud platform
microsoft
microsoft azure
software
евросоюз
конкуренция
лицензия
облако
Google отозвала жалобу, поданную в 2024 году в Еврокомиссию в связи с антиконкурентной, по её мнению, практикой лицензирования Microsoft, пишет Reuters. Как утверждалось в жалобе, условия лицензирования делали невыгодным для клиентов облачной платформы Microsoft Azure переход на платформы конкурентов, хотя технических препятствий этому не было. Это произошло спустя несколько дней после того, как Еврокомиссия открыла официальное расследование деятельности Microsoft на европейском рынке облачных услуг, где она занимает второе место с долей 20 %. На первом месте находится Amazon с долей 30 %, а у Google третье место с долей 13 %. В ходе расследования будет тщательно изучено поведение компании на рынке публичных облаков, которое также стало предметом антимонопольной жалобы Google, пишет SiliconANGLE. Помимо расследования деятельности Microsoft, Еврокомиссия начала аналогичное расследование действий AWS на рынке публичных облаков ЕС с целью определения, соответствует ли этот сервис наравне с Microsoft Azure требованиям, предъявляемым к провайдеру услуг базовой платформы (gatekeeper) в рамках закона о цифровых рынках (Digital Markets Act, DMA) ЕС. Кроме того, Европейская комиссия изучит вопрос о том, следует ли изменить DMA, чтобы лучше решать антимонопольные проблемы на облачном рынке. Microsoft предлагает клиентам версию Windows Server, оптимизированную для публичных облачных сред. Многие компании используют её для запуска приложений Microsoft, таких, как SQL Server. В 2019 году Microsoft выпустила крупное обновление условий предоставления услуг тем, кто пользуется Windows Server в облаках конкурентов. В свое жалобе Google утверждала, что изменение лицензирования в 2019 году было антиконкурентным, сделав запуск Windows Server в Google Cloud дороже, чем в Microsoft Azure. При этом Google сослалась на данные исследования, согласно которому пересмотренные Google условия предоставления услуг обошлись компаниям в ЕС более чем в €1 млрд. Кроме того, согласно жалобе поискового гиганта, Microsoft ограничила доступ клиентов к исправлениям Windows Server в конкурирующих облаках и создала препятствия для взаимодействия. «Сегодня мы отзываем жалобу Microsoft в свете недавнего заявления о том, что Еврокомиссия проведёт оценку проблемных практик, влияющих на облачный сектор, в рамках отдельной процедуры», — заявил руководитель отдела по взаимодействию с государственными органами и государственной политике Google Cloud Europe. «Мы продолжаем работать с политиками, клиентами и регулирующими органами в ЕС, Великобритании и других странах, выступая за свободу выбора и открытость на рынке облачных технологий», — добавила Google, по словам которой цель подачи жалобы компании в Еврокомиссию заключалась в том, чтобы «дать возможность клиентам и партнёрам высказаться по вопросу антиконкурентной практики лицензирования облачных сервисов». Согласно DMA, к провайдеру услуг базовой платформы предъявляются более строгие нормативные требования. В одном из положений DMA указано, что сервисы базовой платформы должны предоставлять пользователям простой способ переноса своих данных на другие платформы. Если в результате расследования, на которое отводится год, Еврокомиссия придёт к выводу, что Microsoft Azure является базовой платформой, то Microsoft, возможно, придётся внести изменения в свои инструменты экспорта данных и предоставить потребителям больше возможностей в выборе платформы. Это также относится к расследованию по Amazon Web Services. В свою очередь, как пишет ресурс ceo-na.com, представитель Еврокомиссии заявил следующее: «Мы продолжим внимательно следить за облачным сектором в рамках антимонопольного законодательства, чтобы все европейские потребители и компании могли воспользоваться преимуществами развития облачных технологий».
28.11.2025 [20:48], Андрей Крупин
«РТК-ЦОД» запустила новую площадку «Облака КИИ» в московском дата-центреКомпания «РТК-ЦОД» (входит в IT-кластер «Ростелекома») сообщила о запуске новой площадки «Облако КИИ», развёрнутой на базе ЦОД «Остаповский-2» в Москве и предназначенной для размещения критической информационной инфраструктуры. Инфраструктура «Облака КИИ» включает в себя аттестованное облако, соответствующее требованиям приказа ФСТЭК №239 на уровне IaaS; взаимодействие с НКЦКИ по передаче инцидентов информационной безопасности, событий и проведение расследований, связанных с ними; контроль соответствия ПО и СЗИ актуальным требованиям и нормативной документации; мониторинг событий ИБ и оперативное реагирование на инциденты; взаимодействие с ГосСОПКА для обмена информацией об инцидентах. Применённые в защищённом окружении «Облака КИИ» аппаратные решения внесены в реестр Минпромторга, а программное обеспечение — в реестр Минцифры России.
Источник изображения: «Ростелеком» / cloud.rt.ru Развёрнутая «РТК-ЦОД» облачная площадка соответствует требованиям к объектам критической информационной инфраструктуры до второй категории значимости, позволяет размещать государственные информационные системы первой категории и работать с персональными данными до первого уровня значимости включительно. Вычислительный комплекс «Остаповский-2» введён в эксплуатацию в 2024 году и вмещает 2048 стоек. ЦОД соответствует уровню защищённости Tier III, что гарантирует работу инженерных систем объекта в случае чрезвычайных ситуаций. Новая аттестованная площадка «Облака КИИ» станет частью отказоустойчивой инфраструктуры компании, которая уже включает площадку в дата-центре «Медведково-1». Расположение двух центров обработки данных в Москве на расстоянии около 20 км друг от друга позволяет обеспечить высокий уровень доступности сервисов и бесперебойность их работы. |
|





