Материалы по тегу: software
|
09.06.2025 [16:25], Сергей Карасёв
Техно-форум в современном формате: Orion soft запустил комьюнити для пользователей виртуализации zVirtРазработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft запустил комьюнити для пользователей системы виртуализации zVirt. В нём технические специалисты из разных отраслей смогут обмениваться опытом и лучшими практиками работы с платформой, предлагать идеи по разработке новых функций и давать обратную связь напрямую команде продукта. Участие в комьюнити бесплатное, подать заявку на вступление можно на сайте. «По итогам 2024 года база заказчиков zVirt достигла более 430 компаний. Они заинтересованы в том, чтобы решение быстрее развивалось и дополнялось нужной им функциональностью, мы получаем от них много обратной связи. Поэтому мы решили создать хаб, где вопросы нашей команде можно задать напрямую. По нашему опыту, именно такой открытый диалог лучше всего подсвечивает точки роста продукта и помогает ему быстрее развиваться», — говорит Максим Березин, директор по развитию бизнеса Orion soft. Участники комьюнити будут первыми узнавать о готовящихся фичах и актуальных обновлениях продукта. Они могут напрямую влиять на его развитие: лидеры комьюнити собирают пожелания по функциям, которых не хватает в zVirt, и передают в работу технической команде в режиме online. «Мы хотим, чтобы комьюнити стало площадкой, где можно не только найти решение технической проблемы или предложить идеи по улучшению продукта, но и пообщаться на свободные темы, обсудить новости и актуальные вопросы в сфере виртуализации. Как на техно-форумах, с которых начиналось развитие IT-сообщества в России, только в современном формате и более продуктивно. Лидеры комьюнити — технические специалисты из команды zVirt — уже отвечают на вопросы участников в нескольких тематических "комнатах"», — добавляет лидер комьюнити zVirt Александр Гавриленко. Участники могут свободно делиться опытом использования платформы и своими вариантами решения технических вопросов. Комьюнити станет для них большим информационным хабом о тонкостях работы различных функций в zVirt и практиках работы с решением в разных отраслях. Следующим шагом в развитии комьюнити станут очные встречи, на которых специалисты Orion soft расскажут подробности о готовящихся релизах продукта, будут демонстрировать возможности системы и отвечать на актуальные вопросы по её эксплуатации. О продуктеzVirt — защищённая система виртуализации серверов, дисков и сетей. Русскоязычный web-интерфейс даёт возможность из единой консоли управлять серверами виртуализации, хранилищами, кластерами, виртуальными машинами и другими объектами. zVirt обладает крупнейшей инсталляционной базой в стране — более чем 12 000 хостов — и базой из более чем 430 заказчиков. Продукт зарегистрирован в Реестре российского ПО и является лидером в части импортозамещения ПО для виртуализации, уже занимая 40 % мощностей, работавших на VMware. Также доступна редакция zVirt Max, сертифицированная по требованиям ФСТЭК.
09.06.2025 [15:58], Андрей Крупин
Yandex B2B Tech обновила платформу SourceCraft и открыла доступ для всех разработчиковYandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») выпустила крупное обновление платформы SourceCraft и открыла к ней доступ для всех разработчиков. SourceCraft представляет собой облачное решение с полным набором инструментов для разработки приложений, управления проектами и задачами. В состав платформы включены средства автоматизации сборки и развёртывания кода, переноса репозиториев из GitHub с необходимыми сущностями (в том числе PR, Issues, Branches) для бесшовного перехода, а также ИИ-ассистент Code Assistant, анализирующий контекст и предлагающий наиболее вероятные и релевантные подсказки: функции, циклы, условия и другие элементы кода. SourceCraft позволяет не только хранить код и управлять версиями, но и собирать, тестировать, разворачивать и сопровождать программные продукты в едином интерфейсе.
Источник изображения: Yandex B2B Tech Новая версия SourceCraft дополнилась инструментами безопасной разработки, включающими сканер секретов в коде, анализ зависимостей в кодовой базе и сводную статистику по обнаруженным ИБ‑рискам. Доработкам подвергся Code Assistant — в нём появился режим чата. Теперь ИИ‑ассистент может отвечать на вопросы, генерировать код, юнит‑тесты и документацию. Функциональность доступна в плагинах для VSCode и IDE от JetBrains. В числе прочего новый релиз SourceCraft принёс улучшенную навигацию по коду, автоматизацию CI/CD‑процессов, расширенные инструменты миграции проектов с GitHub, интеграцию со сторонними приложениями через публичный API, доступ через единую корпоративную учётную запись для командной работы. Появились анонимный доступ к публичным репозиториям платформы и возможность создания независимых копий репозиториев (форков) Open Source‑проектов. Также появилась возможность не только разрабатывать, но и сразу публиковать мобильные приложения в App Store, Google Play, RuStore и Huawei AppGallery. Кроме того, стал доступен инструментарий для создания программных пакетов (наборов кода, библиотек, модулей или компонентов) популярных форматов. Разработчик может хранить их в персональном облаке, привязанном к организации SourceCraft, и использовать в своих проектах. SourceCraft доступна через веб‑интерфейс. Чтобы воспользоваться платформой, нужно войти в аккаунт через «Яндекс ID».
07.06.2025 [16:24], Владимир Мироненко
AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далекоКонсорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1. MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно. Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум. MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым. Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности. На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза. «Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training. В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:
Заявки также включали три новых семейства процессоров:
Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным. Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire. Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения». NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire. В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие. Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper. Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения. В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса. Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах. NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл. AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью. В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum. AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU. Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.
06.06.2025 [18:46], Руслан Авдеев
AMD продолжает шоппинг: компания купила стартап Brium для борьбы с доминированием NVIDIAВ последние дни компания AMD активно занимается покупками компаний, так или иначе задействованных в разработке ИИ-технологий. Одним из последних событий стала покупка стартапа Brium, специализирующегося на инструментах разработки и оптимизации ИИ ПО, сообщает CRN. AMD, по-видимому, всерьёз обеспокоилась развитием программной экосистемы после того, как выяснилось, что именно ПО не даёт раскрыть весь потенциал ускорителей Instinct. О покупке Brium, в состав которой входят «эксперты мирового класса в области компиляторов и программного обеспечения для ИИ», было объявлено в минувшую среду. Финансовые условия сделки пока не разглашаются. По словам представителя AMD, передовое ПО Brium укрепит возможности IT-гиганта «поставлять в высокой степени оптимизированные ИИ-решения», включающие ИИ-ускорители Instinct, которые играют для компании ключевую роль в соперничестве с NVIDIA. Дополнительная информация изложена в пресс-релизе AMD. В AMD уверены, что разработки Brium в области компиляторных технологий, фреймворков для выполнения моделей и оптимизации ИИ-инференса позволят улучшить эффективность и гибкость ИИ-платформы нового владельца. Главное преимущество, которое AMD видит в Brium — способность стартапа оптимизировать весь стек инференса до того, как модель начинает обрабатываться аппаратным обеспечением. Это позволяет снизить зависимость от конкретных конфигураций оборудования и обеспечивает ускоренную и эффективную работу ИИ «из коробки». В частности, команда Brium «немедленно» внесёт вклад в ключевые проекты вроде OpenAI Triton, WAVE DSL и SHARK/IREE, имеющие решающее значение для более быстрой и эффективной эксплуатации ИИ-моделей на ускорителях AMD Instinct. У технического директора Brium Квентина Коломбета (Quentin Colombet) десятилетний опыт разработки и оптимизации компиляторов для ускорителей в Google, Meta✴ и Apple.
Источник изображения: AMD Компания сосредоточится на внедрении новых форматов данных вроде MX FP4 и FP6, которые уменьшают объём вычислений и снижают энергопотребление, сохраняя приемлемую точность моделей. В результате разработчики могут добиться более высокой производительности ИИ-моделей, снижая затраты на оборудование и повышая энергоэффективность. Покупка Brium также поможет ускорить создание open source инструментов. Это даст возможность AMD лучше адаптировать свои решения под специфические потребности клиентов из разных отраслей. Так, Brium успешно адаптировала Deep Graph Library (DGL) — фреймворк для работы с графовыми нейронными сетями (GNN) — под платформу AMD Instinct, что дало возможность эффективно запускать передовые ИИ-приложения в области здравоохранения. Такого рода компетенции повышают способность AMD предоставлять оптимальные решения для отраслей с высокой добавленной стоимостью и расширять охват рынка. Brium — лишь одно из приобретений AMD за последние дни для усиления позиций в соперничестве с NVIDIA, доминирование которой на рынке ИИ позволило получить в прошлом году выручку, более чем вдвое превышавшую показатели AMD и Intel вместе взятых. В числе последних покупок — стартап Enosemi, работающий над решениями в сфере кремниевой фотоники, поставщик инфраструктуры ЦОД ZT Systems, а также софтверные стартапы Silo AI, Nod.ai и Mipsology. Кроме того, совсем недавно компания купила команду Untether AI, не став приобретать сам стартап.
04.06.2025 [15:40], Сергей Карасёв
«Базис» и «Береста РК» объединят решения для резервного копирования и восстановления данных
software
базис
виртуализация
информационная безопасность
резервное копирование
россия
сделано в россии
Разработчик инфраструктурного ПО «Базис» и производитель систем резервного копирования и восстановления данных «Береста РК» обеспечат совместимость своих продуктов для резервирования виртуальных машин. Соглашение о сотрудничестве было подписано в рамках ежегодной конференции «Цифровая индустрия промышленной России» (ЦИПР). Ключевым направлением станет объединение возможностей системы резервного копирования и восстановления данных «Береста» с модулем Basis Virtual Protect — решения «Базиса» для резервного копирования виртуальных сред. Так, в перспективе система будет напрямую обращаться к модулям Basis Virtual Protect для выполнения задач резервирования и восстановления, что позволит заказчикам использовать продукт без доработок и с минимальными затратами на сопровождение. «Наше партнёрство с «Базисом» — это новый этап в развитии экосистемы надёжных решений для корпоративного рынка. Интеграция с Basis Virtual Protect усилит защиту виртуальной инфраструктуры клиентов и обеспечит более высокий уровень отказоустойчивости и безопасности», — прокомментировал Дмитрий Ханецкий, коммерческий директор «Береста РК». «Совместимость продуктов — один из ключевых факторов зрелости ИТ-экосистемы. Мы видим большой спрос на надёжные и протестированные решения в области резервного копирования, особенно при использовании контейнерных технологий и масштабируемых виртуальных сред. Партнёрство с «Берестой» позволит нам предложить рынку готовую связку, которая работает из коробки и соответствует требованиям корпоративных и государственных заказчиков», — отметил Андрей Толокнов, директор по развитию «Базиса».
04.06.2025 [14:57], Андрей Крупин
Российская платформа для разработчиков GitVerse получила обновление и дополнилась ИИ-помощником для проверки кода«СберТех» (входит в экосистему «Сбера») сообщил о включении в состав платформы для работы с исходным кодом GitVerse агента GigaCode, осуществляющего рецензирование программного кода с использованием технологий искусственного интеллекта. GigaCode-агент представляет собой автономный сервис, развёрнутый на базе одноимённого ИИ-ассистента GitVerse и выполняющий задачи разработчика на этапе проверки кода. Инструмент автоматически анализирует изменения в коде, учитывает контекст, выявляет потенциальные уязвимости и ошибки, а также предлагает релевантные рекомендации по оптимизации кода. С агентом можно взаимодействовать в диалоговом режиме, чтобы получить разъяснения по внесённым изменениям. Разработчики могут назначить агента на проверку запросов на слияние или настроить его автоматическое участие в рецензировании кода. Это позволяет делегировать рутинные операции искусственному интеллекту, минимизировать ошибки и, в конечном итоге, сократить время вывода новых функций на рынок.
Источник изображения: gitverse.ru GigaCode-агент бесплатно доступен всем пользователям GitVerse — от индивидуальных разработчиков до крупных организаций. Наряду с этим команда «СберТеха» представила обновления платформы GitVerse, направленные на оптимизацию рабочих процессов. Теперь пользователи имеют возможность версионировать объёмные файлы через механизм Git LFS и взаимодействовать с обновлённой системой непрерывной интеграции и доставки (CI/CD), которая позволяет создавать сборочные конвейеры на основе шаблонов, запускать задачи по расписанию и отслеживать результаты выполнения. Кроме того, представлен API для интеграции GitVerse с другими системами, доступный в бета-версии.
04.06.2025 [10:49], Андрей Крупин
Yandex B2B Tech и Axiom JDK представят интегрированную платформу для доверенной Java-разработкиYandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») и компания Axiom JDK (АО «Аксиом», поставщик российской платформы Java) объявили о стратегическом технологическом партнёрстве. В рамках сотрудничества компании намерены предложить организациям унифицированное решение для доверенной разработки, исполнения и сопровождения Java-приложений. На базе платформы SourceCraft от Yandex B2B Tech и Java-технологий Axiom JDK будет доступен полный цикл безопасной разработки: от написания кода и сборки до запуска в защищённой инфраструктуре. Решение будет интегрировано с Yandex Cloud Registry и соответствовать всем требованиям законодательства РФ в области защиты информации и технологической независимости.
Источник изображения: axiomjdk.ru В составе интегрированной платформы будут представлены: безопасная среда исполнения Java-приложений, построенная на Axiom JDK — российской промышленной платформе Java SE; доверенный репозиторий Java-библиотек Axiom Repo, интегрированный с SourceCraft и Yandex Cloud Registry; поддержка разработки в защищённых On-Premise-контурах и облачных средах; обновления и сопровождение, соответствующие стандартам разработки безопасного ПО и требованиям критических IT-систем. Релиз комплексного решения, охватывающего весь жизненный цикл разработки и эксплуатации Java-приложений, ожидается в третьем квартале 2025 года.
03.06.2025 [13:16], Владимир Мироненко
Рынок российского инфраструктурного ПО достиг уровня 2021 года
software
strategy partners
анализ рынка
импортозамещение
операционная система
россия
сделано в россии
субд
Рынок российского инфраструктурного ПО вырос в 2024 году по сравнению с предыдущим годом на 28 % до 132 млрд руб., вернувшись к показателям 2021 года — ранее его объём составлял 133 млрд руб., сообщили «Ведомости» со ссылкой на обзор рынка консалтинговой компании Strategy Partners. Российское инфраструктурное ПО подорожало в прошлом году в среднем на 10 % год к году, что соответствует темпам инфляции, отметили аналитики. Доля топ-5 российских поставщиков инфраструктурного ПО увеличилась на 7 п.п. до 54 %. Выручка российских производителей ОС для инфраструктуры достигла 15,55 млрд руб., превысив половину рынка (55 %), против 48 %, или 11,18 млрд руб. годом ранее. Лидируют на рынке группа «Астра» (Astra Linux) с долей 76 %, «Ред софт» (РедОС, 12 %), «Базальт» (BaseALT, 10 %), на которых приходилось 98 % рынка российских разработчиков ОС для ПК и серверов. Вместе с тем пользователи не спешат отказываться от привычных решений американской Microsoft, а параллельный импорт, бессрочные лицензии и пиратское ПО замедляют импортозамещение, отметили аналитики.
Источник изображений: Strategy Partners Согласно данным Strategy Partners, рынок виртуализации вырос в 2024 году на 37 % до 13,8 млрд руб., а доля российских разработчиков составила 74 %. Эти цифры совпадают со статистикой «Базиса», по оценкам которой сегмент виртуализации достиг в прошлом году 14 млрд руб. В Топ-3 российских решений для виртуализации входят продукты «Базиса», «Ориона» и группы «Астра». По оценкам Strategy Partners, сегмент СУБД вырос на 35 % до 39,6 млрд руб. На долю российских производителей в сегменте приходилось 73 %. Ведущие российские компании Postgres Professional, Arena Data и группа «Астра» увеличили в прошлом году долю рынка до 38 % с 32 % в 2023 году. Следует отметить, что согласно исследованию Центра стратегических разработок (ЦСР), в 2024 году объём всего сегмента СУБД увеличился год к году на 34 % до 51 млрд руб. Как отметили в Strategy Partners, по техническим причинам 15–20 % инфраструктуры заказчиков не может перейти на российские СУБД, из-за чего здесь по-прежнему использую иностранные решения, в частности решения Oracle. В группе «Астра» считают значительный рост рынка инфраструктурного ПО в 2024 году результатом восстановления после ухода из-за санкций зарубежных вендоров, когда многие проекты были приостановлены. В прошлом году российские компании предложили более зрелые и комплексные экосистемные решения, что дало импульс к их внедрению и возвращению к показателям 2021 года, сообщили в компании. Эксперт «Рексофт консалтинга» назвал основной причиной роста регуляторные требования, согласно которым с 1 января 2025 года субъекты критической информационной инфраструктуры (КИИ) обязаны провести полное импортозамещение софта на принадлежащих им значимых объектах. Кроме того, на это повлияло требование Минцифры обеспечить закупку российского ПО в объёме 90 % к государственным заказчикам и компаниям с соучастием. Аналитики Strategy Partners отметили, что в 2025 году темпы роста российского IT-рынка, в том числе инфраструктурного ПО, несколько замедлились в связи с сохраняющейся высокой ключевой ставкой ЦБ. Тем не менее переход на отечественное ПО остается в числе приоритетов и в 2026–2027 гг. консалтинговая компания ожидает возобновления активного роста рынка по мере стабилизации макроэкономической ситуации. Согласно прогнозу Strategy Partners, ёмкость рынка достигнет 299,6 млрд руб. к 2030 году при ежегодных среднегодовых темпах роста в размере 15 %.
03.06.2025 [13:12], Андрей Крупин
МТС Web Services запустила собственную публичную облачную платформуКомпания МТС Web Services (MWS, входит в группу МТС) сообщила о запуске в режиме превью публичной облачной платформы собственной разработки — MWS Cloud Platform, предназначенной для заказчиков различного уровня ‑ от малого и среднего бизнеса до крупных корпораций. MWS Cloud Platform представляет собой экосистему инфраструктурных и сетевых сервисов, инструментов для хранения и обработки данных, PaaS-сервисов и решений, в основу которых положены фирменные технологии виртуализации вычислительных мощностей и сетевой инфраструктуры. Платформа включает в себя единую систему безопасного управления доступом и биллинг, а также предоставляет интерфейсы управления и автоматизации: веб-консоль, API, CLI и Terraform.
Источник изображения: mws.ru/cloud-platform В рамках платформы уже доступно объектное хранилище (Object Storage) для размещения в облаке данных различных объёмов и форматов данных, виртуальные машины и диски (Compute) для развёртывания вычислительных процессов, сервис быстрой доставки контента (CDN), виртуальные облачные сети (VPC) и ряд дополнительных сервисов. До конца года в MWS Cloud Platform также появятся платформенные решения для разработчиков и IT-подразделений компаний. Это сервисы для управления Docker-образами и кластерами Kubernetes, а также базами данных ClickHouse, Kafka, PostgreSQL. Кроме того, в облаке станут доступны балансировщик нагрузки и решение для управления ключами шифрования. В общей сложности до конца года в рамках платформы будут представлены 15 сервисов.
03.06.2025 [10:10], Владимир Мироненко
Благодаря ИИ Microsoft из отстающих вышли в лидеры по темпам роста своих акцийПосле нескольких месяцев затишья акции Microsoft возобновили рост, вплотную приблизившись к рекордному максимуму на фоне признаков возвращения к норме бизнеса Azure, пишет Bloomberg. Сейчас акции Microsoft торгуются всего на 2 % меньше рекордного уровня, достигнутого в июле прошлого года, после роста на 16 % в мае, что сделало его лучшим месяцем для компании за более чем три года. Рост акций был обусловлен более широким восстановлением позиций акций американских компаний, а также лучшими, чем ожидали на Уолл-стрит, результатами Azure. Как полагают инвесторы, эта тенденция сохранится, поскольку ИИ становится драйвером роста бизнеса. «ИИ становится всё более важной составляющей доходов», — отметила Нэнси Тенглер (Nancy Tengler), гендиректор инвестиционной компании Laffer Tengler Investments. Темпы роста акций Microsoft резко увеличились по сравнению с прошлым годом, когда из-за опасений инвесторов по поводу отставания компании в гонке ИИ и разочаровывающего роста Azure по сравнению с облачными платформами конкурентов акции софтверного гиганта выросли всего на 12 %. Это был худший показатель среди так называемой «великолепной семёрки», также включающей Apple, NVIDIA, Alphabet, Amazon, Meta✴ и Tesla. В этом году Microsoft с ростом акций на 9 % обошла всех участников семёрки, за исключением Meta✴, у которой рост акций составил 10 %. Помимо того, что Microsoft значительно улучшила финансовое положение, она, в отличие от многих конкурентов, выиграла от введения пошлин новой администрацией США, пишет Bloomberg. Аналитики TD Cowen опубликовали прогноз, согласно которому выручка Azure, связанная с ИИ, вырастет примерно до $24 млрд в 2026 финансовом году с около $4 млрд в 2024 финансовом году. Аналитики повысили целевую цену акций до $540 с $490, что подразумевает потенциальный прирост примерно на 18 % по сравнению с ценой на момент закрытия торгов в прошлую среду. Из 72 аналитиков, опрошенных Bloomberg, которые отслеживают деятельность Microsoft, никто не рекомендует продавать её акции. При прогнозируемом соотношении цены и прибыли на акцию в 30 на следующие 12 месяцев Microsoft оценивается с премией к среднему показателю Nasdaq 100 и собственному 10-летнему среднему показателю в размере около 26, пишет Bloomberg. По мнению Кевина Уолкуша (Kevin Walkush), управляющего портфелем в Jensen Investment Management, акции Microsoft продолжат расти, поскольку компания будет генерировать растущую долю дохода от ИИ-сервисов. «Microsoft, вероятно, является одной из лучших долгосрочных возможностей в ИИ», — заявил он. |
|
