Материалы по тегу: cloud

12.03.2024 [19:28], Сергей Карасёв

Годовая выручка beeline cloud взлетела на 60 % — до 2,7 млрд руб.

Облачная платформа beeline cloud опубликовала показатели деятельности в 2023 году. Выручка достигла 2,7 млрд руб., что на 60 % больше по сравнению с 2022-м. Столь значительный рост, как отмечается, обусловлен расширением спектра предоставляемых услуг и наращиванием присутствия на рынке облачных сервисов.

Количество клиентов beeline cloud по итогам 2023-го составило 2990 компаний. Это на 21 % больше в годовом исчислении. Капитальные вложения (CAPEX) оцениваются в 0,9 млрд руб., что соответствует росту на 29 %. Показатель EBITDA увеличился год к году на 25 % — до 0,9 млрд руб.

 Источник изображения: beeline cloud

Источник изображения: beeline cloud

В общем объёме годовой выручки 84,8 %, или 2,3 млрд рублей, пришлось на облачные сервисы. Ещё 15,2 % — около 417 млн руб. — обеспечили сервисы информационной безопасности. По второму сегменту рост годовой выручки зафиксирован на отметке 40,4 %. Среди трёх самых востребованных решений в сфере безопасности называются Cloud WAF с ростом в 3,1 раза по отношению к 2022-му, Cloud NGFW с увеличением продаж в 1,9 раза и Cloud MFA (ИБ-сервис многофакторной аутентификации пользователей) с 3-кратным ростом.

В сегменте IaaS годовая выручка поднялась в 1,5 раза, тогда как SaaS-решения показали 40-кратный рост. В течение 2023 года введены в эксплуатацию 189 серверных стоек, что на 16 % больше, чем в 2022-м. Ключевыми достижениями PaaS-направления названы запуск сервисов Managed Kubernetes, а также появление платформы данных и первого сервиса DBaaS на базе Greenplum. В области IaaS упомянут переход на новую архитектуру, что привело к усилению информационной безопасности и значительному улучшению доступности облачных вычислений. Кроме того, в 2023 внедрены новые продукты для управления корпоративными почтовыми сервисами, основанными на платформе Communigate Pro: Cloud Mail Gate и Private Cloud Mail Gate.

Постоянный URL: http://www.servernews.ru/1101599
01.03.2024 [13:32], Сергей Карасёв

Alibaba значительно снизила цены на облачные услуги в Китае

Облачная платформа Alibaba Cloud, по сообщению ресурса The Register, существенно снизила стоимость услуг для клиентов в Китае, которые заключают многолетние соглашения на обслуживание. Цены на определённые сервисы на базе Alibaba Cloud Elastic Compute Service (ECS) снижены на 36 %.

В рамках некоторых соглашений тарифы на объектное хранилище упали на 55 % — при условии увеличения сроков резервирования ресурсов Alibaba Cloud с одного года до двух–пяти лет. Стоимость облачных баз данных снижена до 40 %. При этом удвоен объём бесплатного трафика: он теперь составляет 20 Гбайт против прежних 10 Гбайт.

 Источник изображения: Alibaba

Источник изображения: Alibaba

Новая политика, как ожидается, поможет платформе Alibaba Cloud увеличить количество клиентов в КНР и дополнительно стимулировать местные предприятия к переходу на облачные услуги. Кроме того, снижение цен может способствовать развитию приложений на основе ИИ. Причём это уже второе снижение тарифов за год. Ранее облачное подразделение Alibaba столкнулось со снижением темпов роста.

В конце прошлого года Alibaba отказалась от планов по выделению облачного бизнеса в самостоятельную публичную компанию. Связано это с ужесточение санкций со стороны США. Говорится, что политика американских властей может негативно повлиять на возможности группы предлагать облачные продукты и услуги, а также выполнять обязательства по существующим контрактам. В такой ситуации Alibaba вынуждена более активно развивать облачный бизнес на китайском рынке. Гиперскейлер также стремился избавиться от низкорентабельных клиентов.

Alibaba — не единственная компания, которая пытается сделать долгосрочные контракты более привлекательными для заказчиков. AWS и Microsoft Azure уже сделали резервирование мощностей самым доступным способом потребления своих услуг. Эта тактика позволяет более предсказуемо оценивать расходы на развитие и поддержание облачных инфраструктур.

Постоянный URL: http://www.servernews.ru/1101059
27.02.2024 [20:45], Руслан Авдеев

Huawei CLoud запустит облачный регион в Египте и построит ИИ-центр в Гонконге

Уже в следующем месяце в Египте должен заработать новый облачный регион компании Huawei. Datacenter Dynamics сообщает, что у компании есть и другие планы — она намерена построить облачный вычислительный ИИ-центр в Гонконге. Это первый проект такого рода за пределами материкового Китая.

Регион в Египте станет очередным дополнением к 85 зонам Huawei Cloud, разбросанным по 30 странам и территориям планеты. В Китае Huawei является вторым по величине облачным провайдером, но наращивает и глобальное присутствие. Только в прошлом году она ввела в эксплуатацию облачные регионы в Турции и Саудовской Аравии. Кроме того, компания активно осваивает рынки облачных сервисов Латинской Америки. В частности, ведётся строительство регионов в Бразилии и Мексике.

 Источник изображения: Omar Elsharawy/unsplash.com

Источник изображения: Omar Elsharawy/unsplash.com

Пока нет данных, в каком ЦОД будет размещён египетский регион. Ещё в 2019 году Huawei сообщала о намерении арендовать ЦОД Telecom Egypt в Каире, но, похоже, с тех пор планы по экспансии в Африке и на Ближнем Востоке изменились. Заодно Huawei поделилась планами создания облачного ИИ-центра в Гонконге. Хотя компания имеет несколько подобных объектов на материковой территории КНР, в Гонконге пока ничего подобного у неё нет. При этом в компании назвали ИИ одним из приоритетов для её облачных проектов.

Сейчас у оператора есть облачные объекты в материковом Китае и Гонконге, Ирландии, Нидерландах, Франции, Таиланде, Сингапуре, Индонезии, Саудовской Аравии, Турции, Южной Африке, Бразилии, Аргентине, Перу, Чили и других странах. В то же время многие государства по-прежнему считают компанию поставщиком услуг с высоким риском из-за вероятных тесных связей с китайскими властями и крайне напряжённых отношений с США.

Постоянный URL: http://www.servernews.ru/1100904
26.02.2024 [22:28], Сергей Карасёв

Beeline cloud внедрил российскую платформу виртуализации

Поставщик облачных и IT-услуг beeline cloud развернул сервис миграции инфраструктуры на российскую платформу виртуализации. В проекте приняли участие отечественная компания MIND Software и разработчик системы виртуализации vStack.

В середине февраля 2024 года beeline cloud и vStack представили платформу виртуализации BeeCloud Stack. Она предназначена для создания публичного, частного или гибридного облака и управление им из одной точки. Аппаратной основой BeeCloud Stack является отечественное оборудование, размещённое в собственном дата-центре. После запуска BeeCloud Stack потребовалось создание сервиса миграции.

Новая служба использует инструмент MIND Migrate от MIND Software. В отличие от традиционного подхода, при котором виртуальная машина преобразуется в файл, а затем импортируется на платформу, MIND Migrate предлагает альтернативный механизм, устраняющий дискретность. В результате, процесс миграции упрощается и ускоряется.

 Изображение: Chris Briggs / Unsplash

Изображение: Chris Briggs / Unsplash

В целом, MIND Migrate обеспечивает бесшовную миграцию виртуальных машин с различных платформ, включая VMware, на отечественное решение. Инструмент встроен в любую установку BeeCloud Stack, в том числе при выполнении в закрытом контуре без доступа в интернет. Сервис предоставляется по различным моделям, в частности, в режиме самообслуживания и с технической поддержкой со стороны beeline cloud.

Среди ключевых особенностей платформы виртуализации vStack разработчик называет CPU overcommit в вычислительном слое до 900%, высокопроизводительную СХД, возможность создания кастомизированных виртуальных машин, а также поддержку отечественных и зарубежных гостевых операционных систем. В BeeCloud Stack, в свою очередь, реализованы такие функции, как резервное копирование, снапшоты, поддержка iSCSI и NFS.

Постоянный URL: http://www.servernews.ru/1100827
16.02.2024 [10:33], Сергей Карасёв

Облако Yandex Cloud увеличило квартальную выучку на 60 %

Компания «Яндекс» отчиталась о работе в последней четверти и 2023 году в целом. Общая квартальная выручка группы составила 249,6 млрд руб., что на 51 % больше прошлогоднего результата, когда данный показатель равнялся 164,8 млрд. руб. При этом зафиксированы чистые убытки в размере 6,3 млрд руб., тогда как в IV квартале 2022 года «Яндекс» получил 7,1 млрд руб. чистой прибыли.

Квартальная выручка направления «Прочих бизнес-юнитов и инициатив», в которое входит в том числе облачная платформа Yandex Cloud, подскочила в годовом исчислении на 84 %, составив 34,9 млрд руб. против 18,9 млрд руб. годом ранее. За год в целом это значение поднялось на 70 % — с 48,8 млрд руб. до 82,7 млрд руб.

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

В отчёте говорится, что столь значительный рост в группе «Прочих бизнес-юнитов и инициатив» связан в основном с увеличением доходов направления «Устройств и Алисы», Yandex Cloud и финтех-подразделения. В частности, квартальная выручка платформы Yandex Cloud подскочила на 60 % год к году благодаря расширению предоставляемых услуг и увеличению доли рынка на фоне растущего спроса на облачные сервисы. В 2023 году на Yandex Cloud пришлось около 16 % от общей выручки в соответствующем подразделении.

Убыток по скорректированному показателю EBITDA в сегменте «Прочих бизнес-юнитов и инициатив» составил в IV квартале 2023-го 15,8 млрд руб., тогда как годом ранее он равнялся 8,4 млрд руб. Рост в абсолютных значениях в основном вызван переносом нераспределённых корпоративных расходов, не относящихся к сегментам напрямую, из скорр. EBITDA отчётных сегментов в скорр. EBITDA «Прочих бизнес-юнитов и инициатив» (хотя эти расходы в целом остаются неизменными в проценте от общей выручки группы), инвестициями в рост финтех-направления и в Yandex SDG (убыток которого по скорр. EBITDA составил 2,9 млрд руб. в IV квартале 2023 года), а также инвестициями в развитие других вертикалей.

По итогам 2023 года в целом общая выручка группы «Яндекс» поднялась на 53 % — с 521,7 млрд руб. до 800,1 млрд руб. Вместе с тем чистая прибыль по сравнению с 2022-м уменьшилась на 54 % — 47,6 млрд руб. до 21,8 млрд руб.

Постоянный URL: http://www.servernews.ru/1100353
30.01.2024 [15:35], Сергей Карасёв

VK Сloud запустила улучшенную версию частного облака для бизнеса

VK Сloud представила платформу Private Cloud версии 4.0, предназначенную для построения частного облака на базе дата-центра заказчика. Усовершенствованное решение, как утверждается, обеспечивает повышенный уровень защищённости: ядро облака соответствует 17-му приказу ФСТЭК (Об утверждении требований о защите информации, не составляющей государственную тайну, содержащейся в государственных информационных системах).

На обновлённой платформе разработчикам стал доступен маркетплейс приложений. Магазин помогает осуществлять быстрое развёртывание продуктов VK и партнёров в облаке, а также предоставляет возможность загружать собственные приложения и сервисы для внутренних команд.

 Источник изображения: VK Сloud

Источник изображения: VK Сloud

Платформа Private Cloud 4.0 поддерживает сертифицированные ФСТЭК операционные системы Alt Linux, Astra и РЕД ОС. Таким образом, в частном облаке можно размещать критическую информационную инфраструктуру и хранить персональные данные любых типов, в том числе биометрические и специальные.

В рамках Private Cloud предлагаются готовые программно-аппаратные комплексы — оборудование с уже инсталлированным ПО частного облака. Поставщиками серверов и СХД являются Aquarius, DEPO, Fplus, ICL, Kraftway, OpenYard, Sitronix, Yadro, «Гравитон» и «Тринити».

Среди ключевых преимуществ частного облака VK Сloud называет размещение IT-сервисов в периметре компании с возможностью хранения конфиденциальной информации; построение геораспределённой платформы; сокращение затрат на обслуживание и поддержку инфраструктуры благодаря автоматизации; создание импортонезависимого ЦОД с масштабированием на тысячи серверов; постоянно обновляемый стек технологий для разработки конкурентоспособных продуктов и пр. Стоимость ПО рассчитывается индивидуально в соответствии с требованиями каждого клиента.

Постоянный URL: http://www.servernews.ru/1099505
26.01.2024 [21:55], Сергей Карасёв

Beeline cloud запустил сервис Cloud SD-WAN на базе решений «Лаборатории Касперского»

Beeline cloud объявил о запуске платформы Cloud SD-WAN — специализированного решения для управления сетевой инфраструктурой предприятий. Утверждается, что система обеспечивает высокий уровень отказоустойчивости, гибкость настройки и надёжную защиту от киберугроз. В создании нового облачного сервиса приняла участие «Лаборатория Касперского», а в основу продукта положена платформа Kaspersky SD-WAN.

К преимуществам Cloud SD-WAN провайдер относит возможность быстрого масштабирования сетевой инфраструктуры в соответствии с потребностями бизнеса. Кроме того, достигается повышение отказоустойчивости сети благодаря использованию всех доступных каналов связи одновременно с автоматически выбором лучшего соединения в качестве основного и резервированием остальных. Вместе с тем интегрированные механизмы безопасности отвечают за защиту от угроз и атак в реальном времени.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В целом, как отмечается, решение Cloud SD-WAN предоставляет клиентам возможность упростить свои сетевые процессы, значительно улучшить производительность и обеспечить безопасность данных в условиях постоянно меняющейся цифровой среды. «Cloud SD-WAN привнесёт значительные изменения в область сетевых технологий отечественных компаний. Наше совместное усилие направлено на предоставление клиентам инновационных решений, которые сочетают в себе передовые технологии и безопасность данных»,— говорит глава beeline cloud.

Постоянный URL: http://www.servernews.ru/1099334
04.01.2024 [00:31], Владимир Мироненко

Китай построил 500-Пфлопс публичную ИИ-платформу Shangzhuang, которая вскоре станет втрое мощнее

Китай запустил облачную ИИ-платформу, управляемую окологосударственным холдингом Beijing Energy Holding (BEH). «Пекинская публичная вычислительная платформа» (Beijing AI Public Computing Platform), также известная как проект Shangzhuang, поможет смягчить «острую нехватку вычислительных мощностей» в стране, необходимых для развития технологий ИИ.

Платформа доступна для использования образовательными учреждениями, исследовательскими центрами, а также малыми и средними предприятиями. Её первая фаза с вычислительной мощностью 500 Пфлопс (FP16) была официально запущена в самом конце 2023 года. В I квартале 2024 года планируется завершить вторую фазу строительства, доведя производительность Shangzhuang до 1,5 Эфлопс. А в будущем остаётся возможность построить ещё 2 Эфлопс мощностей.

 Фото: BEH

Фото: BEH

BEH заявил о своём стремлении сделать проект максимально экологически дружественным, выразив намерение в будущем полностью обеспечивать платформу чистой энергией. С этой целью BEH подписал соглашения о стратегическом сотрудничестве с Alibaba Cloud Computing, Sugon Information Industry и стартапом Zhipu AI для совместной работы в области зелёной энергетики, публичного облака и инфраструктуры интеллектуальных вычислений.

Постоянный URL: http://www.servernews.ru/1098292
28.11.2023 [22:20], Игорь Осколков

NVIDIA анонсировала суперускоритель GH200 NVL32 и очередной самый мощный в мире ИИ-суперкомпьютер Project Ceiba

AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных ранее платформ DGX Cloud тем, что оно первом получило гибридные суперчипах GH200 (Grace Hoppper), причём в необычной конфигурации.

 Изображения: NVIDIA

Изображения: NVIDIA

В основе AWS DGX Cloud лежит платформа GH200 NVL32, но это уже не какой-нибудь сдвоенный акселератор вроде H100 NVL, а целая, готовая к развёртыванию стойка, включающая сразу 32 ускорителя GH200, провязанных 900-Гбайт/с интерконнектом NVLink. В состав такого суперускорителя входят 9 коммутаторов NVSwitch и 16 двухчиповых узлов с жидкостным охлаждением. По словам NVIDIA, GH200 NVL32 идеально подходит как для обучения, так и для инференса действительно больших LLM с 1 трлн параметров.

Простым перемножением количества GH200 на характеристики каждого ускорителя получаются впечатляющие показатели: 128 Пфлопс (FP8), 20 Тбайт оперативной памяти, из которых 4,5 Тбайт приходится на HBM3e с суммарной ПСП 157 Тбайтс, и агрегированная скорость NVLink 57,6 Тбайт/с. И всё это с составе одного EC2-инстанса! Да, новая платформа использует фирменные DPU AWS Nitro и EFA-подключение (400 Гбит/с на каждый GH200). Новые инстансы, пока что безымянные, можно объединять в кластеры EC2 UltraClasters.

Одним из таких кластеров станет Project Ceiba, очередной самый мощный в мире ИИ-суперкомпьютер с FP8-производительность 65 Эфлопс, объединяющий сразу 16 384 ускорителя GH200 и имеющий 9,1 Пбайт памяти, а также агрегированную пропускную способность интерконнекта на уровне 410 Тбайт/с (28,8 Тбайт/с NVLink). Он и станет частью облака AWS DGX Cloud, которое будет доступно в начале 2024 года. В скором времени появятся и EC2-инстансы попроще: P5e с NVIDIA H200, G6e с L40S и G6 с L4.

Постоянный URL: http://www.servernews.ru/1096645
18.11.2023 [00:38], Владимир Мироненко

NVIDIA и Microsoft развернули в облаке Azure платформу для создания приложений генеративного ИИ

Компания NVIDIA представила на конференции Microsoft Ignite 2023 сервис NVIDIA AI Foundry, который позволит предприятиям ускорить разработку и настройку пользовательских приложений генеративного ИИ с использованием собственных данных, развёртываемых в облаке Microsoft Azure.

NVIDIA AI Foundry объединяет три элемента: набор базовых моделей NVIDIA AI Foundation, платформу и инструменты NVIDIA NeMo, а также суперкомпьютерные сервисы NVIDIA DGX Cloud AI. Вместе они предоставляют предприятиям комплексное решение для создания пользовательских моделей генеративного ИИ. Компании смогут затем развёртывать свои индивидуальные модели с помощью платформы NVIDIA AI Enterprise для создания приложений ИИ, включая интеллектуальный поиск, обобщение и генерацию контента.

«Предприятиям нужны кастомные модели для реализации специализированных навыков, основанных на собственной ДНК их компании — их данных, — сообщил глава NVIDIA Дженсен Хуанг (Jensen Huang), — Сервис NVIDIA AI Foundry сочетает в себе наши технологии моделей генеративного ИИ, опыт обучения LLM и гигантскую фабрику ИИ. Мы создали это в Microsoft Azure, чтобы предприятия по всему миру могли подключить свою собственную модель к ведущим в мире облачным сервисам Microsoft».

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Сервис NVIDIA AI Foundry можно использовать для настройки моделей для приложений на базе генеративного ИИ в различных отраслях, включая корпоративное ПО, телекоммуникации и медиа. При их развёртывании компании смогут использовать метод генерации с расширенным поиском (RAG), чтобы привязать свои модели к базе корпоративных данных для получения актуальных ответов.

В сервисе NVIDIA Foundry клиенты смогут выбирать из нескольких моделей NVIDIA AI Foundation, включая новое семейство Nemotron-3 8B в составе каталога моделей Azure AI. Разработчики также могут получить доступ к моделям Nemotron-3 8B в каталоге NVIDIA NGC и к популярным моделям Llama 2, Mistral и Stable Diffusion XL. NVIDIA сообщила, что одними из первых новым сервисом для создания моделей воспользовались SAP, Amdocs и Getty Images.

Наконец, в Azure стала доступна и платформа NVIDIA DGX Cloud AI, в рамках которой клиенты смогут арендовать кластеры, состоящие из тысяч ускорителей NVIDIA и воспользоваться ПО NVIDIA AI Enterprise, включая NeMo, для ускорения настройки LLM. Клиенты Azure смогут использовать существующие кредиты Microsoft Azure Consumption Commitment для ускорения разработки ИИ-моделей.

Отметим, что первым сервис DGX Cloud получило облако Oracle, где Microsoft арендует ускорители той же NVIDIA для собственных нужд. По слухам, компания также использует ускорители CoreWeave и Lambda Labs, а также разрабатывает более экономичные ИИ-модели. По-видимому, продавать доступ к аппаратным и иным решениям NVIDIA для Microsoft выгоднее, чем использовать для своих нужд. Впрочем, если всё сложится удачно, то компания перейдёт на ИИ-ускорители Maia 100 собственной разработки.

Постоянный URL: http://www.servernews.ru/1096150
Система Orphus