Материалы по тегу: azure

02.12.2023 [23:23], Сергей Карасёв

Google настаивает на антимонопольных мерах против Microsoft на облачном рынке Великобритании

Компания Google, по сообщению агентства Reuters, направила в антимонопольный орган Великобритании жалобу против Microsoft: редмондский гигант обвиняется в неконкурентном поведении на облачном рынке. По заявлениям Google, политика Microsoft ставит в невыгодное положение других провайдеров облачных услуг.

Amazon Web Services (AWS) и Microsoft Azure столкнулись с растущим вниманием во всем мире по поводу их доминирования на рынке облачных вычислений, в том числе европейском. По оценкам Canalys, в III квартале 2023 года доля AWS в мировом масштабе составляла 31 %, Microsoft Azure — 25 %. Для сравнения: Google Cloud контролирует около 10 %.

 Источник изображения: Google

Источник изображения: Google

Проверкой деятельности Amazon и Microsoft занялись регулирующие органы Великобритании, Европейского Союза и США. В частности, минувшим летом Google направила жалобу на Microsoft в Федеральную торговую комиссию США (FTC), обвинив этого облачного провайдера в антиконкурентной практике. Кроме того, сообщалось, что антимонопольное расследование деятельности Amazon и Microsoft на облачном рынке начнёт британский регулятор Office of Communications (Ofcom).

Сообщается, что в октябре нынешнего года Управление по защите конкуренции и рынкам Великобритании (CMA) с подачи Ofcom инициировало оценку бизнес-практики Amazon и Microsoft в облачном сегменте. По данным Ofcom, в 2022 году AWS и Microsoft Azure совместно контролировали 70–80 % британского рынка публичных облачных услуг, тогда как доля Google варьировалась в диапазоне 5–10 %.

В своей жалобе в CMA компания Google заявляет, что политика лицензирования Microsoft ухудшает конкурентную обстановку на облачном рынке. По утверждениям Google, из-за лицензионных ограничений Microsoft у британских клиентов «не остаётся экономически разумной альтернативы, кроме как использовать Azure в качестве поставщика облачных услуг, даже если у конкурентов более привлекательные цены, качество, безопасность и функциональные возможности». В ЕС Microsoft пошла на некоторые уступки в прошлом году, однако Amazon и Google они не коснулись.

Постоянный URL: http://www.servernews.ru/1096859
26.11.2023 [02:16], Владимир Мироненко

Платформа Microsoft Azure RTOS стала открытой и перешла под эгиду Eclipse Foundation

Microsoft объявила, что набор средств разработки встраиваемых решений Azure RTOS, включающий операционную систему реального времени (ОСРВ) ThreadX, был переведён в категорию решений с открытым исходным кодом под именем Eclipse ThreadX и теперь будет развиваться под эгидой организации Eclipse Foundation.

В Eclipse Foundation заявили, что новый проект — «именно то, в чём очень давно нуждался сильно фрагментированный рынок встраиваемого ПО». ThreadX станет первой в мире open source ОСРВ, которая:

  • Отличается зрелостью и масштабируемостью — ThreadX разрабатывалась более 20 лет, в настоящее время установлена на более чем 12 млрд устройств по всему миру и высоко ценится как высокопроизводительная, высокодетерминированная ОСРВ.
  • Доступна под разрешающей открытой лицензией MIT.
  • Регулируется open source фондом Eclipse Foundation, что гарантирует нейтральную модель управления развитием и устойчивостью ThreadX.
  • Сертифицирована на защищённость и безопасность. ThreadX соответствует стандартам IEC 61508, IEC 62304, ISO 26262 и EN 50128, что подтверждено SGS-TÜV Saar. ThreadX также получила сертификат безопасности по стандартам Common Criteria EAL4+.

Отмечается, что в настоящее время нет аналогичных ОСРВ с открытым исходным кодом, имеющих подобную сертификацию и перечисленные преимущества.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Проект Eclipse ThreadX станет доступен в I квартале 2024 года и будет включать ThreadX, NetX Duo, FileX, GUIX, USBX, LevelX, а также соответствующие инструменты и документацию. Microsoft предоставит проекту самые последние сертификаты, чтобы обеспечить непрерывность выпуска сертифицированных релизов. Фонд Eclipse Foundation объявил о создании группы, занимающейся разработкой модели устойчивого финансирования ThreadX, которую согласились поддержать AMD, Cypherbridge, Microsoft, NXP, PX5, Renesas, ST Microelectronics, Silicon Labs и Witekio (Avnet).

Постоянный URL: http://www.servernews.ru/1096530
24.11.2023 [10:55], Сергей Карасёв

Microsoft увеличит облачную инфраструктуру в Канаде на 750 %, построив несколько новых дата-центров

Корпорация Microsoft, по сообщению ресурса Datacenter Dynamics, намерена существенно расширить сеть ЦОД в Канаде. Речь идёт о строительстве нескольких дополнительных объектов, которые расположатся в Квебеке. Инвестиции в проект составят приблизительно $500 млн на протяжении двух лет.

У Microsoft уже есть два канадских региона Azure: Canada Central располагается в Торонто (Онтарио), а Canada East — в Квебеке. Оба открылись в 2016 году. При этом в Квебеке действует только одна зона доступности.

Строительство новых канадских ЦОД Microsoft намерена начать в ближайшие месяцы. Они будут размещены в Л'Ансьен-Лоретте, Доннаконе, Сен-Огюстен-де-Деморе и Леви. Мощности объектов пока не раскрываются. Но отмечается, что эти дата-центры позволят Microsoft увеличить масштаб локальной облачной инфраструктуры на 750 %.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Ресурсами будущих площадок смогут воспользоваться компании и организации из частного и государственного секторов. ЦОД проектируются с прицелом на НРС и ИИ. Дата-центры создаются с учётом высоких требований к устойчивости и эффективности: предполагается использование низкоуглеродных материалов при строительстве, возобновляемых источников энергии и передовых систем охлаждения. Кроме того, будут предприняты меры по снижению использования дизельного топлива во время эксплуатации.

«Эти инвестиции не только предоставят организациям Квебека больше возможностей и дополнительную устойчивость для трансформации операций, но также позволят создать надежную и безопасную основу для более быстрого масштабирования решений и их вывода на рынок», — заявляет Microsoft.

Постоянный URL: http://www.servernews.ru/1096462
18.11.2023 [00:38], Владимир Мироненко

NVIDIA и Microsoft развернули в облаке Azure платформу для создания приложений генеративного ИИ

Компания NVIDIA представила на конференции Microsoft Ignite 2023 сервис NVIDIA AI Foundry, который позволит предприятиям ускорить разработку и настройку пользовательских приложений генеративного ИИ с использованием собственных данных, развёртываемых в облаке Microsoft Azure.

NVIDIA AI Foundry объединяет три элемента: набор базовых моделей NVIDIA AI Foundation, платформу и инструменты NVIDIA NeMo, а также суперкомпьютерные сервисы NVIDIA DGX Cloud AI. Вместе они предоставляют предприятиям комплексное решение для создания пользовательских моделей генеративного ИИ. Компании смогут затем развёртывать свои индивидуальные модели с помощью платформы NVIDIA AI Enterprise для создания приложений ИИ, включая интеллектуальный поиск, обобщение и генерацию контента.

«Предприятиям нужны кастомные модели для реализации специализированных навыков, основанных на собственной ДНК их компании — их данных, — сообщил глава NVIDIA Дженсен Хуанг (Jensen Huang), — Сервис NVIDIA AI Foundry сочетает в себе наши технологии моделей генеративного ИИ, опыт обучения LLM и гигантскую фабрику ИИ. Мы создали это в Microsoft Azure, чтобы предприятия по всему миру могли подключить свою собственную модель к ведущим в мире облачным сервисам Microsoft».

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Сервис NVIDIA AI Foundry можно использовать для настройки моделей для приложений на базе генеративного ИИ в различных отраслях, включая корпоративное ПО, телекоммуникации и медиа. При их развёртывании компании смогут использовать метод генерации с расширенным поиском (RAG), чтобы привязать свои модели к базе корпоративных данных для получения актуальных ответов.

В сервисе NVIDIA Foundry клиенты смогут выбирать из нескольких моделей NVIDIA AI Foundation, включая новое семейство Nemotron-3 8B в составе каталога моделей Azure AI. Разработчики также могут получить доступ к моделям Nemotron-3 8B в каталоге NVIDIA NGC и к популярным моделям Llama 2, Mistral и Stable Diffusion XL. NVIDIA сообщила, что одними из первых новым сервисом для создания моделей воспользовались SAP, Amdocs и Getty Images.

Наконец, в Azure стала доступна и платформа NVIDIA DGX Cloud AI, в рамках которой клиенты смогут арендовать кластеры, состоящие из тысяч ускорителей NVIDIA и воспользоваться ПО NVIDIA AI Enterprise, включая NeMo, для ускорения настройки LLM. Клиенты Azure смогут использовать существующие кредиты Microsoft Azure Consumption Commitment для ускорения разработки ИИ-моделей.

Отметим, что первым сервис DGX Cloud получило облако Oracle, где Microsoft арендует ускорители той же NVIDIA для собственных нужд. По слухам, компания также использует ускорители CoreWeave и Lambda Labs, а также разрабатывает более экономичные ИИ-модели. По-видимому, продавать доступ к аппаратным и иным решениям NVIDIA для Microsoft выгоднее, чем использовать для своих нужд. Впрочем, если всё сложится удачно, то компания перейдёт на ИИ-ускорители Maia 100 собственной разработки.

Постоянный URL: http://www.servernews.ru/1096150
16.11.2023 [16:23], Сергей Карасёв

В облаке Microsoft Azure появились первые в отрасли ИИ-инстансы на базе NVIDIA H100 NVL

Корпорация Microsoft объявила о том, что на базе облака Azure стали доступны виртуальные машины NC H100 v5 для HPC-вычислений и нагрузок ИИ. Это, как отмечается, первые в отрасли облачные инстансы на базе ускорителей NVIDIA H100 NVL. Данное решение объединяет два PCIe-ускорителя H100, соединённых посредством NVIDIA NVLink. Объём памяти HBM3 составляет 188 Гбайт, а заявленная FP8-производительность (с разреженностью) достигает почти 4 Пфлопс.

Инстансы H100 v5 основаны на платформе AMD EPYC Genoa. В зависимости от реализации, доступны 40 или 80 vCPU и 320 и 640 Гбайт памяти соответственно. В первом случае задействован один ускоритель NVIDIA H100 NVL с 94 Гбайт памяти HBM3, во втором — два ускорителя с суммарно 188 Гбайт памяти HBM3. Пропускная способность сетевого подключения — 40 и 80 Гбит/с.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В отличие от виртуальных машин серии ND, рассчитанных на самые крупные модели ИИ, инстансы NC оптимизированы для обучения и инференса моделей меньшего размера, которым не требуются сверхмасштабные массивы данных. Виртуальные машины Azure NC H100 v5 также хорошо подходят для определённых НРС-нагрузок: это гидродинамика, молекулярная динамика, квантовая химия, прогнозирование погоды и моделирование климата, а также финансовая аналитика.

В 2024 году Microsoft добавит в облако Azure виртуальные машины с новейшими ускорителями NVIDIA H200: оно смогут обрабатывать более крупные модели ИИ без увеличения задержки. А уже сейчас клиентам Azure стал доступен сервис DGX Cloud.

Постоянный URL: http://www.servernews.ru/1096056
16.11.2023 [15:29], Сергей Карасёв

В Microsoft Azure появились инстансы ND MI300X v5 с восемью ускорителями AMD Instinct и процессорами Intel Xeon

Компания Microsoft анонсировала инстансы Azure ND MI300X v5 на основе ускорителей AMD Instinct MI300X, представленных летом нынешнего года. Эти ВМ ориентированы на ресурсоёмкие ИИ-нагрузки, в частности, на решение задач инференса.

Изделия Instinct MI300X несут на борту 192 Гбайт памяти HBM3 с пропускной способностью до 5,2 Тбайт/с. В составе одной виртуальной машины ND MI300X v5 объединены восемь ускорителей, соединённых между собой посредством Infinity Fabric 3.0, а с хостом — по PCIe 5.0. В сумме это даёт 1,5 Тбайт памяти HBM3, что, как отмечает Microsoft, является самой большой ёмкостью HBM, доступной в облаке.

Виртуальные машины Azure ND — это дополнение к семейству решений на базе GPU, такие машины специально предназначены для рабочих нагрузок ИИ и глубокого обучения. Microsoft подчёркивает, что в случае ND MI300X v5 используется та же аппаратная платформа, которая применяется и для других ВМ семейства. Она включает процессоры Intel Xeon Sapphire Rapids, 16 каналов оперативной памяти DDR5, а также подключение NVIDIA Quantum-2 CX7 InfiniBand с пропускной способностью 400 Гбит/с на каждый ускоритель и 3,2 Тбит/с на виртуальную машину.

 Источник изображения: AMD

Источник изображения: AMD

По заявлениям Microsoft, на базе ND MI300X v5 могут запускаться самые крупные модели ИИ. Клиенты могут быстро перейти на новые инстансы с других решений серии ND благодаря тому, что открытая платформа AMD ROCm содержит все библиотеки, компиляторы, среды выполнения и инструменты, необходимые для ускорения ресурсоемких приложений.

Постоянный URL: http://www.servernews.ru/1096052
16.11.2023 [02:43], Алексей Степин

Microsoft представила 128-ядерый Arm-процессор Cobalt 100 и ИИ-ускоритель Maia 100 собственной разработки

Гиперскейлеры ради снижения совокупной стоимости владения (TCO) и зависимости от сторонних вендоров готовы вкладываться в разработку уникальных чипов, изначально оптимизированных под их нужды и инфраструктуру. К небольшому кругу компаний, решившихся на такой шаг, присоединилась Microsoft, анонсировавшая Arm-процессор Azure Cobalt 100 и ИИ-ускоритель Azure Maia 100.

 Изображения: Microsoft

Изображения: Microsoft

Первопроходцем в этой области стала AWS, которая разве что память своими силами не разрабатывает. У AWS уже есть три с половиной поколения Arm-процессоров Graviton и сразу два вида ИИ-ускорителей: Trainium для обучения и Inferentia2 для инференса. Крупный китайский провайдер Alibaba Cloud также разработал и внедрил Arm-процессоры Yitian и ускорители Hanguang. Что интересно, в обоих случаях процессоры оказывались во многих аспектах наиболее передовыми. Наконец, у Google есть уже пятое поколение ИИ-ускорителей TPU.

Microsoft заявила, что оба новых чипа уже производятся на мощностях TSMC с использованием «последнего техпроцесса» и займут свои места в ЦОД Microsoft в начале следующего года. Как минимум, в случае с Maia 100 речь идёт о 5-нм техпроцессе, вероятно, 4N. В настоящее время Microsoft Azure находится в начальной стадии развёртывания инфраструктуры на базе новых чипов, которая будет использоваться для Microsoft Copilot, Azure OpenAI и других сервисов. Например, Bing до сих пор во много полагается на FPGA, а вся ИИ-инфраструктура Microsoft крайне сложна.

Microsoft приводит очень мало технических данных о своих новинках, но известно, что Azure Cobalt 100 имеет 128 ядер Armv9 Neoverse N2 (Perseus) и основан на платформе Arm Neoverse Compute Subsystem (CSS). По словам компании, процессоры Cobalt 100 до +40 % производительнее имеющихся в инфраструктуре Azure Arm-чипов, они используются для обеспечения работы служб Microsoft Teams и Azure SQL. Oracle, вложившаяся в своё время в Ampere Comptuing, уже перевела все свои облачные сервисы на Arm.

Чип Maia 100 (Athena) изначально спроектирован под задачи облачного обучения ИИ и инференса в сценариях с использованием моделей OpenAI, Bing, GitHub Copilot и ChatGPT в инфраструктуре Azure. Чип содержит 105 млрд транзисторов, что больше, нежели у NVIDIA H100 (80 млрд) и ставит Maia 100 на один уровень с Ponte Vecchio (~100 млрд). Для Maia организован кастомный интерконнект на базе Ethernet — каждый ускоритель располагает 4,8-Тбит/с каналом для связи с другими ускорителями, что должно обеспечить максимально эффективное масштабирование.

Сами Maia 100 используют СЖО с теплообменниками прямого контакта. Поскольку нынешние ЦОД Microsoft проектировались без учёта использования мощных СЖО, стойку пришлось сделать более широкой, дабы разместить рядом с сотней плат с чипами Maia 100 серверами и большой радиатор. Этот дизайн компания создавала вместе с Meta, которая испытывает аналогичные проблемы с текущими ЦОД. Такие стойки в настоящее время проходят термические испытания в лаборатории Microsoft в Редмонде, штат Вашингтон.

В дополнение к Cobalt и Maia анонсирована широкая доступность услуги Azure Boost на базе DPU MANA, берущего на себя управление всеми функциями виртуализации на манер AWS Nitro, хотя и не целиком — часть ядер хоста всё равно используется для обслуживания гипервизора. DPU предлагает 200GbE-подключение и доступ к удалённому хранилищу на скорости до 12,5 Гбайт/с и до 650 тыс. IOPS.

Microsoft не собирается останавливаться на достигнутом: вводя в строй инфраструктуру на базе новых чипов Cobalt и Maia первого поколения, компания уже ведёт активную разработку чипов второго поколения. Впрочем, совсем отказываться от партнёрства с другими вендорами Microsoft не намерена. Компания анонсировала первые инстансы с ускорителями AMD Instinct MI300X, а в следующем году появятся инстансы с NVIDIA H200.

Постоянный URL: http://www.servernews.ru/1096037
09.11.2023 [01:35], Руслан Авдеев

Microsoft из-за прожорливости Bing Chat пришлось договориться об аренде ИИ-ускорителей NVIDIA у Oracle

Точно неизвестно, велик ли спрос на ИИ-сервисы Microsoft или у компании просто недостаточно вычислительных ресурсов, но IT-гиганту пришлось договариваться с Oracle об использовании ИИ-ускорителей в ЦОД последней. Как сообщает The Register, речь идёт о применении оборудования Oracle для «разгрузки» некоторых языковых моделей Microsoft, применяемых в Bing.

Во вторник компании анонсировали многолетнее соглашение. Как сообщают в Microsoft, одновременное использование компанией как Oracle Cloud, так и Microsoft Azure расширит возможности клиентов и ускорит работу с поисковыми сервисами. Сотрудничество связано с тем, что Microsoft надо всё больше вычислительных ресурсов для заявляемого «взрывного роста» её ИИ-сервисов, а у Oracle как раз имеются десятки тысяч ускорителей NVIDIA A100 и H100 для аренды.

 Источник изображения: cliff1126/pixabay.com

Источник изображения: cliff1126/pixabay.com

Служба Oracle Interconnect обеспечивает взаимодействие с облаком Microsoft Azure, что позволяет работающим в Azure сервисам взаимодействовать с ресурсами Oracle Cloud Infrastructure (OCI). Раньше такое решение уже применялось, но для сторонних клиентов двух компаний. Теперь Microsoft применяет Interconnect наряду с Azure Kubernetes Service для организации работы ИИ-узлов в облаке Oracle на благо Bing Chat.

Microsoft ещё в феврале интегрировала чат-бота Bing Chat в свой поисковый сервис и свой браузер. Не так давно добавилась и возможность, например, генерировать изображения прямо в процессе диалога. При этом использование больших языковых моделей требует огромного числа ускорителей для их тренировки, но для инференса необходимы ещё большие вычислительные мощности.

 Фото: Microsoft

Фото: Microsoft

В Oracle утверждают, что облачные суперкластеры компании, которые, вероятно, будет использовать Microsoft, могут масштабироваться до 32 768 ИИ-ускорителей A100 или 16 384 ускорителей H100 с использованием RDMA-сети с ультранизкой задержкой. Дополнением является хранилище петабайтного класса. В самой Microsoft избегают говорить, сколько именно узлов Oracle нужно компании, причём, похоже, не намерены делать этого и в будущем.

Конкуренты сотрудничают уже не в первый раз. В сентябре Oracle сообщала о намерении размещать системы с базами данных в ЦОД Azure. Более того, ещё в мае 2023 года Microsoft и Oracle изучали возможность аренды ИИ-серверов друг у друга на случай, если у них вдруг не будет хватать вычислительных мощностей для крупных облачных клиентов. Ранее ходили слухи, что похожие соглашения Microsoft подписала с CoreWeave и Lambda Labs, к которым NVIDIA более благосклонна в вопросах поставки ускорителей. Попутно Microsoft ищет более экономичные альтернативы языковым моделям OpenAI.

Постоянный URL: http://www.servernews.ru/1095671
02.11.2023 [21:52], Владимир Мироненко

Microsoft без лишнего шума запустила в Израиле первый облачный регион Azure

Microsoft без особого ажиотажа запустила облачный регион Azure в Израиле. Официальный анонс был удалён. Сообщалось, что новый регион включает три зоны доступности Azure, которые предлагают клиентам дополнительную отказоустойчивость, поскольку регион обладает автономным питанием, сетью и системой охлаждения, создающими в комплексе дополнительную устойчивость к сбоям в ЦОД. Регион Центральный Израиль отражён на странице регионов Azure как активный.

Хотя Microsoft была первым из американских облачных провайдеров, объявившим о планах запуска региона в Израиле, компания оказалась последней, кто фактически открыл облачный регион в этой стране. Microsoft объявила о планах открыть первые ЦОД в Израиле в 2020 году. Объекты предполагалось запустить в 2021 году в районе Модиин между Тель-Авивом и Иерусалимом, но в 2021 году местная пресса сообщила о переносе открытия региона на начало 2022 года.

 Изображение: Microsoft Azure

Изображение: Microsoft Azure

AWS запустила свой первый облачный регион в Израиле в августе 2023 года. В свою очередь, Google объявила о запуске нового облачного региона Google Cloud в Тель-Авиве (me-west1) в октябре прошлого года, а Oracle запустила облачный регион в Иерусалиме в 2021 году. Причём у последней мощности размещены в защищённом дата-центре на глубине 50 м под землёй.

Постоянный URL: http://www.servernews.ru/1095405
25.10.2023 [14:40], Руслан Авдеев

Microsoft потратит $3,2 млрд на развитие ЦОД для облачной и ИИ-инфраструктуры в Австралии

Компания Microsoft намерена осуществить крупнейшее за 40 лет для своих программ в Австралии вложение. Как сообщает Bloomberg, компания намерена в течение двух лет потратить $3,2 млрд на расширение сети ЦОД для облачных вычислений и реализации ИИ-проектов.

Новые инвестиции помогут Microsoft обеспечить рост количества ЦОД в Канберре, Сиднее и Мельбурне на почти в полтора раза — с 20 до 29 дата-центров. Дополнительно в штате Новый Южный Уэльс будет открыт образовательный центр Microsoft Datacenter Academy. Также предусмотрено сотрудничество со спецслужбами страны по вопросам обеспечения кибербезопасности.

Объявление о новых инвестициях состоялось через день посоле того, как премьер-министр Австралии Энтони Альбанезе (Anthony Albanese) прилетел в США с четырёхдневным официальным визитом, в рамках которого предусмотрена и встреча с президентом США Джо Байденом (Joe Biden). Ожидается, что основной темой обсуждений станут поставки критически важных полезных ископаемых и технические инновации.

 Источник изображения: Joey Csunyo/unsplash.com

Источник изображения: Joey Csunyo/unsplash.com

В рамках второго этапа соглашения AUKUS, подписанного в 2021 году, страны договорились о более тесном технологическом сотрудничестве — США, Великобритания и Австралия будут делиться критически важными сведениями, включая данные о квантовых вычислениях и искусственном интеллекте.

Впрочем, в своём стремлении развивать ЦОД в Австралии Microsoft далеко не одинока и даже не является рекордсменом. Ещё весной 2023 года появилась информация, что AWS к 2027 году вложит $8,9 млрд в свои дата-центры на территории страны.

Постоянный URL: http://www.servernews.ru/1094973

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus