Лента новостей

21.09.2020 [12:21], SN Team

Пять причин, почему вам стоит подумать о NVMe-oF™ прямо сегодня

На правах рекламы

NVMe™ — это не только современный протокол, но и фундамент для IT инфраструктуры следующего поколения. Велика вероятность, что в будущем NVMe у вас будет сквозным, однако, в этом контексте возникает несколько вопросов, например, когда это будущее настанет и каким должен быть ваш первый шаг в его направлении?

Судя по новым решениям, выходящим на рынок, время воспользоваться всеми преимуществами NVMe и выжать максимум из NVMe-oF™ уже пришло, и тому есть пять причин.

Надеть на пробежку лыжные ботинки вместо спортивных шиповок — это плохая идея

Протокол NVMe сам по себе — это новая эпоха в производительности. Скорость хранилища на флеше всегда была выше, чем у жестких дисков, но в условиях типового ЦОД интерфейс не позволял пользоваться ею в полном объеме. SAS и SATA были удобными протоколами на начальном этапе, поскольку позволяли использовать SSD в инфраструктуре, созданной для жестких дисов. Но эти разработанные для жестких дисков интерфейсы оказались попросту неспособны справиться с рабочими характеристиками флеш-хранилища. Это все равно что попросить спринтера-олимпийца выйти на стометровку в лыжных ботинках.

Следующим шагом стало внедрение интерфейса NVMe для SSD-накопителей. Разработанный специально для флеша, он привнес в нашу жизнь повышенную пропускную способность, эффективность и поддержку параллельной обработки данных, позволив извлечь максимальную выгоду из присущей NAND малой задержки.

SSD-накопители с поддержкой NVMe постоянно модернизируются, и стандарт регулярно насыщается новыми функциями и спецификациями (например, зональные пространства имен (ZNS)). Наш последний Ultrastar® DC SN840 — это решение третьего поколения с вертикально интегрированным контроллером NVMe собственного производства, собственным микрокодом и 96-слойной флеш-памятью 3D TLC NAND. Это решение направлено в будущее: низкое значение задержки и высокая доступность двух портов позволяет вам использовать его для новых информационно-емких приложений.

NVMe-oF: рабочие характеристики NVMe теперь и за пределами сервера

Хотя в условиях ЦОД NVMe SSD-накопители прекрасно справляются со своей задачей по ускорению рабочих нагрузок сервера, есть одна проблема. Чтобы полностью использовать скорость NVMe, SSD-накопитель должен находиться на шине PCIe, рядом с процессорами. Шину PCIe невозможно расширить за пределы сервера, и даже если каждый сервер в отдельности ускорить можно, в результате это приведет к возникновению мини-«башен» или «силосов» из SSD-накопителей, которые будет нелегко поделить между хостами.

В дело вступает NVMe-over-Fabrics (кратко — NVMe-oF), знаменуя собой следующий шаг в развитии инфраструктуры ЦОД. NVMe-oF позволяет обеспечивать общий доступ к СХД на NVMe для нескольких хостов, и параметры работы при этом будут сравнимы с локально привязанными SSD-накопителями.

Насколько быстро это все работает? Сегодня мы объявили не только о выходе наших новых корпоративных SSD-накопителей Ultrastar® DC SN840 с поддержкой NVMe, но и о запуске платформы хранения OpenFlex™ Data24 с поддержкой NVMe-oF, собранной полностью на дисковых полках JBOF (Just a Bunch of Flash — просто пачка флеш-дисков) с NVMe. Наша платформа хранения Ultrastar 2U24 на флеше с SAS-интерфейсом всегда считалась очень быстрой: 4,7 млн IOPS, полоса пропускания 25 ГБ/с и задержка меньше миллисекунды. И хотя полный цикл испытаний и проверка рабочих характеристик OpenFlex Data24 пока не закончены, первые полученные значения очень впечатляют. Проведенные нами лабораторные тесты свидетельствуют о том, что производительность должна быть около 13,2 млн IOPS, полоса пропускания — 70,7 ГБ/с, а задержка записи — ничтожно малые 42 микросекунды. Именно в этом состоит мощь технологии NVMe при ее использовании в хранилище, к которому можно дать доступ нескольким хостам.

NVMe-oF позволяет обеспечить скорость NVMe-хранилища даже при работе с несколькими хостами

NVMe-oF позволяет обеспечить скорость NVMe-хранилища даже при работе с несколькими хостами

Быстрее или дешевле? Такой вопрос теперь не стоит

Мы привыкли, что за дополнительную производительность нужно платить. Но с помощью OpenFlex Data24 эта парадигма уходит в прошлое. Технология NVMe-oF не просто поддерживает значительно более интенсивные рабочие нагрузки, требующие высокой производительности, она еще и обходится дешевле. По факту мы ожидаем сокращения расходов на 17% по сравнению с дисковыми полками с SAS-интерфейсом. Отправная точка для этого — использованная нами вертикальная интеграция и философия «от чипа до интеграции». Я уже упоминал, что новые SSD-накопители вертикально интегрированы — от сырой флеш-памяти NAND до контроллера и собственного микрокода, а платформа OpenFlex Data24 вообще полностью разработана нашими силами, включая контроллеры RapidFlex™ с поддержкой NVMe-oF и интегральные схемы специального назначения (ASICs).

Простое внедрение благодаря передовым вариантам подключения


Анкета загружается...

Общие хранилища, в которых доступ к ресурсам предоставлен нескольким серверам сразу, достаточно часто построены на дисковых полках JBOF. При таком подходе объем хранилища может выделяться или перераспределяться сообразно потребностям приложений, и сложность организации такого общего использования бывает разной.

OpenFlex Data24 представляет собой дисковую полку в форм-факторе 2U, рассчитанную на размещение до 24 NVMe SSD-накопителей DC SN840 с сырой емкостью до 368 Тбайт. Кроме того, на нее можно установить до шести контроллеров RapidFlex NVMe-oF. Использование таких контроллеров дает целый ряд преимуществ с точки зрения возможностей подключения, в том числе крайне низкое значение задержки, поддержка Ethernet на 100 Гбит (первоклассная скорость, которой вы можете в полной мере воспользоваться уже сейчас) и низкое энергопотребление.

До шести хостов можно подключить напрямую, без коммутатора, но весь спектр возможностей подключения раскрывается при использовании сетевой топологии на основе коммутаторов (так называемой «коммутационной фабрики» или switched fabric), которая позволяет обеспечить более высокую гибкость и максимальное использование.

Ваш первый шаг к построению компонуемости

Вся отрасль стремится к повышению эффективности, и единым вектором развития для достижения этой цели стала компонуемая дезагрегированная инфраструктура. Для нас это часть более широкой философии, описывающей инфраструктуру хранения и обработки данных завтрашнего дня. Она должна быть не просто компонуемой, а интероперабельной. Сама по себе OpenFlex Data24 совместима с Open Composable API и может быть реализована как часть компонуемой дезагрегированной инфраструктуры.

Кроме того, совместно с другими лидерами отрасти мы основали Лабораторию открытой компонуемости и совместимости (Open ComposableCompatibility Lab — OCCL), основной целью которой является расширение использования принципов компонуемости и совместимости и продвижение интероперабельности в рамках всей экосистемы привязанных к фабрике устройств. Вы также можете присоединиться к этой инициативе, вся информация доступна на сайте opencomposable.com. Если вы хотите получить более подробную информацию о решениях Western Digital, заполните форму выше.

От NVMe к NVMe-oF: время пришло

Платформа OpenFlex Data24, ее архитектура NVMe-oF и NVMe SSD-накопители Ultrastar DC SN840 — это прекрасные аргументы в пользу того, что пришло время для следующей модернизации вашего оборудования и оптимизации расходов и эффективности за счет распределения новых SSD-накопителей и, соответственно, инвестиций на их покупку на несколько серверов. Пора скинуть неудобные лыжные ботинки и отправиться на пробежку в новых быстрых кроссовках.

Рассматриваете возможность внедрения технологии NVMe-oF? Обратите внимание на эти полезные ресурсы:

Постоянный URL: https://servernews.ru/1021002
21.09.2020 [12:08], Андрей Крупин

Опубликована новая редакция рейтинга TOP 50 самых мощных суперкомпьютеров СНГ

Представлена новая, 33-ая по счёту редакция 50 самых производительных суперкомпьютеров СНГ. Суммарная пиковая производительность всех систем рейтинга составила 29,9 Пфлопс (30,6 Пфлопс в предыдущей версии списка). Основной причиной уменьшения производительности стало выведение из списка суперкомпьютера «Ломоносов», который был установлен в Московском государственном университете имени М.В. Ломоносова. Всего за полгода в списке появилось два новых вычислительных комплекса и произошло обновление ещё трёх систем.

Лидером списка остался суперкомпьютер «Кристофари» (Christofari) производства компаний SberCloud и NVIDIA, установленный в Сбербанке и демонстрирующий пиковую производительность 8,8 Пфлопс. Вторую позицию сохранил установленный в МГУ имени М.В. Ломоносова вычислительный комплекс «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 Пфлопс. На третьей строчке рейтинга с пиковой производительностью в 1,3 Пфлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды.

Новичками рейтинга стали вычислительные машины, установленные в Физико-техническом институте им. А.Ф. Иоффе (пиковая производительность 92,2 Тфлопс) и Высшем колледже информатики Новосибирского государственного университета (196,7 Тфлопс). Оба суперкомпьютера задействованы для решения научных и исследовательских задач.

В обновлённом рейтинге 49 из 50 систем построены на базе процессоров Intel. Количество гибридных машин, использующих для вычислений ускорители, уменьшилось с 27 до 26. Количество суперкомпьютеров, использующих коммуникационную сеть InfiniBand, уменьшилось с 33 до 32, при этом число суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, осталось равным 8. Количество систем в списке на основе технологии Intel Omni-Path увеличилось с 5 до 6.

Суперкомпьютер «Ломоносов-2»

Суперкомпьютер «Ломоносов-2»

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 23 до 26; количество систем, ориентированных на конкретные прикладные исследования, сократилось с 10 до 8; число систем, используемых в промышленности, уменьшилось с трёх до двух. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (14 разработанных суперкомпьютеров), далее следует группа компаний РСК (12 систем в рейтинге) и компания «Т-Платформы» с десятью вычислительным комплексами.

С полной версией рейтинга 50 самых мощных суперкомпьютеров СНГ можно ознакомиться на сайте top50.supercomputers.ru.

Постоянный URL: https://servernews.ru/1021101
19.09.2020 [19:33], Владимир Мироненко

Евросоюз инвестирует €8 млрд в суперкомпьютерный проект EuroHPC

Европейская комиссия объявила о планах инвестировать €8 млрд в EuroHPC, панъевропейский проект по разработке современных суперкомпьютеров, в том числе экзафлопсного класса, запущенный в ноябре 2018 года. В настоящее время он включает 32 европейские страны. Весной, напомним, случилась заминка, так как только половина стран-участниц согласилась софинансировать проект, а зимой в связи с Brexit'ом проект покинула Великобритания.

Инвестиции предполагается выполнить в форме нового регулирования, которое пока ещё не было официально принято Советом Европейского Союза. Об этом объявила в ходе доклада о положении дел председатель Европейской комиссии Урсула фон дер Ляйен (Ursula von der Leyen). «Я рада объявить об инвестициях в размере 8 млрд евро в суперкомпьютеры следующего поколения — передовые технологии, созданные в Европе, — сказала фон дер Лайен. — И мы хотим, чтобы европейская промышленность разработала наш собственный микропроцессор следующего поколения, который позволит нам использовать увеличивающиеся объёмы данных энергоэффективно и безопасно. В этом вся суть цифровой декады Европы!».

Упомянутый в докладе чип будет создан в рамках программы European Processor Initiative (EPI), для которой SiPearl разрабатывает высокопроизводительный микропроцессор с низким энергопотреблением под кодовым названием Rhea. Процессор, подробности о котором «просочились» в Сеть на прошлой неделе, планируется выпустить в 2021 году и использовать в 2022 году в будущем европейском суперкомпьютере с вычислительной мощностью в эксафлопс. Rhea — первое поколение из запланированных EPI чипов. За ним последуют поколения Zeus, Titan и Chronos. Первый CPU SiPearl получит 72 ядра ARM Neoverse, поддержку HBM2E и DDR5. Параллельно компания ведёт разработку вычислительных блоков на базе архитектуры RISC-V.

Еврокомиссия распределила финансирование на 13 лет (2021–2033). Из 8 млрд евро «всего» 3,5 млрд поступит от самой Еврокомиссии, а остальная сумма будет внесена государствами-участниками и получена из других источников. Многие из стран-участниц сформировали национальные центры компетенции через EuroHPC, чтобы обеспечить более лёгкий доступ к суперкомпьютерным ресурсам для местных исследователей и организаций. В новом документе также подчеркнута лидирующая роль квантовых вычислений, включая как квантовые компьютеры, так и гибридные компьютеры, сочетающие элементы квантовых и классических вычислений. Основная задача проекта — снизить зависимость Европы в области HPC от технологий США.

«Высокопроизводительные вычисления являются важным цифровым потенциалом для Европы, — отметила Маргрет Вестагер (Margrethe Vestager), исполнительный вице-президент инициативы Европейской комиссии A Europe Fit for the Digital Age. — Как мы увидели в борьбе с пандемией коронавируса, суперкомпьютеры уже помогают в поиске методов лечения, распознавании и прогнозе распространение инфекции или принятии решений о мерах сдерживания». Она добавила, что данные в сочетании с искусственным интеллектом и суперкомпьютерами также являются важным активом в обнаружении закономерностей экосистем, помогая смягчить последствия изменения климата и избежать катастроф.

Постоянный URL: https://servernews.ru/1021045
19.09.2020 [11:40], Владимир Мироненко

Швейцарский суперкомпьютер помог с высокой точностью смоделировать изменения климата

Из-за очень сложной взаимосвязанной природы климатических систем большая часть работы по изучению того, что происходит с ними и почему, проводится на суперкомпьютерах, хотя ограничения в вычислительной мощности до нынешнего времени сужали возможности такого моделирования.

В настоящее время ситуация изменилась. И команда климатологов из Швейцарской высшей технической школы Цюриха (ETH Zurich) получила возможность использовать суперкомпьютерные мощности для создания климатических моделей со сверхвысоким разрешением, охватывающих всю Европу и центральную часть Атлантического океана.

При анализе климата и погоды низкое разрешение может создавать серьезные проблемы, препятствуя моделированию таких важных массивов, как облака и штормы. В свою очередь, это порождает неравномерность в моделировании, которая приводит к большой неопределённости. Например, оценки будущего повышения температуры на Земле, если содержание CO2 в атмосфере удвоится, колеблются от 1,5 °C до 4,5 °C. Это огромный диапазон, который, по словам Кристофа Шера (Christoph Schär), профессора климатологии ETH Zurich, «в основном связан с низким разрешением моделей нынешнего климата», лучшие из которых зачастую всё ещё имеют широкий диапазон от 12 до 50 км.

Шер и его коллеги решили изменить эту парадигму. Они сотрудничают со Швейцарским национальным суперкомпьютерным центром (CSCS) и MeteoSwiss (национальное метеорологическое бюро Швейцарии), чтобы адаптировать популярную негидростатическую атмосферную модель COSMO, ранее предназначавшуюся только для CPU-расчётов, для использования на графических процессорах — шаг, который, по словам Шера, «делает вычисления эффективнее, быстрее и дешевле».

Партнёрство по передовым вычислениям в Европе (PRACE) предоставило учёным возможности для работы на суперкомпьютере Piz Daint, установленном в Швейцарском национальном суперкомпьютерном центре (CSCS). Piz Daint содержит 5704 узла Cray XC50 (каждый с Intel Xeon E5-2690 и NVIDIA Tesla P100) в дополнение к 1813 узлам XC40 (каждый с двумя Intel Xeon E5-2695). Piz Daint обеспечивает производительность в тесте Linpack 21,2 Пфлопс, что помещает его в первую десятку самых мощных суперкомпьютеров в мире согласно последнему рейтингу Top500.

Используя COSMO и Piz Daint, исследователи создали климатические проекции большей части Европы (включая районы Скандинавии, Средиземноморья и Африки) со сверхточным разрешением 2,2 км. Более высокое разрешение позволило исследователям сделать новые прогнозы, например, что ежечасные осадки будут увеличиваться по интенсивности на 7 % на каждый градус повышения температуры. «В Европе нас в первую очередь интересуют кратковременные проливные дожди, поскольку они часто случаются летом», — сказал Шер. Основываясь на результатах моделирования, он сообщил, что «водная инфраструктура должна быть адаптирована к более частым и сильным дождям».

Еще одним важным элементом нового моделирования была более точная оценка альбедо, показателя, характеризующего отражательную способности поверхности предмета. Более точное представление облаков (которые имеют относительно высокое альбедо) с помощью нового моделирования помогло исследователям более точно измерить их общее альбедо и продемонстрировать, что даже небольшие различия в этих значениях могут иметь колоссальные последствия.

Как отметил Шер, учёным «предстоит пройти ещё долгий путь». Даже с учётом резкого увеличения разрешающей способности моделирование климата было ограничено Европой. Для действительно точной модели глобального климата оно должно охватывать весь земной шар.

Постоянный URL: https://servernews.ru/1021024
18.09.2020 [23:09], Алексей Степин

AWS Cloud Digital Interface позволит обрабатывать несжатое видео прямо в облаке

Облачные системы и сервисы сегодня необычайно популярны, поскольку позволяют пользоваться солидными мощностями, иметь единый источник данных для всех работников и при этом не тратить огромные суммы на содержание собственного ЦОД. Но не для любой задачи облака подходят хорошо — к примеру, редактирование несжатого видео требует устойчивых и высоких скоростей, которые часто в облаке недостижимы из-за сетевых ограничений. Но Amazon Web Services надеется преодолеть и этот барьер с помощью Cloud Digital Interface.

Редактирование видеоматериалов обычно производится в несжатом видео, либо с использованием методов сжатия без потерь, иначе не избежать многократного пересжатия с потерей качества. Однако даже формат 1080p при 60 кадрах в секунду требует устойчивой передачи данных на скорости 3 Гбит/с, а 2160p при той же частоте кадров перегрузит и 10-гигабитную сеть — битрейт составляет уже 12 Гбит/с. Обычно для передачи несжатого видео используют такие стандарты, как Serial Digital Interface (SDI), либо похожую выделенную сетевую инфраструктуру.

Но такой подход исключает работу с облаками для многих задач и рабочих процессов, связанных с видео, от цифрового сетевого вещания до вставок различных спецэффектов. Слишком высоки требования к таймингам, пропускной способности и синхронизации нескольких машин, задействованных в подобного рода задаче. Amazon Web Services заявила, что разрешила, как минимум, часть проблемы: в инстансах Elastic Compute Cloud (EC2) компания задействовала соединение 12G-SDI между виртуальными машинами, что позволяет передавать нежсатый поток видео в формате 2160p при 60 кадрах в секунду с глубиной цвета до 3 байт на пиксель.

AWS Elastic Fabric Adapter на уровне программного обеспечения

AWS Elastic Fabric Adapter на уровне программного обеспечения

Но речь идёт лишь о частичном решении с массой условий: во-первых, каждый инстанс EC2 должен быть снабжен адаптером EFA (Elastic Fabric Adapter), а во-вторых, системы, используемые в AWS CDI, должны располагаться неподалёку друг от друга, желательно в одном физическом кластере. Уже представлены библиотеки и драйверы AWS EFA как для Windows, так и для Linux; впрочем, тестовая конфигурация cdi_test под Windows пока не поддерживает разрешение 4K.

Передача видео в таком формате загружает примерно 80% одного процессорного ядра, так что компания рекомендует выбирать достаточно мощные инстансы EC2. Новый стандарт AWS Cloud Digital Interface нацелен на профессиональных видеопродюсеров и позволяет использовать несжатые видеоданные в любом формате. При этом CDI представляет собой открытый стандарт и сопровождается SDK, который можно загрузить с соответствующего репозитория на GitHub.

В портфолио AWS есть и другие инстансы с адаптерами EFA, которые обеспечивают скорость от 10 до 100 Гбит/с. Они ориентированы на создание кластеров для HPC, ИИ и других нагрузок, требующих обмена большими объёмами данных на высокой скорости и с низкой задержкой.

Постоянный URL: https://servernews.ru/1021020
18.09.2020 [16:30], Юрий Поздеев

NetApp планирует стать лидером в сегменте облачных услугах хранения

Подразделение NetApp под названием Cloud Data Services (CDS) с каждым годом расширяет свою долю в рамках портфеля решений компании. На данный момент NetApp Cloud Volumes — это платформа хранения №1 (NFS, SMB), которая продается Microsoft в качестве основного решения, также это решение присутствует на платформах Google Cloud и AWS.

После приобретения Spot NetApp расширила свой портфель услуг по оптимизации вычислений и хранения в мультиоблачной среде, а с помощью другого своего продукта, CloudJumper, может предоставлять службу виртуальных рабочих столов (VDI) в облаке. Для аналитики в реальном времени у компании есть Cloud Insights. Таким образом, NetApp создала достаточно обширную экосистему для облака и уже давно не является компанией, выпускающей только СХД.

NetApp рассчитывает увеличить выручку за счет увеличения доли all-flash массивов и расширения CDS. На CDS у компании большие планы и к 2025 году планируется выручка более $1 млрд в год (для сравнения: в 1 квартале этого года выручка NetApp составила $178 млн). Это серьезная заявка, показывающая насколько для компании важно облачное подразделение. Причем рост этот должен быть без ущерба для остальных направлений компании.  Дополнительным драйвером роста должны стать объектные  all-flash  хранилища. 

Теперь несколько слов о будущих обновлениях СХД NetApp среднего уровня: по мнению компании практически все высокопроизводительные нагрузки будут переведены на all-flash решения в ближайшем будущем, этому будет способствовать снижение стоимости SSD и внедрение новых технологий, повышающих скорость доступа. По оценкам NetApp, среднегодовой темп роста для all-flash систем составляет 9% процентов, а для объектных хранилищ — 13%. Объектные хранилища применяются в основном в сфере медиа, телевидения, а также в нефтегазовой отрасли. Несмотря на прогнозируемый прирост объектных хранилищ в среднем по рынку в 13%, NetApp ежегодно увеличивает продажи в этом сегменте на 50% последние пять лет, что значительно выше средних показателей. 

Остается надеяться, что NetApp не станет только облачной компанией и будет дальше развивать свои модели СХД.

Постоянный URL: https://servernews.ru/1020987
18.09.2020 [15:55], Алексей Степин

ИИ-ускоритель Qualcomm Cloud AI 100 обещает быть быстрее и экономичнее NVIDIA T4

Ускорители работы с нейросетями делятся, грубо говоря, на две категории: для обучения и для исполнения (инференса). Именно для последнего случая важна не столько «чистая» производительность, сколько сочетание производительности с экономичностью, так как работают такие устройства зачастую в стеснённых с точки зрения питания условиях. Компания Qualcomm предлагает новые ускорители Cloud AI 100, сочетающие оба параметра.

Сам нейропроцессор Cloud AI 100 был впервые анонсирован ещё весной прошлого года, и Qualcomm объявила, что этот чип разработан с нуля и обеспечивает вдесятеро более высокий уровень производительности в пересчёте на ватт, в сравнении с существовавшими на тот момент решениями. Начало поставок было запланировано на вторую половину 2019 года, но как мы видим, по-настоящему ускорители на базе данного чипа на рынке появились только сейчас, причём речь идёт о достаточно ограниченных, «пробных» объёмах поставок.

В отличие от графических процессоров и ПЛИС-акселераторов, которые часто применяются при обучении нейросетей и, будучи универсальными, потребляют при этом серьёзные объёмы энергии, инференс-чипы обычно представляют собой специализированные ASIC. Таковы, например, Google TPU Edge, к этому же классу относится и Cloud AI 100. Узкая специализация позволяет сконцентрироваться на достижении максимальной производительности в определённых задачах, и Cloud AI 100 более чем в 50 раз превосходит блок инференс-процессора, входящий в состав популярной SoC Qualcomm Snapdragon 855.

На приводимых Qualcomm слайдах архитектура Cloud AI 100 выглядит достаточно простой: чип представляет собой набор специализированных интеллектуальных блоков (IP, до 16 юнитов в зависимости от модели), дополненный контроллерами LPDDR (4 канала, до 32 Гбайт, 134 Гбайт/с), PCI Express (до 8 линий 4.0), а также управляющим модулем. Имеется некоторый объём быстрой набортной SRAM (до 144 Мбайт). С точки зрения поддерживаемых форматов вычислений всё достаточно универсально: реализованы INT8, INT16, FP16 и FP32. Правда, bfloat16 не «доложили».

Об эффективности новинки говорят приведённые самой Qualcomm данные: если за базовый уровень принять систему на базе процессоров Intel Cascade Lake с потреблением 440 Ватт, то Qualcomm Cloud AI 100 в тесте ResNet-50 быстрее на два порядка при потреблении всего 20 Ватт. Это, разумеется, не предел: на рынок новый инференс-ускоритель может поставляться в трёх различных вариантах, два из которых компактные, форм-факторов M.2 и M.2e с теплопакетами 25 и 15 Ватт соответственно. Даже в этих вариантах производительность составляет 200 и около 500 Топс (триллионов операций в секунду), а существует и 75-Ватт PCIe-плата формата HHHL производительностью 400 Топс; во всех случаях речь идёт о режиме INT8.

Данные для NVIDIA Tesla T4 и P4 приведены для сравнения

Данные для NVIDIA Tesla T4 и P4 приведены для сравнения

Основными конкурентами Cloud AI 100 можно назвать Intel/Habana Gaia и NVIDIA Tesla T4. Оба этих процессора также предназначены для инференс-систем, они гибче архитектурно — особенно T4, который, в сущности, базируется на архитектуре Turing —, однако за это приходится платить как ценой, так и повышенным энергопотреблением — это 100 и 70 Ватт, соответственно. Пока речь идёт о распознавании изображений с помощью популярной сети ResNet-50, решение Qualcomm выглядит великолепно, оно на голову выше основных соперников. Однако в иных случаях всё может оказаться не столь однозначно.

Новые ускорители Qualcomm будут доступны в разных форм-факторах

Новые ускорители Qualcomm будут доступны в разных форм-факторах

Как T4, так и Gaia, а также некоторые другие решения, вроде Groq TSP, за счёт своей гибкости могут оказаться более подходящим выбором за пределами ResNet в частности и INT8 вообще. Если верить Qualcomm, то компания в настоящее время проводит углублённое тестирование Cloud AI 100 и на других сценариях в MLPerf, но в открытом доступе результатов пока нет. Разработчики сосредоточены на удовлетворении конкретных потребностей заказчиков. Также заявлено о том, что высокая производительность на крупных наборах данных может быть достигнута путём масштабирования — за счёт использования в системе нескольких ускорителей Cloud AI 100.

В настоящее время для заказа доступен комплект разработчика на базе Cloud Edge AI 100. Основная его цель заключается в создании и отработке периферийных ИИ-устройств. Система достаточно мощная, она включает в себя процессор Snapdragon 865, 5G-модем Snapdragon X55 и ИИ-сопроцессор Cloud AI 100. Выполнено устройство в металлическом защищённом корпусе с четырьмя внешними антеннами. Начало крупномасштабных коммерческих поставок намечено на первую половину следующего года.

Постоянный URL: https://servernews.ru/1020978
18.09.2020 [13:32], Владимир Мироненко

У SUSE значительный рост облачных сделок на фоне пандемии

SUSE, крупнейшая в мире независимая компания по разработке программного обеспечения с открытым исходным кодом, объявила финансовые результаты третьего квартала 2020 финансового года, закончившегося 31 июля.

Выручка SUSE за третий квартал выросла на 14 % по сравнению с прошлым годом на фоне воздействия пандемии COVID-19 на мировую экономику. Объём ACV (годовая стоимость контракта) облачных заказов увеличился в годовом исчислении на 81 %, продолжая расти уже 14 квартал подряд.

Основные достижения SUSE в третьем квартале:

  • Компанией было заключено с начала года на 35 % больше сделок с клиентами на сумму более $1 млн.
  • Отмечен повышенный спрос на корпоративную ОС Linux для выполнения рабочих нагрузок SAP — рост резервирования ACV для платформы SUSE Linux Enterprise Server for SAP Applications составил 50 %.
  • Зафиксирован значительный рост популярности продуктов SUSE в Северной Америке, Азиатско-Тихоокеанском регионе и Японии, где объём резервирования ACV вырос по сравнению с прошлым годом 25 % и 21 % соответственно.

В числе новых заказчиков в этом квартале есть Dell EMC и ведущий поставщик промышленных контрольно-измерительных приборов и решений для автоматизации технологических процессов Endress + Hauser.

В третьем квартале SUSE также укрепила свою команду топ-менеджеров, назначив на руководящие должности для поддержки ключевых целей компании финансового директора Энди Майерса (Andy Myers) и директора по развитию Майкла А. Райли (Michael A. Riley), а также руководителей по продажам в регионах — Джеффа Латтомуса (Jeff Lattomus), президента подразделения SUSE в Северной Америке, и Филиппа Мильтиадеса, президента подразделения компании в Азиатско-Тихоокеанском регионе и Японии.

Также сообщается, что SUSE открыла новый инженерный и инновационный центр в Софии (Болгария), присоединившийся к аналогичным центрам компании в Германии, Чехии, Индии и США.

Постоянный URL: https://servernews.ru/1020959
18.09.2020 [11:29], Андрей Крупин

«Ростелеком» запустил ЦОД в Южно-Сахалинске

Телекоммуникационный оператор «Ростелеком» объявил о вводе в промышленную эксплуатацию центра обработки данных в Южно-Сахалинске (Сахалинская область).

На начальном этапе мощность дата-центра составляет 1,5 МВт, ёмкость машинных залов — 25 стойко-мест с возможностью расширения до 180. ЦОД имеет надёжные системы бесперебойного электропитания и кондиционирования, оборудован всеми необходимыми системами защиты от пожара. Отдельное внимание при строительстве объекта было уделено сетевой инфраструктуре: вычислительный комплекс связан с материком трёхкратно зарезервированной магистральной высокоскоростной линией передачи данных.

Сообщается, что мощности ЦОД «Ростелекома» в Южно-Сахалинске будут задействованы при реализации высоконагруженных цифровых проектов Дальнего Востока таких, как «Цифровой регион» и «Умный город», АПК «Безопасный город», интеллектуальное видеонаблюдение с функцией аналитики и другие. В перспективе планируется предоставление услуг корпоративным клиентам.

«Открытие центра — большое событие. Мы сейчас проводим активную цифровизацию в регионе. Масштабная электронная база данных создаётся в медицинских учреждениях, огромный массив информации собирает система «Безопасный город». На базе Сахалинского госуниверситета планируем открывать научные центры. Одно из важнейших направлений — развитие Северного морского пути и восточной части арктической зоны, а также создание транспортного и логистического хаба в Корсаковском порту. Для всех этих проектов требуется большое хранилище данных. Новый ЦОД и будет обеспечивать все эти функции. Мы добивались, чтобы он был открыт именно на Сахалине, потому что претендуем на то, чтобы быть цифровым центром Дальнего Востока», — отметил губернатор Валерий Лимаренко.

В 2020 году «Ростелеком» планирует также запустить в эксплуатацию два дата-центра в Москве на 1050 стоек и несколько площадок в регионах: в Санкт-Петербурге на 800 стоек и ЦОД в Новосибирске на 300 стоек.

Постоянный URL: https://servernews.ru/1020953
18.09.2020 [10:40], Сергей Карасёв

Глобальный рынок конвергентных систем пошёл на спад

Компания International Data Corporation (IDC) подвела итоги исследования мирового рынка конвергентных систем во втором квартале текущего года. Отрасль демонстрирует отрицательную динамику, что объясняется непростой экономической ситуацией и пандемией. В тройку лидеров рынка входят Dell Technologies, Nutanix и HPE.

Под конвергентными системами аналитики IDC понимают сертифицированные производителями комплексы, включающие серверы, средства хранения данных, сетевое оборудование и базовые элементы программного управления.

В период с апреля по июнь включительно объём рассматриваемого рынка в денежном выражении составил приблизительно $3,9 млрд. Это на 4,5 % меньше по сравнению с результатом за вторую четверть 2019-го, когда затраты равнялись примерно $4,1 млрд.

IDC выделяет три сегмента на рынке конвергентных систем — сертифицированные референсные решения и инфраструктурные системы, интегрированные платформы и гиперконвергентные системы. Решения первого типа принесли $1,5 млрд выручки, что на 7,6 % меньше прошлогоднего результата. На долю таких систем пришлось 39,1 % в общем объёме рынка.

Доход в сегменте интегрированных платформ за год сократился на 13,1 % — до $544 млн. Продукты данной категории занимают 13,8 % мировой отрасли.

Наконец, в сегменте гиперконвергентных решений, которые отличаются способностью обеспечивать все функции хранения и вычислений в рамках одних серверных ресурсов, зафиксирован рост на 1,1 %. Итоговый результат составил $1,9 млрд, что соответствует доли в 47,1 % в общем объёме выручки.

Постоянный URL: https://servernews.ru/1020940
Система Orphus