Материалы по тегу: вычисления

04.05.2021 [19:52], Владимир Мироненко

Из-за пандемии коронавируса Linux Foundation изменил прогноз по использованию периферийных вычислений

Организация Linux Foundation выпустила ежегодный отчёт State of the Edge, в котором в связи глобальной пандемией COVID-19 скорректировала свой прошлогодний прогноз относительно использования периферийных вычислений для ключевых отраслей в 2028 году.

Мэтт Трифиро (Matt Trifiro), сопредседатель State of the Edge и директор по маркетингу компании Vapor IO, занимающейся периферийными центрами обработки данных, отметил, что спрос на такую инфраструктуру в мире вырос в связи с продолжающейся пандемией COVID-19. «Новые цифровые нормы, созданные в связи с пандемией, будут постоянными. Это позволит активизировать внедрение новых технологий, таких как беспроводная связь 5G и автономные транспортные средства, но также затронет почти все секторы экономики, от промышленного производства до здравоохранения», — заявил он.

Цифровое здравоохранение — наиболее очевидный пример отрасли, которая во время пандемии значительно расширила использование периферийных вычислений. Поэтому в отчёте State of the Edge прогнозируется, что к 2028 году на отрасль здравоохранения будет приходиться 8,6 % глобальной инфраструктуры такого типа, что выше предыдущего прогноза в 6,8 %. По той же причине вырос прогноз и для сектора производств — 6,2 % к 2028 году вместо 3,9 %.

Ещё одна отрасль, в которой будет всё более важную роль играть архитектура периферийных вычислений — розничная торговля. В прошлогоднем отчёте не было долгосрочного прогноза для этого сектора экономики, а в этом году прогнозируется, что в 2028 году её доля составит 4,6 %.

Вместе с тем не везде увеличение доли использования периферийной вычислительной архитектуры можно отнести за счёт пандемии COVID-19. Это и автомобильная промышленность, которая испытывает значительно возросший спрос на электромобили, и производство автономных систем, таких как автономные мобильные роботы. Также в периферийных вычислительных системах будут нуждаться умные города, которые используют ряд цифровых сервисов, и такие виды деятельности, как переработка отходов или очистка воды.

В отчете State of the Edge также рассказано о технологиях, лежащих в основе архитектуры периферийных вычислений, в том числе:

  • Сервисы и приложения, предназначенные для снижения рисков быстрого развёртывания на периферии: разнообразные процессорные платформы, ориентированные на периферию, которые теперь включают решения на базе Arm, SmartNIC с FPGA и графические процессоры.
  • Новые типы интерконнекта на периферийных объектах.
  • Стандартизация 5G, SD-WAN нового поколения и SASE (Secure Access Service Edge).
Постоянный URL: http://servernews.ru/1038808
28.04.2021 [23:37], Андрей Галадей

RHEL 8.4 будет ориентирован на облака и периферийный вычисления

Компания Red Hat анонсировала новую версию Red Hat Enterprise Linux (RHEL) под номером 8.4, которая предлагает множество новых функций, в том числе для периферийных систем и устройств. Учитывая, что спрос на системы Интернета вещей растёт, а к 2025 году эти устройства будут производить порядка 1 Збайт данных, такой поход выглядит логичным.

Как отмечается, релиз RHEL 8.4, выход которого ожидается в начале мая, предлагает улучшенное управление контейнерами, уменьшение числа перезагрузок и так далее. Это позволяет автоматизировать обновления образов контейнеров и выполнение иных задач. В частности, в новый релиз будет включён Podman 3. Podman предлагает единую точку управления всеми контейнерами в гибридном облаке и на периферии.

Также в RHEL 8.4 появились новые возможности для Image Builder, инструмента, предназначенного для создания пользовательских образов операционных систем. Теперь этот инструмент позволяет создавать образы и для минимальной аппаратной конфигурации. А в рамках Universal Base Image (UBI) также предлагаются легковесные базовые образы Micro, которые имеют объём 20-40 Мбайт. Утитита Tracer, ранее доступная только в составе сервиса Satellite, помогает отслеживать обновления и принимать решения о том, когда именно действительно необходимо перезагружать систему, а когда достаточно обойтись перезапуском служб.

Также для нового релиза RHEL появятся новые политики управления шифрованием. Помимо этого расширены возможности службы Red Hat Insight, которая научилась отслеживать состояние и предупреждать о возможных проблемах с ПО и конфигурацией для приложений, развёрнутых в облаке и на периферии. Она будет доступна при наличии активной подписки на Red Hat Enterprise Linux, Red Hat OpenShift and Red Hat Ansible Automation Platform.

RHEL является основной для платформы Red Hat Edge, которая также включает Red Hat OpenShift (кластеры от трёх узлов + удалённые узлы), Red Hat Advanced Cluster Management for Kubernetes (централизованное управление распределёнными кластерами Kubernetes), Red Hat Ansible Automation Platform (автоматизация развёртывания и обслуживания ПО), Red Hat Integration (для упрощения обмена данными) и Red Hat Data Services (хранение, анализ и дистрибуция данных между ЦОД и периферией).

Постоянный URL: http://servernews.ru/1038393
24.04.2021 [12:25], Сергей Карасёв

Модули Xilinx Kria ускорят создание ИИ-решений для периферийных вычислений

Компания Xilinx анонсировала семейство продуктов Kria: это SoM-изделия (system-on-module), а также встраиваемые платы небольшого форм-фактора, предназначенные для быстрого создания различных Edge-устройств для обработки приложений искусственного интеллекта (ИИ).

Первым решением в новом семействе стал модуль Kria K26, предназначенный для обработки задач, связанных с машинным зрением. В дальнейшем появятся и другие продукты.

В состав Kria K26 входят четыре ядра ARM Cortex-A53 и блок Xilinx FPGA. Заявленная производительность достигает 1,4 TOPS. Возможно использование до 4 Гбайт памяти DDR4.

Модуль способен обрабатывать данные от 15 камер. Поддерживаются интерфейсы USB 2.0 и USB 3.0, а также Ethernet (до 40 Гбит/с).

На текущий момент Xilinx представила комплект Kria KV260, который включает модуль Kria K26, активный кулер с вентилятором и базовую плату с набором различных разъёмов. В число последних входят интерфейсы HDMI и DisplayPort, сетевой порт 1GbE, а также порты USB 2.0 и USB 3.0. Стоит такое решение $199.

Более подробно с характеристиками и возможностями новой аппаратной платформы можно ознакомиться здесь

Постоянный URL: http://servernews.ru/1038077
09.04.2021 [16:12], Владимир Мироненко

Российский разработчик oneFactor реализовал машинное обучение внутри анклавов Intel SGX

Российский разработчик сервисов искусственного интеллекта oneFactor впервые реализовал тренинг алгоритмов машинного обучения внутри анклавов (защищённой области в адресном пространстве приложения) Intel Software Guard Extensions (Intel SGX) на своей ML-платформе.

Для аналитиков банков это означает возможность сокращения вывода готовой аналитики с нескольких дней до считанных минут. Новое решение позволит повысить качество рекомендаций с применением алгоритмов машинного обучения на 20–35 % по сравнению с раздельной обработкой данных, и ускорить ML-цикл, сократившийся до нескольких часов. Увеличение производительности достигается за счёт комбинации данных различных типов и обучения алгоритмов в зашифрованном виде.

Благодаря использованию технологии Intel Software Guard Extensions (Intel SGX), обеспечивающей защиту данных в анклаве от системных процессов, выполняемых с более высокими уровнями привилегий, клиенты oneFactor могут быть уверены, что код приложения, осуществляющий доступ к личным данным, был проверен и одобрен. Теперь исполняемый код — алгоритм машинного обучения, генерируется непосредственного в анклаве. А в новых процессорах Intel Xeon Ice Lake-SP размер объём анклава может достигать 512 Гбайт, что упрощает работу с такими нагрузками.

Благодаря использованию Intel SGX решение oneFactor позволяет обрабатывать полностью зашифрованные данные в апаратно-защищённой среде. Это позволяет объединять данные разных компаний и индустрий с соблюдением условия конфиденциальности в едином вычислительном облаке, а затем использовать их в рекомендательных сервисах на базе ИИ. Особенностью ML-платформы oneFactor является высокий уровень защиты исходных данных от компрометации на аппаратном уровне, поскольку их «видит» только алгоритм машинного обучения. К ним нет доступа даже у администраторов системы или поставщика облачных сервисов.

oneFactor отметил, что это первое в России коммерческое применение технологии обеспечения конфиденциальности данных для тренировки алгоритмов машинного обучения в финансовом секторе. Данное решение позволит банкам улучшить качество сервисов и обслуживания своих клиентов: от противодействия телефонному мошенничеству до полностью автоматической верификации кредитных заявок. На данный момент к платформе уже подключён ряд крупнейших российских банков.

Постоянный URL: http://servernews.ru/1036948
08.04.2021 [15:45], Сергей Карасёв

Supermicro Hyper-E: компактные edge-серверы на базе Intel Xeon Ice Lake-SP

Компания Supermicro анонсировала новые серверы серии Hyper-E: эти системы могут применяться в составе облачных платформ и инфраструктур связи пятого поколения (5G). Кроме того, они подходят для edge-вычислений, приложений искусственного интеллекта, машинного обучения, виртуализации сетевых функций и решения различных задач в телекоммуникационной сфере.

В серии представлены машины в форм-факторе 1U и 2U, рассчитанные на монтаж в стойку и использующие новейшие процессоры Intel Xeon Scalable 3-го поколения с кодовым именем Ice Lake-SP, которые были официально представлены всего несколько дней назад.

Семейство включает двухсокетные модели SYS-220HE-FTNR, SYS-220HE-FTNRD, SYS-120H-TNR и SYS-620H-TN12R. Все они оснащены 32 слотами для модулей оперативной памяти DDR4-3200 суммарным объёмом до 8 Тбайт. В зависимости от модификации допускается установка накопителей формата 3,5 или 2,5 дюйма с «горячей» заменой. Кроме того, предусмотрены коннекторы для твердотельных модулей M.2 NVMe.

Для серверов предлагаются гибкие опции по организации сетевых подключений. К примеру, могут быть установлены контроллеры с портами 10GbE SFP+, 25GbE RJ45/SFP28 и 100GbE QSFP28.

В зависимости от модели поддерживается монтаж двух или четырёх графических акселераторов для организации GPU-вычислений. Более подробно с техническими характеристиками устройств можно ознакомиться здесь.

Постоянный URL: http://servernews.ru/1036864
06.04.2021 [15:14], Владимир Мироненко

Серверные решения на базе Arm наращивают присутствие на рынке периферийных вычислений

Согласно недавнему отчёту Digitimes Research, Arm-архитектура расширяет своё присутствие на рынке серверов для периферийных вычислений, поскольку решения на этой платформе отличаются низким энергопотреблением и более доступной стоимостью.

Операторы облачных вычислений первого уровня и крупные вендоры, такие как Amazon, Huawei и Hewlett-Packard Enterprise (HPE), инвестировали в разработку чипов и систем на базе Arm, а сама Arm также начала продвигать проект Project Cassini, стремясь укрепить экосистему своей серверной платформы и расширить совместимость с периферийными решениями.

Supermicro SYS E403 9D 16C IPD2 — периферийный сервер для радиомачт

Supermicro SYS E403 9D 16C IPD2 — периферийный сервер для радиомачт

Как ожидается, Amazon станет основным клиентом решений для облачных вычислений на базе Arm. В дополнение к своим сервисам AWS Elastic Compute Cloud (EC2) на базе Arm, компания также планирует запустить к концу 2021 года гибридные облачные сервисы Outposts на базе Arm, которые будут ориентированы на бизнес периферийных вычислений на предприятиях.

Аналитики отметили, что в настоящее время решения на базе Arm занимают лишь ограниченную долю на рынке серверов и по-прежнему имеют проблемы, связанные с совместимостью с аппаратным и программным обеспечением серверов на базе x86. Поэтому экосистему Arm пока нельзя назвать всеобъемлющей.

Но, как прогнозирует Digitimes Research, Arm-решения будут постепенно проникать на рынок пограничных серверов, где в настоящее время доминирует архитектура x86, с большим количеством брендов серверов и операторов облачных вычислений, которые будут разрабатывать продукты на основе Arm.

Постоянный URL: http://servernews.ru/1036660
20.03.2021 [13:47], Сергей Карасёв

Xilinx представила компактные решения UltraScale+ для периферийных вычислений

Компания Xilinx расширила семейство продуктов UltraScale+, анонсировав ультракомпактные изделия Artix и Zynq, рассчитанные на применение в сфере периферийных (edge) вычислений. Чипы позволят решать различные задачи в сферах машинного зрения, вещания, здравоохранения, транспорта и пр.

Новинки будут производиться по 16-нанометровой технологии и использовать упаковку InFO (Integrated Fan-Out) компании TSMC. Утверждается, что изделия приблизительно на 70 % компактнее традиционных современных чипов.

Новое семейство Artix UltraScale+ включает небольшие ПЛИС (FPGA). Они отлично подходят для машинного зрения, высокоскоростных сетевых устройств, видеооборудования класса 8K-Ready и пр. Упомянуты трансиверы с пропускной способностью 16 Гбит/с.

В свою очередь, решения Zynq UltraScale+ — это микропроцессорные системы на кристалле (MPSoC), оптимизированные с целью снижения стоимости. Они могут содержать два или четыре вычислительных ядра ARM Cortex-A53, а также программирые элементы и DSP. Эти изделия подходят для оборудования Интернета вещей, интегрируемых видеокамер, различного медицинского оборудования и пр.

Пробные производство и поставки новых чипов планируется организовать в третьем квартале текущего года. Подробности о новинках представлены в презентации компании.

Постоянный URL: http://servernews.ru/1035347
19.03.2021 [14:18], Владимир Мироненко

Submer представила контейнерные микро-ЦОД MegaPod с погружным охлаждением

Компания Submer, специализирующаяся на разработке решений иммерсионного охлаждения для центров обработки данных, облачных и периферийных вычислений, объявила о запуске MegaPod, модульного дата-центра с иммерсионным охлаждением. Данная технология использует метод погружения компонентов (или целых серверов) в диэлектрический теплоноситель.

Погружное охлаждение позволяет ЦОД справиться с растущим спросом на более высокую удельную мощность. К преимуществам технологии, по словам разработчика, также следует отнести снижение уровней выброса CO2 и энергопотребления + лучшую совокупную стоимость владения (TCO). Кроме того, иммерсионное охлаждение обеспечивает защиту оборудования от воздействия окружающей среды.

MegaPod объединяет ванны Submer SmartPod XL/XL+, IT-системы, системы электропитания, пожаротушения и т.д. в 10-, 20- или 40-футовом ISO-контейнере High Cube, который дополнен внешней градирней. Несколько контейнеров можно поставить друг на друга или рядом. Компактность и модульность обеспечивает быстрое развёртывание ЦОД в любом месте и упрощённый ввод в эксплуатацию наряду с низким энергопотреблением. Также упрощается выбор места для размещения дата-центра благодаря имеющейся опции с полностью сухим охлаждением.

В серию входят модели MegaPod 100, 200, 400 и 800, которые имеют ёмкость 2 × 44U/42OU, 4 × 44U/42OU, 8 × 44U/42OU и 8 × 41U/39OU. Цифра в наззвании указывает на максимальную мощность. Для первых трёх моделей опционально доступна сертификация Tier III. Компания также предложит клиентам возможность приобрести MegaPod в качестве решения «под ключ» через нескольких партнёров, что позволит клиентам получить полностью работоспособный ЦОД менее чем за 16 недель.

Дэниел Поуп (Daniel Pope), генеральный директор Submer, говорит, что «запуск такого продукта, как MegaPod, является следующим шагом для Submer. Благодаря простоте развёртывания и беспрецедентным преимуществам в TCO, на наши интегрированные решения существует большой спрос. Кроме того, MegaPod оптимизирует цепочку поставок, внедряя иммерсионное охлаждение, которое может иногда, как и в случае с традиционными ЦОД, выступать в качестве барьера для клиентов. Это идеальное решение для тех компаний, которые хотят легко расширить свои периферийные возможности, а также повысить свою эффективность и устойчивость. При необходимости, благодаря нашим партнёрам, Submer теперь в состоянии предоставить полностью модульный ЦОД».

Постоянный URL: http://servernews.ru/1035234
16.03.2021 [01:36], Владимир Мироненко

В Azure появились инстансы на базе AMD EPYC 7003 для HPC и защищённых вычислений

В рамках анонса новых процессоров EPYC 7003 (Milan) компании AMD и Microsoft объявили о появлении в облаке Azure новых решений на базе этих CPU. Первое, находящееся в приватном бета-тестировании, предназначено для так называемых защищённых или конфиденциальных вычислений (Confidential Computing). Microsoft Azure уже не первый год занимается инновациями этой в области. Более трёх лет финансовые и правительственные службы, поставщики медицинских услуг и даже мессенджеры используют эту технологию защиты, например, для распределённого машинного обучения или для переноса своих конфиденциальных данных в облако.

Технический директор Azure Марк Руссинович (Mark Russinovich) объявил в понедельник, что сервис ещё больше расширяет возможности конфиденциальных вычислений в Azure. Azure станет первым крупным поставщиком облачных услуг, предлагающим конфиденциальные виртуальные машины на новых процессорах AMD EPYC серии 7003. Они дополнят существующие решения Azure, такие как конфиденциальные контейнеры для службы Azure Kubernetes, и откроют возможность создания новых защищённых приложений без необходимости модификации кода, что, в свою очередь, существенно упростит процесс их создания.

В основе лежит новое расширения системы шифрования памяти AMD SEV (Secure Encrypted Virtualization) — Secure Nested Paging, или SEV-SNP. SEV-SNP обеспечивает защиту памяти виртуальных машин от самого гипервизора. Ключи шифрования генерируются отдельным сопроцессором непосредственно внутри EPYC. Это гарантирует, что никто, включая администраторов облака, рабочих нагрузок, приложений или данных на виртуальных машинах, не имеет к ним доступа.

Вторая новинка Azure — виртуальные машины с процессорами AMD EPYC серии 7003 серии Azure HBv3, оптимизированные для высокопроизводительных вычислений (HPC), доступны в ряде регионов Azure в США и в Западной Европе. Также они вскоре будут доступны в остальных регионах США и Юго-Восточной Азии.  HBv3 имеют до 120 ядер ЦП AMD EPYC серии 7003, 448 Гбайт оперативной памяти и не поддерживают многопоточность (SMT).

Виртуальные машины серии HBv3 также обеспечивают пропускную способность памяти до 340 Гбайтт/с, до 32 Мбайт кеш-памяти L3 на каждое ядро, блочное SSD-хранилище со скоростью до 7 Гбайт/с и тактовую частоту до 3,675 ГГц. Все виртуальные машины серии HBv3 имеют выделенное подключение NVIDIA Mellanox HDR InfiniBand 200 Гбит/с для работы MPI. Машины HBv3, впервые в серии H, будут иметь варианты с малым числом ядер, которые при этом получат доступ к ровно тем же ресурсам, что и инстансы с большим числом ядер.

Постоянный URL: http://servernews.ru/1034924
03.03.2021 [16:17], Владимир Мироненко

Microsoft представила программно-аппаратную платформу Azure Percept для запуска ИИ на периферии

Microsoft анонсировала на виртуальной конференции Spring Ignite 2021 программно-аппаратную платформу Azure Percept, позволяющую вывести на периферию больше сервисов Azure AI и упростить клиентам использование технологий ИИ на граничных устройствах. Как сообщила компания, платформа предоставляет клиентам комплексную систему, от аппаратного обеспечения до возможностей искусственного интеллекта и машинного обучения, позволяющую пройти путь от создания моделей искусственного интеллекта до их развёртывания на совместимом оборудовании.

Percept сочетает в себе облачные инструменты Microsoft Azure для управления устройствами и создания моделей искусственного интеллекта с оборудованием от партнёров Microsoft. Новая платформа позволит компаниям упростить создание и внедрение решений ИИ для таких задач, как обнаружение объектов и аномалий, аналитика магазинных полок и определение ключевых слов на периферии, без подключения к облаку.

Платформа Azure Percept включает комплект разработчика оборудования, предоставленный ASUS и представляющий собой несущую плату, инструменты для монтажа и систему-на-модуле с камерой, получившую название Azure Percept Vision. В комплект входят модули искусственного интеллекта с аппаратной поддержкой для запуска моделей на периферии, но она также может быть подключена к облаку. Также в платформе есть дополнительный звуковой ускоритель с массивом из четырёх микрофонов, под названием Azure Percept Audio.

Azure Percept Vision и Azure Percept Audio поставляются отдельно со встроенными модулями с аппаратным ускорением, которые обеспечивают работу с речевым и визуальным ИИ на периферии или когда устройство не подключено к интернету.

«Azure Percept готова к работе с Azure Cognitive Services, Azure Machine Learning, Azure Live Video Analytics и другими службами Azure, — сообщила корпоративный вице-президент компании Роанна Сонс (Roanne Sones), — чтобы предоставлять визуальные и звуковые идеи в режиме реального времени».

По словам Microsoft, по мере того, как клиенты будут работать с использованием комплекта разработки Azure Percept, они получат доступ к сервисам Azure AI Cognitive Services и моделям Azure Machine Learning, а также к моделям ИИ, доступным в сообществе разработчиков ПО с открытым исходным кодом и предназначенным для работы на периферии. Кроме того, устройства Azure Percept будут автоматически подключаться к Azure IoT Hub, что поможет обеспечить защищённый от взлома обмен данными между устройствами Интернета вещей и облаком.

Программное обеспечение, как сообщается, доступно «разработчикам всех уровней квалификации» благодаря библиотеке предварительно созданных моделей искусственного интеллекта Azure и решению для построения моделей с минимальным написанием кода для их кастомизации.

Azure Percept является конкурентом Google Coral, набора оборудования и аксессуаров на базе тензорного сопроцессора Edge, предназначенного для поддержки разработки ИИ на периферии.

Постоянный URL: http://servernews.ru/1034023
Система Orphus