Материалы по тегу: aws

30.12.2020 [16:24], Сергей Карасёв

Платформа AWS IoT EduKit поможет в разработке IoT-приложений на базе сервисов Amazon

Представлено программно-аппаратное решение AWS IoT EduKit, предназначенное для создания приложений Интернета вещей с использованием сервисов облака AWS. Изделие выполнено на чипе Espressif ESP32-D0WDQ6-V3. Говорится о наличии 8 Мбайт памяти PSRAM. Для хранения данных может быть задействована карта microSD вместимостью до 16 Гбайт.

Устройство оборудовано небольшим IPS-дисплеем. Эта 2" панель с разрешением 320 × 240 пикселей поддерживает сенсорное управление, что реализовано за счёт контроллера FT6336U.

Оснащение включает миниатюрный 1-ваттный динамик, микрофон, порты USB Type-C и USB Type-А. Предусмотрены адаптеры беспроводной связи Wi-Fi (диапазон 2,4 ГГц) и Bluetooth.

Устройство заключено в корпус с габаритами 54 × 54 × 24 мм, а вес составляет приблизительно 100 г. Имеется встроенная аккумуляторная батарея ёмкостью 500 мА·ч. 

Постоянный URL: http://servernews.ru/1029103
24.12.2020 [14:28], Юрий Поздеев

ИИ-инструменты NVIDIA доступны в магазине приложений AWS

2020 год запомнится многим не только пандемией COVID-19, но и ростом роли искусственного интеллекта (ИИ), который стал повсеместно использоваться в фармацевтической и нефтегазовой отрасли, в научно-исследовательских лабораториях, банковской сфере и многих других отраслях, где требуется глубокий анализ данных. Облачные сервисы – второй по популярности тренд 2020 года. Многие предприятия перенесли свои рабочие нагрузки в облака, а разработчики уже давно используют облачные сервисы, например, Amazon Web Services (AWS) для проектирования систем ИИ.

Одним из основных поставщиков решений для ИИ является NVIDIA, графические ускорители (GPU) которой используются в большинстве задач по анализу и обработке данных. NVIDIA предлагает инструменты для разработки приложений и готовые решения, которые упрощают процесс интеграции ИИ в такие отрасли, как распознавание речи, робототехника, построение теоретических моделей и многие другие.

NVIDIA и AWS объявили о партнерстве, предложив инструменты NVIDIA в магазине приложений AWS. Портфолио включает 21 бесплатный инструмент для помощи в создании ИИ-приложений с использованием GPU. Подобные инструменты особенно востребованы в здравоохранении, финансах, розничной торговле, построении систем умных городов и других применениях, где используется ИИ.

NVIDIA предлагает ПО с ускорением на GPU в своем каталоге NVIDIA GPU-optimize cloud (NGC) с 2017 года и некоторые отдельные инструменты были доступны в магазине приложений AWS, однако это первый случай, когда в AWS будут размещены все инструменты NVIDIA. Но как это реализовано?

NGC включает контейнеры с ПО, которое изначально оптимизировано для работы в облачных инстансах с GPU, такими как Amazon EC2 P4d на базе новейшего процессора NVIDIA A100. Разработчики получают все необходимое в одном готовом контейнере, поэтому они могут легко перемещать рабочие GPU-нагрузки между платформами.

NVIDIA утверждает, что 250 тыс. пользователей уже загрузили более 1 млн контейнеров, предварительно обученных моделей, фреймворков приложений, диаграмм Helm и других ресурсов машинного обучения из каталога NGC. В список самых популярных среди разработчиков ПО для ИИ вошли следующие инструменты:

  • NVIDIA AI: набор фреймворков и инструментов, таких как MXNet и TensorFlow;
  • NVIDIA Clara Imaging: оптимизированная для предметной обработки изображений платформа, с возможностью глубокого обучения и логических выводов в медицинской отрасли;
  • NVIDIA DeepStream SDK: мультиплатформенное ПО аналитики для развертывания на периферии и в любом облаке;
  • NVIDIA HPC SDK: набор библиотек и программных инструментов для высокопроизводительных вычислений;
  • NVIDIA Isaak Sim ML Training: набор инструментов для машинного обучения в сфере робототехники, с применением нейронных сетей для обнаружения и распознавания объектов;
  • NVIDIA Merlin: открытая бета-платформа для создания крупномасштабных платформ машинного обучения, для выдачи рекомендаций;
  • NVIDIA NeMo: набор инструментов Python с открытым исходным кодом для построения ИИ-моделей разговорного языка;
  • RAPIDS: набор открытых библиотек и программного обеспечения для анализа данных.

Благодаря партнерству с AWS NVIDIA хочет ускорить процесс внедрения и распространения своих инструментов ИИ для более широкого круга клиентов. Разработчики получат простое в развертывании ПО, снижение сложности проектируемых систем и единый магазин приложений со всеми необходимыми инструментами.

Постоянный URL: http://servernews.ru/1028645
21.12.2020 [21:29], Андрей Галадей

Стандарт LoRa получил новые спецификации и поддержку со стороны AWS IoT Core

Технология LoRa уже который год является одним из самых распространенных протоколов с низким энергопотреблением и большой зоной покрытия. Она используется во встраиваемых системах, датчиках «умного дома» и так далее. Карта нынешнего распространения выглядит так:

embedded.com

embedded.com

Недавно в рамках стандарта появился новый пакет спецификаций LoRaWAN TS1-1.0.4 Link Layer (L2) Specification, содержащий несколько элементов, которые вместе определяют эталонную реализацию для разработки готового продукта. В комплекте есть описание аппаратных и программных требований, инструменты тестирования и многое другое.

cnx-software.com

cnx-software.com

Наконец, на этот стандарт обратила внимание и облачная служба Amazon AWS. На прошлой неделе компания заявила о поддержке AWS IoT для LoRaWAN. Это означает, что облака теперь можно использовать для работы систем «Интернета вещей». Кроме того, это ускорит разработку приложений под IoT-системы.

Использование облака позволит объединить шлюзы IoT-систем между собой, централизовав управление и работу со всеми «умными» устройствами. Подробнее о подключении IoT-систем к облакам Amazon можно узнать здесь.

Постоянный URL: http://servernews.ru/1028380
16.12.2020 [21:06], Андрей Галадей

Облако на кончиках пальцев — в AWS появилась веб-консоль CloudShell

Иногда бывает, что нужно быстро проверить или изменить файл конфигурации, внести исправления или поэкспериментировать с некоторыми новыми сервисами или функциями AWS. Однако использование развесистого веб-интерфейса не всегда оправдано, хотя в большинстве случаев его хватает. Но теперь появилась поддержка интерфейса командной строки (CLI) для AWS, так что администраторам, которые привыкли к консоли, будет легче.

Оболочка CloudShell позволяет управлять сервисами AWS из терминала, писать скрипты и так далее. Веб-консоль доступна прямо в личном кабинете. Она поддерживает изменение тем оформления (тёмная/светлая) и размера шрифтов (пять размеров на выбор). Есть поддержка вкладок и сеансов с разделением окна по горизонтали и вертикали. Тайм-аут каждого сеанса составляет 20 минут, однако сеанс можно перезапустить без повторной авторизации. Поддерживается загрузка и выгрузка файлов на локальный ПК.

Среда оболочки основана на Amazon Linux 2, работающем в небольшом инстансе (1 vCPU, 2 Гбайт RAM). Там можно хранить до 1 Гбайт данных в домашнем каталоге, устанавливать в него же пакеты по необходимости, работать как обычный непривилегированный пользователь или через sudo. Прочие изменения за пределами домашнего каталога не сохраняются, а неиспользуемые данные удаляются через 120 дней. Предустановлены Python с pip, Node с npm, а также Bash, PowerShell, jq, git, ECS CLI, SAM CLI.

Одновременно можно бесплатно использовать до 10 оболочек в каждом облачном регионе. Оплата идёт только за другие ресурсы AWS, которые используются совместно с CloudShell. Аналогичные решения уже несколько лет предлагаются в Microsoft Azure и Google Cloud Platform, причём в обоих случаях пользователю доступно 5 Гбайт места для постоянного хранения данных.

Постоянный URL: http://servernews.ru/1028007
16.12.2020 [01:22], Андрей Галадей

У FreeRTOS появилась долгосрочная поддержка LTS-релизов от AWS

Операционная система FreeRTOS получила версию с длительной поддержкой от AWS. Эта ОС предназначена для встраиваемых систем и микроконтроллеров и представляет собой софт с открытым исходным кодом. Она упрощает программирование, развертывание, защиту, подключение и управление для небольших периферийных устройств с низким энергопотреблением.

freertos logo

Как утверждается, релизы версий LTS будут более стабильными, чем обычные, что должно увеличить надёжность системы в целом. Длительная поддержка будет добавлена не только ядру системы, но и сопутствующим библиотекам для Интернета вещей, включая TCP, coreMQTT, coreHTTP, corePKCS11, coreJSON и AWS IoT Device Shadow.

Что касается сроков поддержки, то для FreeRTOS 202012.00 она продлится как минимум до 31 декабря 2022 года. Исходники системы доступны на GitHub.

Постоянный URL: http://servernews.ru/1027929
11.12.2020 [13:14], Юрий Поздеев

Arm переносит проектирование и разработку в облачные Arm-инстансы AWS

Для Arm 2020 год был удачный: один из лучших суперкомпьютеров в мире, Fugaku, построен на базе Arm + сделка с NVIDIA на более чем $40 млрд. Теперь Arm делает еще один важный шаг и переносит подавляющее большинство своих рабочих нагрузок проектирования (EDA), автоматизации и разработки в Amazon Web Services (AWS).

Разработка новых моделей SoC задача непростая и может занимать месяцы, или даже годы, что влечет за собой большие затраты на вычислительную инфраструктуру. Теперь Arm переносит основные нагрузки в AWS, на инстансы с процессорами Graviton2 с ядрами Neoverse N1 на базе архитектуры Arm. Arm будет разрабатываться на Arm: звучит иронично, но это именно так.

Arm планирует использовать гибкое потребление ресурсов в облаке для получения существенной экономии бюджета —возможность быстрого масштабирования нагрузки идеально подходит для процессов разработки, где требуется параллельное моделирование и многократные циклы тестирования, которые дают интенсивную, но не продолжительную нагрузку на ресурсы.

По расчетам Arm, переход в облако позволит сократить площадь своего центра обработки данных как минимум на 45%, а нагрузку на свои вычислительные мощности на 80%. Конечно, переход в облако потребует от Arm увеличения пропускной способности каналов связи, однако расходы на них не значительный по сравнению с общей экономией бюджета. Кроме сокращения расходов, Arm снижает сроки разработки новых решений и длительность цикла выхода новых продуктов на рынок, что должно положительно сказаться на прибыли компании.

Arm уже использует ряд сервисов AWS, в том числе Amazon Elastic Compute Cloud (EC2) и AWS Compute Optimizer для получения рекомендаций по инстансам на основе машинного обучения, для конкретных рабочих процессов. Arm также использует сервисы Databricks для разработки и запуска инструментов машинного обучения в AWS.

Сотрудничество с AWS получается взаимовыгодным: будущие ядра Neoverse V1 и N2 от Arm должны выйти в следующем году и обещают прирост 40-50%, по сравнению с Neoverse N1, а ядра V1 будут поддерживать векторные вычисления (SVE), что позволит использовать их для высокопроизводительных вычислений (HPC), которые становятся все более востребованными.

Постоянный URL: http://servernews.ru/1027575
09.12.2020 [00:23], Владимир Мироненко

Вышла новая версия Veeam Backup for AWS v3 для резервного копирования и восстановления

Компания Veeam Software, специализирующаяся на разработке решений для резервного копирования и управления данными, объявила о выходе новой версии Veeam Backup for AWS v3 — полностью автоматизированного и нативного решения для резервного копирования и аварийного восстановления для Amazon Web Services (AWS), обеспечивающего дополнительные защиту и возможности управления для сервисов Amazon Elastic Cloud Compute (Amazon EC2) и Amazon Relational Database Service (Amazon RDS).

Его использование позволяет свести к минимуму риски потери данных, размещённых в AWS. Решение предлагается в двух вариантах, и организации могут выбрать более подходящий для их задач:

  • Veeam Backup for AWS — отдельное решение для резервного копирования и восстановления AWS, обеспечивающее защиту данных в AWS;
  • Veeam Backup & Replication — решение, объединяющее резервное копирование и восстановление AWS с другими облачными, виртуальными и физическими данными, а также обеспечивающее неограниченный перенос (миграцию) данных в облака или из них, а также между разными облаками.

С помощью Veeam Backup for AWS v3 пользователи могут полностью автоматизировать резервное копирование Amazon RDS и в дальнейшем восстанавливать данные с помощью опций быстрого восстановления. Помимо полного восстановления базы данных по состоянию на нужный момент времени всего за несколько секунд, возможности нового решения включают:

  • Поддержку резервного копирования и восстановления настроек Виртуального частного облака Amazon (Virtual Private Cloud, VPC) — даже между разными регионами и учетными записями AWS — для устранения неполадок, аварийного восстановления и решения задач в области разработки/тестирования;
  • Контроль доступа на основе ролей — назначение ролей и прав доступа для операций резервного копирования и восстановления, а также оптимизацию операционной эффективности с соблюдением нормативных требований к защите данных;
  • Поддержку AWS Outposts, которая позволяет организациям использовать те же нативно работающие в AWS решения Veeam для резервного копирования и восстановления в локальных средах Outposts.

Пользователям предлагаются три варианта Veeam Backup for AWS: бесплатное решение для облачного резервного копирования (ограничено 10 копиями AWS; неограниченное число восстановлений), платное решение для облачного резервного копирования (от $40 в год за копию AWS; действующая система учёта; оплата по факту использования), комплексное решение в рамках Veeam Backup & Replication. В последнем варианте реализуется всеобъемлющая стратегия гибридной схемы работы (или с использованием различных облаков) с неограниченными вариантами переноса данных.

Постоянный URL: http://servernews.ru/1027352
07.12.2020 [12:28], Владимир Мироненко

AWS предлагает поддержку миграции мейнфреймов в облако

AWS наращивает усилия для помощи компаниям в перемещении рабочих нагрузок с мейнфреймов в своё облако. В ходе мероприятия re:Invent компания объявила о предстоящем расширении своей программы AWS Competency Program, в которую будет добавлено ещё больше сервисов для «переезда» рабочих нагрузок с мейнфреймов в облако.

В частности, компания анонсировала новый сервис, предназначенный для определения, валидации и продвижения партнёров AWS с помощью предоставления методологической поддержки в данной области. В этом случае клиенты, желающие выполнить миграцию, будут иметь доступ к продуктам и сервисам основных партнёров AWS, сообщила компания в блоге.

Компания отметила, что ИТ-директора предприятий, использующих мейнфреймы, хорошо осведомлены о связанных с ними бизнес-рисках из-за больших затрат на их модернизацию и использование. По её словам, всё больше компаний стремятся модернизировать и перенести свои рабочие нагрузки с мейнфреймов в AWS, что позволит в среднем сэкономить до 70% затрат на содержание ИТ-инфраструктуры.

AWS заявила, что утвердила в рамках реализации программы по миграции четырёх технологических партнёров — компании Micro Focus, Blu Age, Advanced / Modern Systems и TRSI — в категории AWS Mainframe Migration Technology. Кроме того, AWS добавила Infosys, Deloitte и Tata в качестве консультационных сервисов, прошедших предварительную квалификацию в роли экспертов по миграции мейнфреймов.

Что касается конкурентов AWS, то ранее в этом году Google Cloud приобрела фирму Cornerstone Technology, предоставляющую услуги миграции в облако, с целью помочь своим клиентам переносить рабочие нагрузки в публичное и частное облако. Google заявила, что технология Cornerstone, заложенная в её платформе G4, сформирует основу её будущих предложений по переходу от мейнфреймов к Google Cloud и поможет клиентам мейнфреймов модернизировать приложения и инфраструктуру.

Добавим, что LzLabs, поставщик программного обеспечения для миграции на мейнфреймы, заявил в июле, что он открывает подразделение в Северной Америке, чтобы помочь пользователям мейнфреймов перенести устаревшие приложения, например, COBOL в более современную и гибкую среду облачных приложений. Компания отметила, что тесно сотрудничает с провайдерами облачных услуг, такими как AWS, и что её сервис может быть реализован в облаке Microsoft Azure, что является её собственным конкурентоспособным предложением по миграции мейнфреймов.

Постоянный URL: http://servernews.ru/1027178
03.12.2020 [17:11], Владимир Мироненко

AWS расширяет портфель гибридных облачных решений: Panorama, Monitron и компактные модели Outposts на базе Graviton2 и Intel Xeon

Компания Amazon Web Services (AWS) открыла 1 декабря свою ежегодную виртуальную конференцию re: Invent с серии объявлений о новых сервисах, расширяющих её платформу, как поставщика общедоступного облака. Но, пожалуй, самые интересные анонсы касались гибридных вычислительных сервисов в сочетании с набором новых аппаратных компонентов.

В частности, было представлено устройство AWS Panorama Appliance, которое вместе с инструментарием AWS Panorama SDK позволит превратить существующие локальные камеры в сверхмощные устройства наблюдения с поддержкой компьютерного зрения. С помощью AWS Panorama можно автоматизировать задачи, которые традиционно требовали проверки человеком, чтобы улучшить видимость потенциальных проблем. Например, можно использовать AWS Panorama для оценки качества производства, выявления узких мест в производственных процессах и мониторинга безопасности в целом и на рабочем месте — даже в средах с ограниченным доступом к Интернету или без него.

AWS Panorama Appliance

AWS Panorama Appliance

Также было анонсировано устройство Amazon Monitron — комплексная система, которая использует машинное обучение (ML) для обнаружения аномального поведения в промышленном оборудовании, позволяя осуществлять профилактическое обслуживание и сокращать незапланированные простои. Monitron включает датчики для сбора данных о вибрации и температуре оборудования, шлюз для безопасной передачи данных в AWS и собственно сервис Monitron, который анализирует данные на предмет аномального функционирования механизмов с помощью машинного обучения, и сопутствующее мобильное приложение для настройки устройств и получения отчётов и предупреждений о потенциальных сбоях в оборудовании.

AWS Monitron

AWS Monitron

В дополнение к Amazon Monitron, AWS Panorama Appliance, AWS Panorama SDK компания также представила ещё два сервиса промышленного машинного обучения — Amazon Lookout for Equipment и Amazon Lookout for Vision. Все эти сервисы машинного обучения помогут клиентам AWS внедрять интеллект в свои производственные процессы, чтобы повысить операционную эффективность, контроль качества, безопасность и обеспечить выполнение техники безопасности на рабочем месте.

Генеральный директор AWS Энди Ясси (Andy Jassy) также представил в ходе AWS re: Invent 2020 два новых варианта Outposts, которые меньше оригинала — стоечной серверной системы, которая позволяет AWS работать локально. Одна из представленных моделей размером с коробку для пиццы (1U), а вторая — размером с две коробки для пиццы (2U).

1U-решение подходит для шкафов шириной 19 дюймов и глубиной 24 дюйма и включает процессор AWS Graviton2 (64 vCPU), 128 Гбайт памяти и 4 Тбайт NVMe. А 2U-система подходит для стандартных шкафов шириной 19 дюймов и глубиной 36 дюймов, она базируется на процессорах Intel: до 128 vCPU, 512 Гбайт памяти и 8 Тбайт локального хранилища NVMe + дополнительные ускорители, такими как AWS Inferentia или GPU.

«Эти два меньших формата Outposts имеют те же функции, что и (обычное устройство) Outposts, но только для небольшого пространства, — сказал Ясси. — Это означает, что рестораны, больницы, розничные магазины или фабрики смогут использовать Outposts, которые AWS предоставляет для этой периферии». В ходе доклада Ясси также заявил о необходимости дальнейшего тесного сотрудничества между VMware и AWS, необходимого для правильного использования гибридного облака.

Постоянный URL: http://servernews.ru/1026943
02.12.2020 [13:06], Владимир Мироненко

ИИ-ускорители Habana Gaudi от Intel появились в облаке AWS

Генеральный директор AWS Энди Ясси (Andy Jassy) представил во вторник на мероприятии AWS re: Invent 2020 инстансы EC2 с использованием до восьми ИИ-ускорителей Habana Gaudi, способные обеспечит рост производительности до 40 % по сравнению с текущими инстансами EC2 на базе графических процессоров для рабочих нагрузок машинного обучения.

Ускорители Habana Gaudi специально разработаны для тренировки моделей глубокого обучения для рабочих нагрузок, включающих обработку естественного языка, обнаружение объектов, классификацию, системы рекомендаций и персонализации.

Назвав инстансы EC2 на основе Habana Gaudi «идеальными» для таких рабочих нагрузок, AWS заявила, что рост сложности моделей машинного обучения увеличивает время и стоимость обучения ИИ. «Заказчики продолжают искать способы снизить стоимость обучения, чтобы выполнять итерации чаще и улучшать качество своих моделей машинного обучения, — заявила AWS. — Инстансы EC2 на основе Gaudi предназначены для удовлетворения таких потребностей клиентов, обеспечивая экономическую эффективность при тренировке моделей машинного обучения».

При этом экземпляры EC2 на основе Gaudi изначально поддерживают популярные программные платформы, такие как TensorFlow и PyTorch. А с помощью пакета SynapseAI от Habana разработчики смогут легко создавать новые или переносить существующие обучающие модели с графических процессоров на ускорители Gaudi.

Intel приобрела Habana в 2019 году в рамках стратегии по расширению использования искусственного интеллекта, и чтобы расширить портфолио ИИ-ускорителей для облака и центров обработки данных — категории чипов, в которой доминирует NVIDIA. Intel заявила, что это приобретение поможет её переходу к поставкам нового класса систем с XPU, объединяющих процессоры и ускорители с различной компоновкой.

Постоянный URL: http://servernews.ru/1026833
Система Orphus