Материалы по тегу: aws

21.10.2021 [20:44], Алексей Степин

AWS представила Panorama Appliance для периферийных систем машинного зрения

Крупные облачные провайдеры последовательно осваивают всё новые и новые ниши, предлагая всё более комплексные и специализированные решения. Но при всех своих преимуществах, облачные технологии не всегда подходят для любого сценария, поэтому для локализованной обработки данных на периферии без пересылки их в облако приходится создавать новые решения вроде AWS Panorama Appliance.

Panorama Appliance — не совсем обычный продукт для AWS, поскольку речь действительно идёт о классическом аппаратном устройстве, которое может быть приобретено как обычный сервер или любой другой компонент ИТ-инфраструктуры, а не просто сдаётся в аренду. Предназначено оно, как можно догадаться из названия, для систем машинного зрения.

В основе новинки лежит NVIDIA Jetson Xavier AGX, достаточно мощная сама по себе платформа. Напомним, сердцем данного модуля является 8-ядерный процессор с архитектурой ARM v8.2, дополненный 512 ядрами Volta и 64 ядрами для тензорных вычислений, а также контроллером LPDDR4X (256 бит) с пропускной способностью 137 Гбайт/с.

Эта связка развивает 11 Тфлопс на вычислениях FP16 и 22 Топс при работе с INT8, что уже весьма немало. Однако это не всё: два дополнительных движка NVDLA дают ещё 5 Тфлопс в FP16 и 10 Топс в INT8, а за функции машинного зрения отвечает отдельный VLIW-сопроцессор. Чип умеет декодировать одновременно восемь HEVC-видеопотоков 8К@30, а декодировать — двенадцать.

Под передней крышкой скрываются порты HDMI, USB и SD; разъёмы Ethernet расположены сзади

Под передней крышкой скрываются порты HDMI, USB и SD; разъёмы Ethernet расположены сзади

Основным сценарием, как и было сказано, является классификации данных, поступающих с видеокамер, с помощью ИИ-моделей. Интеграция с сервисом AWS SageMaker предусмотрена, но не является обязательной — Panorama Appliance может функционировать и автономно. Поддерживаются модели, созданные с помощью Apache MXNet, DarkNet, GluonCV, Keras, ONNX, PyTorch, TensorFlow или TensorFlow Lite. Стоит устройство $4000 + каждый уникальный видеопоток оплачивается отдельно ($8,33/мес.).

Постоянный URL: http://servernews.ru/1051876
21.10.2021 [00:08], Алексей Степин

AWS предлагает облачный доступ к Arm Cortex-M55 для разработки IoT-решений

Активно растущая база IoT-устройств естественным образом вызывает потребность в быстрой и качественной разработке программного обеспечения для этих устройств. Один из крупнейших облачных провайдеров, Amazon Web Services, начал предлагать виртуальные системы с процессорами Arm Cortex-M55.

В прошлом году AWS и Arm уже представили Project Cassini, платформу для облачной разработки в области периферийных вычислений на базе экосистемы Cortex-A. Однако для IoT актуальны и менее сложные, но куда более экономичные ядра Cortex-M. Последние наиболее продвинутые их реализации уже имеют достаточно высокую производительность, свой FPU-блок, а сегодня уже дополняются и разного рода ИИ-ускорителями (NPU).

К этим ресурсам можно получить доступ в «Project Centauri»

К этим ресурсам можно получить доступ в Project Centauri

Поэтому не вызывает удивления анонс Project Centauri. Это аналог Cassini, но как раз для Cortex-M. К новым системам уже предлагается доступ, хотя пока и в режиме «публичной беты». Дополнительно можно бесплатно получить 100 часов доступа к EC2, но относится это только к первой тысяче допущенных пользователей. С аппаратной точки зрения основой является IoT-платформа Corstone-300, оснащённая процессором Cortex-M55 и NPU-ускорителем Ethos-U55.

Архитектура IoT-платформы Corstone-300

Архитектура IoT-платформы Corstone-300

M55 на сегодняшний день является самым производительным в своём классе, и первым ядром серии M, поддерживающим векторные инструкции Helium. Сопроцессор Ehos-U55 поддерживает вычисления INT8 и INT16 (от 64 до 512 Гопс), сжатие массивов весовых коэффициентов и совместим с TensorFlow. Доступ к новой «виртуальной системе» полный: предоставляются не только CPU и NPU, но и вся периферия, подсистема ввода-вывода, а также отладочные интерфейсы. Вся документация доступна на GitHub.

Постоянный URL: http://servernews.ru/1051781
07.10.2021 [18:09], Руслан Авдеев

AWS потратила на дата-центры $35 млрд в одной только Северной Вирджинии

За прошедшие 10 лет облачный провайдер AWS потратила $35 млрд на строительство инфраструктуры на севере штата Вирджиния (США). Строительство такого масштаба оказало важное влияние на региональную экономику. Обычно гиперскейлеры не делятся детальными сведениями о своих затратах на ЦОД, но в данном случае речь идёт об отчёте, который призван показать, как сотрудничество местных органов власти и индустрии дата-центров может положительно влиять на возможности развития региона.

Сегодня Amazon относится к числу техногигантов, способных играть ведущие роли при создании облачных систем. На северо-востоке штата сейчас находится более 50 дата-центров, формирующих крупнейшее в мире облачное пространство. При этом кластер в Северной Вирджинии — это только часть инфраструктуры AWS, включающей шесть облачных регионов на территории США и 25 по всему миру. Однако именно регион US-East исторически является наиболее важным и крупным для AWS, поскольку здесь развёрнуто сразу шесть зон доступности (AZ).

Провайдеры облачных сервисов сыграли важную роль для развития финансовых систем всего мира в период пандемии. В то же время и заработок AWS в 2020 году составил $45 млрд — больше, чем у многих подразделений Amazon, связанных с торговлей. Деятельность Amazon в штате позволяет акцентировать внимание на двух фактах — по данным компании, создание облачных кластеров несёт большие преимущества для локальных экономик, но вместе с тем требует финансирования в объёмах, доступных лишь немногим компаниям.

datacenterfrontier.com

datacenterfrontier.com

Расширение проекта Amazon в Северной Вирджинии потребовало закупки местных земель, строительства большего числа дата-центров — это позволяет с запасом обеспечить корпоративный спрос на облачные решения. Прямым следствием становится появление рабочих мест среди местных жителей и рост затрат на местах на обслуживание инфраструктуры, обеспечение безопасности, а также рост поступлений налогов в местные бюджеты:

  • В 2020 году AWS заплатила более $220 млн налогов на собственность за дата-центры, расположенные в нескольких округах Северной Вирджинии. На долю компании приходится порядка 20 % всех налоговых отчислений на собственность, полученных этими округами в 2020 фискальном году. Правда, следует учитывать и то, что округа исторически предоставляли налоговые льготы;
  • В 2020 году инвестиции AWS в строительство здесь новых мощностей и расширение и поддержку прежних позволили сохранить тысяч штатных рабочих мест и ещё больше в связанных отраслях;
  • К 2023 году Amazon планирует построить в Вирджинии 15 новых «зелёных» солнечных ферм общей мощностью 1,43 ГВт.

Инвестиции объёмом $35 млрд в Вирджинии — самые масштабные для одного штата. Такие большие расходы соответствуют масштабным потребностям в затратах, необходимых для создания соответствующей инфраструктуры — конкурирующие компании вроде Google, Microsoft и Facebook обычно тратят на строительство каждого облачного кампуса от $600 млн до $4 млрд. Тем не менее, в последнее время капитальные вложения всей индустрии выросли почти на треть.

Постоянный URL: http://servernews.ru/1050752
27.09.2021 [17:06], Руслан Авдеев

AWS откроет центр проектирования ЦОД в Хорватии

Amazon Web Services (AWS) анонсировала планы открыть лабораторию по проектированию дата-центров в хорватском Загребе. Новый центр будет поддерживать разработку и функционирование облачных сервисов AWS. По данным компании, она будет нанимать «местные таланты», включая инженеров-электриков и инженеров-механиков, инфраструктурных инженеров, IT-экспертов и архитекторов облачных решений.

В феврале Amazon Web Services уже открыла ЦОД AWS Edge в Загребе. А на этой неделе AWS и хорватское правительство дополнительно подписали меморандум о взаимопонимании, который поможет внедрению облачных вычислений в государственном секторе и внесёт свой вклад в местную Стратегию национального развития.

Фото: AWS

Фото: AWS

«Мы приветствуем новости о том, что AWS будет создавать новую лабораторию по проектированию дата-центров в Загребе и осуществлять долговременные инвестиции в Хорватии. Развитие цифровой экономики нашей нации — приоритет для правительства, а облачные вычисления должны сыграть важную роль», — заявил премьер-министр Хорватии Андрей Пленкович (Andrej Plenković).

По словам представителя AWS, открытие центра в Загребе позволит создать и новые рабочие места для обслуживания AWS Cloud в Хорватии. При этом меморандум задаёт рамки взаимодействия с правительством и гражданами страны, а также обучения специалистов работе с облачными сервисами и участию в IT-модернизации.

Постоянный URL: http://servernews.ru/1049987
18.09.2021 [12:08], Сергей Карасёв

AWS запустила инстансы VT1 на базе FPGA Xilinx Alveo U30 для транскодирования видео

Облачная платформа Amazon Web Services (AWS) сообщила о запуске инстансов Amazon EC2 VT1, предназначенных для многопоточного транскодирования видеоматериалов в режиме реального времени. Услуга, как ожидается, будет востребована среди создателей контента, стримеров и пр.

Система работает на базе FPGA-ускорителей Xilinx Alveo U30. Это карта расширения PCIe в однослотовом исполнении с энергопотреблением 40 Вт. Она способна осуществлять одновременное транскодирование до двух потоков в формате 4K со скоростью 60 к/с.

AWS заявляет, что применение ускорителей Xilinx Alveo U30 позволяет на 30 % сократить затраты в расчёте на один поток по сравнению с вычислениями на базе GPU. Если же сравнивать с обработкой на основе CPU, то выигрыш в стоимости достигает 60 % в расчёте на один поток.

Реализована поддержка кодеков H.264/AVC и H.265/HEVC. Предлагаются варианты с использованием одного, двух и восьми ускорителей Xilinx Alveo U30 с возможностью одновременной обработки соответственно 8, 16 и 64 потоков в формате 1080p60.

Постоянный URL: http://servernews.ru/1049338
09.09.2021 [22:06], Алексей Степин

Анонсирована компактная платформа машинного зрения Lenovo ThinkEdge SE70

Сама специфика периферийных вычислений предъявляет к платформам этого класса особые требования: компактность, экономичность и повышенная защищённость от факторов среды. Новая платформа Lenovo ThinkEdge SE70 удовлетворяет всем современным требованиям и ориентирована на применение в системах машинного зрения нового поколения.

Само по себе машинное зрение (computer vision, CV) не является новой технологией, но лишь сравнительно недавно вычислительные технологии стали достаточно продвинутыми, чтобы развёртывать такие системы непосредственно на месте, без организации отдельного помещения с серверами. В настоящее время CV переживает настоящий бум; так, если верить опросам IDG, свыше 95% респондентов считают, что внедрение машинного зрения может повысить доходы, либо сэкономить время и ресурсы.

Новая система Lenovo ThinkEdge SE70 создана специально с прицелом на использование в CV-системах. В данном случае архитектура x86 не используется, хотя она и встречается в некоторых платформах для периферийных вычислений. Вместо этого сердцем ThinkEdge SE70 стал модуль NVIDIA Jetson Xavier NX, очень компактный, но при этом достаточно мощный.

Центральный процессор системы имеет шесть 64-бит ядер общего назначения с микроархитектурой Carmel (ARMv8.2), 384 графических ядра Volta и 48 тензорных ядер. В задачах распознавания образов, где широко используется формат INT8, его производительность оценивается в 21 Топс. Хотя процессор использует не самый новый 12-нм техпроцесс, конструкция ThinkEdge SE70, имеющая массивное оребрение корпуса, позволяет обойтись пассивным охлаждением, что для edge-платформы важно.

Для совсем уж суровых условий новинка не подойдёт, поскольку имеет лишь сертификат защиты IP51, но пыли или конденсата она не испугается и сможет работать в диапазоне температур от -20 до +60 °C. При этом поддерживается питание от любого источника постоянного тока с напряжением от 9 до 48 В. Стандартная сетевая подсистема представлена двумя портами 1GbE, а также последовательным портом и шинами CAN/DIO. Число сетевых портов можно нарастить до 8, причём с поддержкой PoE.

Lenovo ThinkEdge SE70 создавалась в содействии с Amazon Web Services, которая активно продвигает собственные наработки в области машинного зрения, в частности, программную платформу Panorama. Система будет поставляться с предустановленным SDK, позволяющим быстро превратить обычные IP-камеры в «умные». Начало поставок новой CV-платформы намечено на первую половину следующего года.

Постоянный URL: http://servernews.ru/1048695
09.09.2021 [21:17], Андрей Галадей

AWS будет закупать у Mitsubishi солнечную электроэнергию

Компания Amazon подписала с японской компанией Mitsubishi соглашение о закупке солнечной электроэнергии для облачных дата-центров AWS. Суммарная мощность, собираемая с 450 точек установки солнечных панелей в Токио и регионе Тохоку, составит около 22 МВт. Инфраструктура заработает в 2022-23 гг., и, как ожидается, сможет вырабатывать порядка 23 тыс. МВт·ч в год .

В Японии этот проект станет первым и крупнейшим межкорпоративным проектом по выработке и закупке солнечной электроэнергии. Он позволит ускорить переход Amazon к возобновляемой энергетике, хотя компания полностью планирует перейти на неё только к 2030 г. Ожидаемый срок окупаемости составляет 10 лет, причём с владельцев недвижимости, которые будут устанавливать батареи, будут взимать плату за установку оборудования в обмен на возможность продажи энергии Amazon.

energy.asia

energy.asia

Amazon является крупнейшим корпоративным покупателем возобновляемой энергии как в США, так и в Европе, с инвестициями в возобновляемые источники энергии: более 10 ГВт в 232 проектах по всему миру. В Азии у компании есть ещё два аналогичных проекта по закупке солнечной энергии — на 50 МВт в Сингапуре и 100 МВт в Китае.

Постоянный URL: http://servernews.ru/1048663
25.08.2021 [01:47], Андрей Галадей

Amazon EC2 исполнилось 15 лет

Сейчас у Amazon Web Services (AWS) есть 81 зона доступности в 25 облачных регионах, а на подходе ещё 21 зона и 7 регионов. Но поначалу всё было гораздо скромнее. 15 лет назад, вслед за появлением Amazon S3, состоялся запуск первой бета-версии Amazon ЕС2. Этот сервис позволяет арендовать виртуальный сервер (инстанс) с предварительно сконфигурированным образом ОС и ПО. Первоначально проект назвали Amazon Execution Service, имя Elastic Compute Cloud появилось позднее. Сейчас в AWS есть более 400 различных видов инстансов, но «классических» EC2 среди них уже нет.

На первом этапе Amazon ЕС2 имел единственный облачный регион (в Северной Вирджинии), где предлагался только один тип инстанса. На выбор был небольшой набор готовых ядер Linux, а IP-адреса выделялись при запуске инстансов. Для хранения использовался S3, а сами инстансы работали на базе Хеп. Все хранилища были временными, то есть существовали, пока работал сам инстанс. Такая схема позволила создать минималистичный сервис, который обрастал функциями в зависимости от внутренних нужд и требований клиентов.

Важным отличием от других сервисов аренды серверов стала повременная система оплаты, впоследствии доведённая до посекундной тарификации. Это было шагом вперёд по сравнению с годичными или месячными подписками. Изначально Amazon не раскрывала, какие именно CPU лежат в основе ЕС2, хотя и говорила, что инстанс m1.small обеспечивает вычислительную мощность, эквивалентную процессору Intel Хеоп с частотой 1,7 ГГц.

В 2008 году появилась поддержка постоянного блочного хранилища Amazon EBS, а годом позднее — функция динамического масштабирования и возможность создать виртуальное частное облако. В 2017 году началось внедрение Nitro System с целью полной перестройки всей инфраструктуры виртуализации для повышения производительности и безопасности. А ещё через год компания представила собственные Arm-процессоры Graviton.

Постоянный URL: http://servernews.ru/1047481
17.08.2021 [17:56], Алексей Степин

В AWS появились инстансы M6i на базе Intel Xeon Ice Lake-SP

10-нм архитектура Intel Ice Lake пришла в серверный сегмент довольно поздно. Инстансы на базе новых процессоров анонсировали практически все крупные облачные провайдеры, но доступными для конечных пользователей они становятся не сразу. Вчера были представлены инстансы Amazon EC2 M6i.

Пожалуй, первое, что стоит отметить — обязательное шифрование содержимого оперативной памяти во всех инстансах M6i. Сама компания позиционирует M6i как шестое поколение, по соотношению цена/производительность опережающее пятое поколение инстансов минимум на 15%. Во всех случаях в аппаратной части используются Xeon c турборежимом 3.5 ГГц.

Основные особенности Xeon Ice Lake-SP

Основные особенности Xeon Ice Lake-SP

Заказчикам предлагаются различные варианты, с количеством vCPU от 2 до 128 и пулами оперативной памяти объёмом от 8 до 128 Гбайт (4 Гбайт на vCPU). Производительность сетевой подсистемы и хранилища Amazon Elastic Block Store варьируется в зависимости от размера инстанса, в предельном случае составляя 50 и 40 Гбит/с соответственно. Также отмечается возросшая на 20% производительность подсистемы памяти (напомним, новые Xeon имеют 8 каналов памяти и поддерживают DDR4-3200).

Сочетание характеристик делает M6i подходящими практически для любой задачи — в качестве веб-серверов, серверов приложений, систем контейнеризации и т.д. Компания отдельно отмечает наличие для них сертификации SAP. Подойдут новые инстансы и для некоторых HPC-нагрузок, например, для расчётов в области вычислительной гидродинамики (CFD).

Пока шестое поколение инстансов не имеет bare metal версии с выделенными серверами и гарантированно низкой латентностью сети, но такой вариант запланирован на ближайшее будущее. Стоит отметить, что теперь AWS несколько изменила схему наименований инстансов. После номера поколения теперь идёт литера, обозначающая тип процессора — «i» для решений Intel, «a» для AMD EPYC и «g» для систем на базе процессоров AWS Graviton.

Постоянный URL: http://servernews.ru/1046903
06.08.2021 [23:52], Андрей Галадей

AWS Nitro позволяет практически уравнять производительность облачных инстансов и bare-metal систем

Высокопроизводительные вычисления (HPC) отличаются тем, что приложения как правило хорошо оптимизированы для достижения максимальной производительности на платформе. Само собой, при переносе их в облако AWS возникает вопрос: не будет ли система работать медленнее? В Amazon утверждают, что нет.

Как сообщается в блоге компании, гипервизор AWS Nitro может быть сравним по производительности с «голым» железом. AWS Nitro представляет собой комбинацию специально созданного оборудования и программного обеспечения, предназначенного для максимизации производительности и безопасности. Инстансы последнего поколения, которые включают, к примеру, c5, c5n, m5zn, c6gn и многие другие, основаны именно на Nitro.

При этом Nitro включает сразу несколько компонентов, среди которых главными являются DPU, выделенный чип безопасности с аппаратным RoT и легковесный гипервизор. Это позволяет разгрузить центральный процессор, поскольку теперь доступ к сети и ресурсам, вопросы безопасности и прочее зависят от выделенных аппаратных контроллеров. А гипервизор управляет только распределением памяти и вычислительных ресурсов.

Благодаря такой архитектуре, у хостов больше нет прямого доступа к другим ресурсам AWS — он есть только у DPU. В гипервизоре тоже есть только необходимые функции, и он используется только при работе с конкретным инстансом — если нет нагрузки, то система просто ждёт, а не выполняет даже фоновые задачи. Наконец, микросхемы безопасности Nitro обеспечивают проверку и контроль безопасности на аппаратном уровне.

Архитектура Nitro позволяет AWS предлагать инстансы, которые дают прямой доступ к «голому железу» хоста. На выходе всё это обеспечивает производительность практически на уровне обычного «железа», поскольку ресурсы почти не тратятся на другие задачи. В тесте Amazon оказалось, что два сервера одинаковой конфигурации: Intel Xeon Platinum с 18 ядрами и частотой до 3,5 ГГц, подключением 100 Гбит/сек и адаптером Elastic Fabric работают почти одинаково. При этом только один их них «крутил» гипервизор Nitro.

Для проверки применялись популярные HPC-тесты в области прогнозирования погоды (WRF), вычислительной гидродинамики (OpenFOAM), молекулярной динамики (GROMACS) и High Performance Linpack (HPL). Как оказалось, разница в производительности между системой с гипервизором Nitro (c5n.18xlarge) и bare-metal (c5n.metal) незначительна и не превышает 1%.

Постоянный URL: http://servernews.ru/1046157
Система Orphus