Материалы по тегу: nvidia

12.04.2021 [20:00], Сергей Карасёв

NVIDIA представила младшие серверные ускорители A10 и A30

Компания NVIDIA в рамках конференции GPU Technology Conference 2021 анонсировала ускорители A10 и A30, предназначенные для обработки приложений искусственного интеллекта и других задач корпоративного класса.

Модель NVIDIA A10 использует 72 ядра RT и может оперировать 24 Гбайт памяти GDDR6 с пропускной способностью до 600 Гбайт/с. Максимальное значение TDP составляет 150 Вт. Новинка выполнена в виде полноразмерной карты расширения с интерфейсом PCIe 4.0: в корпусе сервера устройство займёт один слот расширения. Производительность в вычислениях одинарной точности (FP32) заявлена на уровне 31,2 терафлопса. Новинку можно рассматривать как замену NVIDIA T4.

Модель NVIDIA A30, в свою очередь, получила исполнение в виде двухслотовой карты расширения с интерфейсом PCIe 4.0. Задействованы 24 Гбайт памяти HBM2 с пропускной способностью до 933 Гбайт/с. Показатель TDP равен 165 Вт. Обе новинки используют архитектуру Ampere с тензорными ядрами третьего поколения.

Решения подходят для применения в серверах массового сегмента, рабочих станциях, а также в составе платформы NVIDIA EGX и для периферийных вычислений.

Постоянный URL: http://servernews.ru/1037122
12.04.2021 [20:00], Сергей Карасёв

Ускоритель NVIDIA A16 рассчитан на инфраструктуры VDI

Компания NVIDIA представила сегодня акселератор корпоративного класса A16: анонс новинки состоялся в рамках мероприятия GPU Technology Conference 2021. Ускоритель поможет в организации дистанционной работы, что актуально в текущей эпидемиологической обстановке. В такой ситуации востребованы платформы виртуальных рабочих столов (VDI).

В инфраструктуре VDI среды виртуальных рабочих мест размещаются на централизованном сервере и развёртываются по запросу. Для поддержания работы таких систем как раз и предназначен ускоритель NVIDIA A16. Решение объединяет четыре графических процессора с архитектурой Ampere. Также имеются аппаратные (де-)кодеры NVENC (x4) и NVDEC (x8).

Используется 64 Гбайт памяти GDDR6 — по 16 Гбайт на процессор.Устройство позволяет формировать виртуальные GPU (vGPU) с памятью объёмом 1, 2, 4, 8 или 16 Гбайт. Имеется поддержка технологий NVIDIA Virtual PC (vPC), Virtual Applications (vApps), RTX Workstation (vWS), Virtual Compute Server (vCS).

Ускоритель выполнен в виде карты расширения с интерфейсом PCIe 4.0. В компьютерном корпусе новинка займёт два слота. Для дополнительного питания служит 8-контактный разъём; заявленный показатель TDP — 250 Вт. Поставки акселератора NVIDIA A16 начнутся в текущем году. Более точные сроки начала продаж и стоимость разработчик раскроет позднее.

Постоянный URL: http://servernews.ru/1037129
12.04.2021 [19:48], Владимир Мироненко

NVIDIA TAO, Triton и Fleet Command помогут компаниям в выборе, дообучении, оптимизации и развёртывании моделей ИИ

«Путь к созданию предприятия, основанного на искусственном интеллекте, не должен быть долгим или трудным, если вы знаете, как использовать предварительно обученные модели и инструменты, такие как NVIDIA TAO и Fleet Command», — заявил Адель Эль-Халлак (Adel El-Hallak), директор по управлению продуктами NGC.

По его словам, теперь компаниям не придётся проектировать и обучать собственную нейронную сеть с нуля, так как можно будет выбрать одну из множества доступных в каталоге NGC. Предлагаемые NVIDIA модели, охватывают широкий спектр задач ИИ — от компьютерного зрения и разговорного ИИ до понимания естественного языка и многого другого.

Многие модели в каталоге предлагаются с расширенной информацией о наборе данных для обучения, о частоте использования и с прогнозом результатов использования. Это обеспечивает прозрачность и уверенность в том, что вы выбираете подходящую модель для своего варианта использования. Выбрав модель, клиент сможет её настроить в соответствии с конкретными потребностями с помощью NVIDIA TAO.

С помощью NVIDIA Transfer Learning Toolkit предобученную модель из каталога NGC можно будет дообучить на небольших наборах данных, которые есть у пользователей, чтобы индивидуально подстроить модели под нужды клиента. Кроме того, TAO предлагает и Federated learning (федеративное обучение), которое позволяет безопасно обучить модель на данных от различных пользователей внутри зашифрованных анклавов в GPU, не открывая их никому из участников процесса.

После точной настройки модели её необходимо оптимизировать для развёртывания — сделать более компактной без ущерба для качества и возможности эффективного функционирования на целевой платформе клиента, будь то массив графических процессоров в сервере или робот с приводом от Jetson в заводском цехе. С помощью NVIDIA Triton пользователи смогут выбрать оптимальную конфигурацию для развёртывания, независимо от архитектуры модели, используемой инфраструктуры, целевого процессора или графического ускорителя, на котором она будет работать.

После того, как модель оптимизирована и готова к развёртыванию, пользователи могут легко интегрировать её с любой инфраструктурой, которая соответствует их сценарию использования или отрасли. На завершающем этапе с выбранной платформой пользователи смогут запустить NVIDIA Fleet Command для развёртывания и управления приложением ИИ на различных устройствах с графическим процессором.

Fleet Command объединяет сертифицированные NVIDIA серверы, развёрнутые на границе сети, с облаком, используя протоколы сквозной безопасности для защиты данных приложений и интеллектуальной собственности. Данные передаются между периферией и облаком в полностью зашифрованном виде. А перед развёртыванием приложения сканируются на наличие вредоносных программ и уязвимостей.

Fleet Command и элементы TAO уже используются на складах, в розничной торговле, в больницах и в производственных цехах. В числе их пользователей такие компании, как Accenture, BMW и Siemens Industrial. Основные компоненты TAO, включая инструментарий Transfer Learning Toolkit и федеративное обучение, на данный момент уже доступны клиентам.

Постоянный URL: http://servernews.ru/1037137
12.04.2021 [19:34], Владимир Мироненко

NVIDIA развивает Arm-экосистему: GPU-инстансы с Graviton2, набор HPC-разработчика на базе Ampere Altra и новые партнёрства с Marvell, MediaTek и SiPearl

Собственный серверный Arm-процессор NVIDIA Grace ещё не вышел, но компания уже формирует экосистему вокруг Arm и собственных ускорителей. NVIDIA анонсировала серию совместных проектов с использованием своих GPU и программного обеспечения с процессорами на базе Arm для широкого круга рабочих нагрузок — от облака до периферии.

В частности, анонсированы инстансы Amazon EC2 на базе AWS Graviton2 с графическими процессорами NVIDIA, поддержка разработки научных приложений и ИИ-приложений с помощью нового набора разработчиков HPC, повышение уровня видеоаналитики и функций безопасности на границе сети, а также создание нового класса ПК на базе Arm с графическими процессорами NVIDIA RTX.

В частности, NVIDIA и AWS объявили о совместном проекте по развёртыванию Arm-экземпляров с графическими процессорами в облаке. Новые экземпляры Amazon EC2 позволят разработчикам запускать Android-игры в AWS, ускорять рендеринг и кодирование, а также транслировать игры на мобильные устройства.

Также NVIDIA представила набор NVIDIA Arm HPC Developer Kit, который включает сервер с 80-ядерным процессором Ampere Altra с тактовой частотой до 3,3 ГГц, два ускорителя NVIDIA A100, а также два DPU NVIDIA BlueField-2, которые ускоряют решение ключевых задач безопасности, передачи и хранения данных в ЦОД, включая изоляцию, , управление ключами, RDMA / RoCE, GPU Direct, хранение эластичных блоков, сжатие данных и многое другое.

Для этой платформы компания предлагает NVIDIA HPC SDK: набор компиляторов, библиотек и инструментов, которые позволяют создавать и переносить GPU-приложения HPC и ИИ в Arm-окружение. Среди первых ведущих вычислительных центров, развернувших новые платформы разработки, есть Ок-Риджская национальная лаборатория, Национальная лаборатория Лос-Аламоса и Университет Стоуни-Брук в США, а также Национальный центр высокопроизводительных вычислений на Тайване и Корейский институт науки и техники. NVIDIA Arm HPC Developer Kit будет доступен в 3 квартале 2021 года.

В области периферийных вычислений NVIDIA объявила о расширении сотрудничества с Marvell с целью объединения DPU OCTEON с графическими процессорами для ускорения облачных, корпоративных, операторских и пограничных приложений, и, в целом, повышения производительности систем и сокращения задержек от периферии до облака.

В категории ПК компания сотрудничает с MediaTek, одним из крупнейших мировых поставщиков SoC на базе Arm, чтобы создать эталонную платформу, поддерживающую Chromium, Linux и NVIDIA SDK. Сочетание графических процессоров NVIDIA RTX с высокопроизводительными, энергоэффективными процессорами Arm Cortex позволит использовать в ноутбуках графику с трассировкой лучей и искусственный интеллект.

Кроме того, NVIDIA сотрудничает и с другими партнёрами, включая Fujitsu и SiPearl. Первая, напомним, разработала самый мощный в мире суперкомпьютер Fugaku, который по совместительству является и самой производительной системой на базе Arm-процессоров, пусть и довольно специфичных. Вторая же пока всё ещё занимается разработкой Arm-процессоров SiPearl Rhea для будущих европейских суперкомпьютеров.

Постоянный URL: http://servernews.ru/1037079
12.04.2021 [19:26], Игорь Осколков

NVIDIA анонсировала серверные Arm-процессоры Grace и будущие суперкомпьютеры на их базе

В рамках GTC’21 NVIDIA анонсировала Arm-процессоры Grace серверного класса, которые станут компаньонами будущих ускорителей компании. Это не означает полный отказ от x86-64, но это позволит компании предложить клиентам более глубоко оптимизированные, а, значит, и более быстрые решения. NVIDIA говорит, что новый CPU позволит на порядок повысить производительность систем на его основе в ИИ и HPC-задачах в сравнении с современными решениями.

Процессор назван в честь Грейс Хоппер (Grace Hopper), одного из пионеров информатики и создательницы целого ряда основополагающих концепций и инструментов программирования. И это имя нам уже встречалось в контексте NVIDIA — в конце 2019 года компания зарегистрировала торговую марку Hopper для MCM-решений.

Компания не готова раскрыть полные технически характеристики новинки, которая станет доступна в начале 2023 года, но приводит некоторые интересные детали. В частности, процессор будет использовать Arm-ядра Neoverse следующего поколения (надо полагать, уже на базе ARMv9),  которые позволят получить в SPECrate2017_int_base результат выше 300. Для сравнения — система с парой современных AMD EPYC 7763 в том же бенчмарке показывает результат на уровне 800.

Вторая особенность Grace — использование памяти LPDRR5X (с ECC, естественно). В сравнении с DDR4 она будет иметь вдвое большую пропускную способность (ПСП) и в 10 раз меньшее энергопотребление. Число и скорость каналов памяти не уточняются, но говорится о суммарной ПСП в более чем 500 Гбайт/с на процессор. А у того же EPYC 7763 теоретический пик ПСП чуть больше 200 Гбайт/с. Очевидно, что другие процессоры к моменту выхода NVIDIA Grace тоже увеличат и производительность, и пропускную способность памяти. Гораздо более интересный вопрос, сколько линий PCIe 5.0 они смогут предложить. Если допустить, что у них будет 128 линий, то общая скорость для них составит чуть больше 500 Гбайт/с.

И NVIDIA этого мало — процессоры Grace получат прямое, кеш-когерентное подключение к GPU по NVLInk 4.0 (14x) с суммарной пропускной способностью боле 900 Гбайт/с. GPU тоже, как и прежде, будут общаться напрямую друг с другом по NVLink. Скорость связи между двумя CPU превысит 600 Гбайт/с, а в сборке из четырёх модулей CPU+GPU суммарная скорость обмена данными между системной памятью процессоров и GPU в такой mesh-сети составит 2 Тбайт/с. Но самое интересное тут то, что у памяти CPU (LPDDR5X) и GPU (HBM2e) в такой системе будет единое адресное пространство. Собственно говоря, таким образом компания решает давно назревшую проблему дисбаланса между скоростью обмена данными и доступным объёмом памяти в различных частях вычислительного комплекса.

Для сравнения можно посмотреть на архитектуру нынешних DGX A100 или HGX. У каждого ускорителя A100 есть 40 или 80 Гбайт набортной памяти HBM2e (1555 или 2039 Гбайт/с соответственно) и NVLInk-подключение на 600 Гбайт/c, которое идёт к коммутатору NVSwitch, имеющего суммарную пропускную способность 1,8 Тбайт/с. Всего таких коммутаторов шесть, а объединяют они восемь ускорителей. Внутри этой NVLInk-фабрики сохраняется достаточно высокая скорость обмена данными, но как только мы выходим за её пределы, ситуация меняется.

Схема NVIDIA DGX A100. Источник: Microway

Схема NVIDIA DGX A100. Источник: Microway

Каждый ускоритель A100 имеет второй интерфейс — PCIe 4.0 x16 (64 Гбайт/с), который уходит к PCIe-коммутатору, каковых в DGX A100 имеется четыре. Коммутаторы, в свою очередь, объединяют между собой сетевые 200GbE-адаптеры (суммарно в дуплексе до 1,6 Тбайт/с для связи с другими DGX A100), NVMe-накопители и CPU. У каждого CPU может быть довольно много памяти (от 512 Гбайт), но её скорость ограничена упомянутыми выше 200 Гбайт/c.

Узким местом во всей этой схеме является как раз PCIe, поэтому переход исключительно на NVLInk позволит NVIDIA получить большой объём памяти при сохранении приемлемой ПСП, не тратясь лишний раз на дорогую локальную HBM2e у каждого GPU. Впрочем, если компания не переведёт на NVLink и собственные будущие DPU Bluefield-3 (400GbE), которые будут скармливать связке CPU+GPU по, например, GPUDirect Storage данные из внешних NVMe-oF хранилищ и объединять узлы DGX POD, то PCIe 5.0 в составе Grace стоит ждать. Это опять-таки упростит и повысит эффективность масштабирования.

В целом, всё это необходимо из-за быстрого роста объёма ИИ-моделей — в GPT-3 уже 175 млрд параметров, а в течение пары лет можно ожидать модели уже с 0,5-1 трлн параметров. Им потребуются не только новые решения для обучения, но и для инференса. То же касается и физических расчётов — модели становятся всё больше и требовательнее + ИИ здесь тоже активно внедряется. Параллельно с разработкой Grace NVIDIA развивает программную экосистему вокруг Arm и своих решений, готовя почву для будущих систем на их основе.

Одной из такой систем станет суперкомпьютер Alps в Швейцарском национальном компьютерном центре (Swiss National Computing Centre, CSCS), который придёт на смену Piz Daint (12 место в нынешнем рейтинге TOP500). Этот суперкомпьютер серии HPE Cray EX, в частности, сможет в семь раз быстрее обучить модель GPT-3, чем машина NVIDIA Selene (5 место в TOP500). Впрочем, на нём будут выполняться и классические HPC-задачи в области метеорологии, физики, химии, биологии, экономики и так далее. Ввод в эксплуатацию намечен на 2023 год. Тогда же в США появится аналогичная машина от HPE в Лос-Аламосской национальной лаборатории (LANL). Она дополнит систему Crossroads, использующую исключительно процессоры Intel Xeon Sapphire Rapids.

Постоянный URL: http://servernews.ru/1037136
12.04.2021 [19:21], Алексей Степин

NVIDIA анонсировала DPU BlueField-3: 400 Гбит/с, 16 ядер Cortex-A78 и PCIe 5.0

Идея «сопроцессора данных», озвученная всерьёз в 2020 году компанией Fungible, продолжает активно развиваться и прокладывать себе дорогу в жизнь. На конференции GTC 2021 корпорация NVIDIA анонсировала новое поколение «умных» сетевых карт BlueField-3, способное работать на скорости 400 Гбит/с.

Изначально серия ускорителей BlueField разрабатывалась компанией Mellanox, и одной из целей создания столь продвинутых сетевых адаптеров стала реализация концепции «нулевого доверия» (zero trust) для сетевой инфраструктуры ЦОД нового поколения. Адаптеры BlueField-2 были анонсированы в начале прошлого года. Они поддерживали два 100GbE-порта, микросегментацию, и могли осуществлять глубокую инспекцию пакетов полностью автономно, без нагрузки на серверные ЦП. Шифрование TLS/IPSEC такие карты могли выполнять на полной скорости, не создавая узких мест в сети.

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП — 22 млрд транзисторов

Но на сегодня 100 и даже 200 Гбит/с уже не является пределом мечтаний — провайдеры и разработчики ЦОД активно осваивают скорости 400 и 800 Гбит/с. Столь скоростные сети требуют нового уровня производительности от DPU, и NVIDIA вскоре сможет предложить такой уровень: на конференции GTC 2021 анонсировано новое, третье поколение карт BlueField.

Если BlueField-2 могла похвастаться массивом из восьми ядер ARM Cortex-A72, объединённых когерентной сетью, то BlueField-3 располагает уже шестнадцатью ядрами Cortex-A78 и в четыре раза более мощными блоками криптографии и DPI. Совокупно речь идёт о росте производительности на порядок, что позволяет новинке работать без задержек на скорости 400 Гбит/с — и это первый в индустрии адаптер класса 400GbE со столь продвинутыми возможностями, поддерживающий, к тому же, стандарт PCI Express 5.0. Известно, что столь быстрым сетевым решениям PCIe 5.0 действительно необходим.

С точки зрения поддерживаемых возможностей BlueField-3 обратно совместим с BlueField-2, что позволит использовать уже имеющиеся наработки в области программного обеспечения для DPU. Одновременно с анонсом нового DPU компания представила и открытую программную платформу DOCA, упрощающую разработку ПО для таких сопроцессоров, поскольку они теперь занимаются не просто обработкой сетевого трафика, а оркестрацией работы серверов, приложений и микросервисов в рамках всего дата-центра.

В настоящее время NVIDIA сотрудничает с такими крупными поставщиками серверных решений, как Dell EMC, Inspur, Lenovo и Supermicro, со стороны разработчиков ПО интерес к BlueField проявляют Canonical, VMWare, Red Hat, Fortinet, NetApp и ряд других компаний. О массовом производстве BlueField-3 речи пока не идёт, поставка малыми партиями ожидается в первом квартале 2022 года, но карты BlueField-2 доступны уже сейчас. А в 2024 году появятся BlueField-4 с портами 800 Гбит/с.

Постоянный URL: http://servernews.ru/1037156
23.03.2021 [17:32], Сергей Карасёв

В основу самого мощного суперкомпьютера Швеции лягут ускорители NVIDIA

Швеция в скором времени введёт в строй свой самый мощный вычислительный комплекс: системе высокопроизводительных вычислений предстоит решать широкий спектр научных и прикладных задач. Ожидается, что суперкомпьютер войдёт в число первых 50 систем из списка TOP500.

Проект получил название BerzeLiUs — в честь Йёнса Якоба Берцелиуса, шведского химика и минералога. Он открыл ряд элементов, развил электрохимическую теорию, а также предложил термины аллотропия, изомерия, катализ и др.

Вычислительный комплекс BerzeLiUs расположится в Линчёпингском университете. Расчётная производительность — 300 Пфлопс, что в два раза больше по сравнению с нынешним самым мощным суперкомпьютером Швеции.

В основу суперкомпьютера положены 60 узлов NVIDIA DGX A100. Это универсальная система для решения задач, связанных с искусственным интеллектом. В состав DGX A100 входят ускорители NVIDIA A100, а быстродействие каждой такой системы составляет 5 Пфлопс.

Обмен данными осуществляется через сеть NVIDIA Mellanox InfiniBand HDR с пропускной способностью до 200 Гбит/с. В состав комплекса входят четыре сервера хранения данных DataDirect Networks, которые суммарно предоставляют 1,5 Пбайт флеш-памяти.

Использовать BerzeLiUs планируется для реализации проектов в сферах Интернета вещей, беспроводной связи, кибербезопасности и пр.

Постоянный URL: http://servernews.ru/1035568
19.03.2021 [00:59], Игорь Осколков

В Google Cloud появились самые быстрые GPU-инстансы с 16-ю ускорителями NVIDIA A100

Облачный провайдер Google Cloud объявил о доступности семейства инстансов A2, которое было анонсировано ещё летом прошлого года. A2 может включать от 1-го до целых 16-ти ускорителей NVIDIA A100. По словам Google, на текущий момент никакой другой крупный облачный провайдер не может предложить подобную конфигурацию узлов.

Можно выбрать варианты с 1, 2, 4, 8 или 16-ю ускорителями. Самой младшей версии a2-highgpu-1g полагается 12 vCPU, 85 Гбайт RAM и сетевое подключение 24 Гбит/с. Старшей a2-megagpu-16g  — 96 vCPU, 1,36 Тбайт RAM и 100 Гбит/с соответственно. Для всех систем доступно локальное SSD-хранилище ёмкостью до 3 Тбайт. Google не приводит полные характеристики аппаратной платформы, лежащей в основе A2, говоря лишь об использовании Intel Xeon Cascade Lake и том, что все 16 ускорителей объединены шиной NVLink.

Не уточняется и, какая именно версия A100 используется, но, вероятно, это всё же 40-Гбайт модификация, а не более свежая 80-Гбайт. В любом случае решение Google заметно отличается от DGX A100 на базе AMD EPYC Rome и восьми GPU, и от обычных решений HGX A100, в рамках которых предлагаются платы с четырьмя или восемью SXM-ускорителями, объединёнными NVLink-подключением.

Семейство A2 ориентировано на машинное обучение (тренировка и инференс), анализ данных и HPC-нагрузки. Имеется поддержка NVIDIA NGC для быстрого развёртывания ПО. А наиболее требовательным заказчикам Google Cloud может предоставить кластеры для распределённой тренировки, насчитывающие тысячи ускорителей.

На данный момент новые инстансы доступны в Айове, США (us-central1), Нидерландах (Europe-west4) и Сингапуре (asia-southeast1). Стоимость аренды начинается от $3,67/час для a2-highgpu-1g до $55,74/час для a2-megagpu-16g.

Постоянный URL: http://servernews.ru/1035236
16.03.2021 [23:27], Илья Коваль

Dell открывает серию серверов с AMD EPYC 7003 мощной моделью PowerEdge XE8545

Продолжаем рассказ о продуктах на базе новейших процессоров AMD EPYC 7003, анонс которых состоялся вчера. Вместе с анонсом партнёры компании представили и свои решения на базе этих CPU. Среди них есть как платформы для EPYC 7002, которым для работы с новинками требуется только обновление прошивки, так и новые платформы. К последнем относится и Dell Technologies PowerEdge XE8545, мощный сервер для ИИ и анализа данных.

В серию EX включены не совсем стандартные решения для особых задач. Сейчас в неё входят edge-система PowerEdge XE2420 и сервер XE7100 с высокой плотностью хранения данных. Новый же PowerEdge XE8545 предназначен для ИИ, машинного обучения, анализа данных и других HPC-нагрузок.

Аппаратную основу системы образуют два 64-ядерных процессора AMD EPYC Milan и четыре SXM4-ускорителя NVIDIA A100. Dell отмечает, что это одна из первых платформ, использующих новый вариант HGX-платы (Redstone 2) с 80-Гбайт A100. Для хранения данных используются NVMe-накопители с поддержкой PCIe 4.0.

PowerEdge XE8545 имеет стандартную глубину и высоту 4U, что объясняется использованием системы исключительно воздушного охлаждения, которой нужно справиться с отводом более 2 кВт тепла от двух 280-Вт CPU и четырёх ускорителей c TDP 400-500 Вт. Тем не менее, по мнению Dell, отсутствие СЖО упрощает интеграцию системы в уже имеющуюся инфраструктуру.

Постоянный URL: http://servernews.ru/1035023
09.03.2021 [16:00], Владимир Мироненко

NVIDIA и VMware представили оптимизированную ИИ-платформу корпоративного уровня

Компании NVIDIA и VMware объединили усилия для оптимизации недавно анонсированного обновления платформы виртуализации vSphere — VMware vSphere 7 Update 2 — для приложений ИИ с программным пакетом NVIDIA Enterprise AI. Эта комбинация обеспечивает горизонтальное масштабирование, производительность и совместимость с несколькими узлами для широкого спектра CUDA-ускоренных приложений, ИИ-фреймворков, моделей и SDK для сотен тысяч предприятий, использующих vSphere для виртуализации серверов.

Исследователи ИИ, специалисты по обработке данных и разработчики получат программное обеспечение, необходимое для реализации успешных проектов ИИ, а ИТ-специалисты будут иметь возможность работать с ИИ с помощью уже известных им инструментов для управления ЦОД.

NVIDIA Enterprise AI — это комплексный набор инструментов и фреймворков ИИ корпоративного уровня, которые оптимизируют бизнес-процессы и повышают эффективность в широком спектре ключевых отраслей, включая производство, логистику, финансовые услуги, розничную торговлю и здравоохранение. Решение позволяет справиться с проблемами при развёртывании отдельных приложений ИИ, а также потенциальными сбоями, которые могут возникнуть из-за необходимости вручную настраивать и управлять различными приложениями и программным обеспечением инфраструктуры, зачастую несовместимыми.

Благодаря NVIDIA Enterprise AI, работающему на vSphere, заказчики смогут избежать использования разрозненных систем, ориентированных на ИИ, сложных в управлении и обеспечении защиты. Они также смогут снизить риски теневого развертывания ИИ, когда специалисты по обработке данных и инженеры по машинному обучению приобретают ресурсы за пределами собственной IT-экосистемы.

Решение Enterprise AI для vSphere поддерживается в сертифицированных NVIDIA системах от Dell Technologies, HPE, Lenovo и Supermicro. ИТ-специалисты смогут управлять доступностью, оптимизировать распределение ресурсов и обеспечивать безопасность своей интеллектуальной собственности и данных клиентов для рабочих нагрузок AI, выполняемых локально и в гибридном облаке.

NVIDIA Enterprise AI позволяет виртуальным рабочим нагрузкам работать с почти bare-metal производительностью в vSphere с поддержкой рекордной производительности графических процессоров NVIDIA A100 для ИИ и обработки данных. Рабочие нагрузки ИИ, ранее ограничивавшиеся одним узлом, теперь могут масштабироваться на несколько узлов, что позволяет запускать для обучения даже самые крупные модели глубокого обучения в VMware Cloud Foundation.

А благодаря сотрудничеству двух компаний vSphere является единственным программным обеспечением для виртуализации серверов, которое обеспечивает поддержку динамической миграции с технологией NVIDIA Multi-Instance GPU. С помощью MIG каждый графический процессор A100 можно разделить на семь экземпляров на аппаратном уровне, чтобы максимизировать эффективность для рабочих нагрузок любого размера.

NVIDIA Enterprise AI включает ключевые технологии и программное обеспечение от NVIDIA для быстрого развёртывания, управления и масштабирования рабочих нагрузок AI в виртуализированных ЦОД, работающих на VMware Cloud Foundation. Дополнительные сведения о внедрении ИИ в ЦОД на базе VMware получить в блоге разработчиков NVIDIA и блоге VMware vSphere 7 U2.

Постоянный URL: http://servernews.ru/1034317
Система Orphus