Материалы по тегу: nvidia

08.12.2022 [01:23], Владимир Мироненко

ИИ, аватары, облака и финансы: Deutsche Bank и NVIDIA объявили о партнёрстве

Deutsche Bank и NVIDIA объявили о заключении многолетнего соглашения о сотрудничестве с целью разработки технологий искусственного интеллекта (ИИ) и машинного обучения (МО) для сектора финансовых услуг. Как указано в пресс-релизе, сочетание опыта Deutsche Bank в финансовой отрасли с лидирующими позициями NVIDIA в области ИИ и вычислений позволит ускорить разработку широкого спектра сервисов на основе ИИ с соблюдением нормативных требований.

Deutsche Bank воспользуется партнёрством при переходе к облачной трансформации, применяя ИИ и МО для упрощения и ускорения принятия решений по миграции в облачную среду. Заключению соглашения о сотрудничестве предшествовали месяцы исследовательской работы, в ходе которой компании изучали три направления: разработка модели оценки факторов риска, высокопроизводительные вычисления и создание фирменного виртуального аватара.

Deutsche Bank рассчитывает, что партнёрство с NVIDIA позволит ему укрепить лидирующие позиции в области управления рисками, повысить эффективность и улучшить обслуживание клиентов. Для реализации этих планов Deutsche Bank намерен использовать комплексный программный пакет для оптимизации разработки и развёртывания ИИ-нагрузок NVIDIA AI Enterprise. Специалисты Deutsche Bank будут использовать ИИ-решения как локально, так и в облаке Google Cloud.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Многие банковские функции, которые обычно выполняются в течение часа, например, оценка рисков, теперь будут выполняться в режиме реального времени благодаря ускоренным вычислениям. При этом возрастёт точность прогнозов и эффективность управления рисками, а общие затраты снизятся на 80 %.

Использование интерактивных аватаров позволит переосмыслить обслуживание клиентов. Deutsche Bank работает над созданием пользовательского интерфейса нового поколения с помощью NVIDIA Omniverse Enterprise. С помощью NVIDIA Omniverse специалисты банка разработали раннюю концепцию 3D-аватара, призванного помочь в работе с персоналом. Будущие варианты использования аватаров будут посвящены иммерсивному опыту работы с банковскими клиентами.

Банк также отметил, что извлечение ключевой информации из неструктурированных данных уже давно является проблемой, особенно в сфере финансовых услуг. Существующие большие языковые модели плохо работают с финансовыми текстами. Deutsche Bank и NVIDIA уже тестируют набор ИИ-моделей Financial Transformers (Finformers), которые позволят получать ранние предупреждения о рисках со стороны контрагентов, более быстро извлекать данные и выявлять проблемы с их качеством.

Постоянный URL: http://servernews.ru/1078525
05.12.2022 [21:54], Алексей Степин

InfiniBand между ЦОД: NVIDIA представила третье поколение систем высокоскоростной связи MetroX-3 XC

Сети на основе InfiniBand традиционно используются в HPC-системах для связи в единое целое вычислительных узлов. Обычно речь идёт об организации сети в одном помещении, либо здании ЦОД, но иногда возникает нужда в высокоскоростной связи между кампусами, расположенными на расстоянии до десятков километров. Для решения этой задачи предназначена новое решение NVIDIA MetroX-3 XC.

Сама платформа была разработана ещё в бытность Mellanox независимой компанией, но платформа MetroX-2 была ограничена двумя внешними линками со скоростью 100 Гбит/с, работающими на дальности до 40 км, и россыпью локальных 200G-портов. Новая итерация платформы получила два внешних 100G-порта и два локальных 400G-порта. Используются новые модули со спектральным уплотнением каналов (DWDM). Физическая реализация использует 4 порта QSFP112 для данных и 2 аналогичных порта для управляющих целей.

 Схема работы MetroX-3 (Источник: NVIDIA)

Схема работы MetroX-3 (Источник: NVIDIA)

Разумеется, функционирует MetroX-3 XC в рамках экосистемы NVIDIA InfiniBand: она призвана работать совместно с коммутаторами Quantum-2, сетевыми адаптерами ConnectX-7 и DPU BlueField. Доступно два варианта, MTQ8400-HS2R и MTQ8400-HS2RC; последний отличается наличием шифрования сетевого трафика. Новая платформа связи MetroX совместима с фреймворком Holoscan HPC и может служить для соединения систем NVIDIA IGX, DGX и HGX.

Постоянный URL: http://servernews.ru/1078163
19.11.2022 [00:00], Владимир Мироненко

NVIDIA поможет создать точные цифровые двойники HPC дата-центров

Моделирование и цифровые двойники позволят проектировщикам дата-центров, строителям и операторам возводить высокоэффективные объекты. Но создать цифрового двойника ЦОД с точным представлением всех компонентов суперкомпьютерного комплекса для HPC и ИИ-задач — непростая задача.

С ней поможет справиться платформа моделирования NVIDIA Omniverse для совместного виртуального проектирования. На конференции SC22 компания NVIDIA продемонстрировала, как эту платформу можно использовать для улучшения проектирования и разработки сложных подсистем суперкомпьютерных ЦОД.

Omniverse позволяет операторам ЦОД агрегировать данные из сторонних приложений автоматизированного проектирования, моделирования и мониторинга, обеспечивая возможность работы с полными наборами данных в реальном времени. На конференции также была продемонстрирована NVIDIA Air, платформа моделирования сети ЦОД. С помощью NVIDIA Air разработчики смогут смоделировать и предварительно проверить точную физическую и логическую топологию сети.

 Изображения: NVIDIA

Изображения: NVIDIA

Сообщается, что при создании одного из новейших ИИ-суперкомпьютеров NVIDIA было использовано несколько наборов инженерных данных из сторонних отраслевых инструментов, таких как Autodesk Revit, PTC Creo и Trimble SketchUp. Это позволило проектировщикам создать точную модель машины и ЦОД в формате Universal Scene Description (USD), используя которую они совместно дорабатывали проект в режиме реального времени.

Разработчики также использовали PATCH MANAGER, приложение для планирования прокладки сети, учитывающего всё вплоть до физического расположения кабелей. С PATCH MANAGER, подключенным к Omniverse, сложная топология соединений (от порта до порта), компоновка стоек и узлов, а также кабели могут быть интегрированы непосредственно в модель ЦОД. Для прогнозирования воздушных потоков и теплообмена использовалось ПО Cadence 6SigmaDCX, дополненное ИИ-моделями от NVIDIA Modulus, которые позволяют в режиме, близком к реальному времени, моделировать изменения теплоотдачи и охлаждения в сложных условиях.

Демонстрация показывает, что Omniverse предоставляет возможности ускоренных вычислений, моделирования и полнофункциональных цифровых двойников, подключённых к мониторингу в реальном времени и ИИ-платформе. Это позволяет командам разработчиков оптимизировать проектирование объекта, ускорить его строительство и запуск.

После завершения строительства ЦОД его датчики, систему управления и телеметрии можно подключить к цифровому двойнику в Omniverse, чтобы отслеживать его работу в режиме реального времени. Благодаря идеально синхронизированному цифровому двойнику инженеры смогут моделировать часто случающиеся инциденты, такие как скачки мощности или сбои системы охлаждения. Операторы смогут использовать ИИ-рекомендации для повышения энергоэффективности дата-центра и сокращение выбросов CO2. Цифровой двойник также позволит им тестировать и проверять обновления ПО и компонентов перед их установкой в реальном ЦОД.

Постоянный URL: http://servernews.ru/1077578
17.11.2022 [15:11], Владимир Мироненко

NVIDIA и Microsoft создадут сверхмощный облачный ИИ-суперкомпьютер: Azure получит десятки тысяч ускорителей и быструю сеть

Компания NVIDIA объявила о заключении соглашения о многолетнем сотрудничестве с Microsoft для создания одного из самых мощных ИИ-суперкомпьютеров, основанного на передовой инфраструктуре Microsoft Azure в сочетании с ускорителями и интерконнектом NVIDIA, а также полным стеком программного обеспечения для ИИ.

Облачный суперкомпьютер Azure будет включать мощные масштабируемые инстансы серий ND и NC, оптимизированные для распределённого обучения и инференса, 400G-интерконнект InfiniBand NDR (Quantum-2), ускорители NVIDIA H100 и программный пакет NVIDIA AI Enterprise. Отмечается, что Azure станет первым публичным облаком с такими возможностями. Кроме того, оно получит десятки тысяч ускорителей A100 и H100.

В свою очередь, Microsoft оптимизирует свою библиотеку DeepSpeed для нового «железа» NVIDIA. Кроме того, полный набор готовых ИИ-решений NVIDIA и комплекты для разработки программного обеспечения, оптимизированные для Azure, будут доступны корпоративным клиентам Azure.

 Источник: NVIDIA

Источник: NVIDIA

В рамках сотрудничества NVIDIA будет использовать экземпляры масштабируемых виртуальных машин Azure для исследований в области генеративного ИИ — области ИИ, позволяющей нейросети с помощью машинного обучения создавать собственный контент на основе имеющихся образцов. Базовые модели, такие как Megatron Turing NLG 530B, являются основой для создания с помощью самообучающихся алгоритмов текста, кода, цифровых изображений, видео или аудио.

Постоянный URL: http://servernews.ru/1077485
17.11.2022 [13:39], Сергей Карасёв

Квартальная выручка NVIDIA в сегменте ЦОД выросла почти на треть

Компания NVIDIA отрапортовала о работе в третьей четверти 2023 финансового года, которая была закрыта 30 октября. Общая выручка составила $5,93 млрд, что на 17 % меньше прошлогоднего результата. Чистая прибыль рухнула на 72 % — с $2,5 млрд до $680 млн.

Однако в сегменте ЦОД наблюдается противоположная картина. Здесь выручка в годовом исчислении подскочила практически на треть — на 31 %, достигнув $3,83 млрд. Это свидетельствует о продолжающемся росте спроса на ускорители для HPC-систем, суперкомпьютеров и облачных платформ.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Среди ключевых событий квартала NVIDIA выделяет начало поставок решений H100 на архитектуре Hopper. Было заключено многолетнее соглашение о сотрудничестве с Microsoft, нацеленное на то, чтобы помочь клиентам во внедрении и масштабировании ИИ-решений через облако Azure. Партнёрские соглашения также подписаны с Oracle и Nuance Communications. Кроме того, NVIDIA представила второе поколение систем для симуляции и запуска «цифровых двойников» OVX.

В отчёте также говорится, что квартальная выручка в сегменте автомобильных систем и встраиваемых устройств составила $251 млн, что на 86 % больше результата годичной давности. Компания представила Drive Thor — чип нового поколения с производительностью до 2000 Тфлопс для беспилотных транспортных средств. В ушедшем квартиле NVIDIA также анонсировала вычислительные модули Jetson Orin Nano для робототехники.

Постоянный URL: http://servernews.ru/1077491
16.11.2022 [23:07], Сергей Карасёв

Lenovo представила платформы ThinkSystem V3 и ThinkAgile V3: AMD EPYC Genoa, NVIDIA H100 и EDSFF

Компания Lenovo анонсировала большое количество серверов на новейшей аппаратной платформе AMD EPYC Genoa. В семейство ThinkSystem, в частности, вошли модели SR645 V3, SR665 V3, SR675 V3, SD665 V3 и SD665-N V3, рассчитанные на решение различных задач. Все новинки предусматривают возможность гибкого изменения компоновки и будут доступны в рамках платформы Lenovo TruScale.

Модель ThinkSystem SR645 V3 формата 1U подходит для виртуализации, анализа данных и HPC-нагрузок. Эта двухсокетная система поддерживает до 6 Тбайт оперативной памяти DDR5-4800 в виде 24 модулей и до трёх ускорителей PCIe (2 × PCIe 5.0 и 1 × PCIe 4.0). Доступен слот OCP 3.0. Фронтальная секция может иметь различное исполнение: 10 × SFF (SAS/SATA/NVMe) / 4 × LFF (SAS/SATA) / 16 × E1.S EDSFF NVMe. Есть два тыльных отсека SFF.

 Источник изображений: Lenovo

Источник изображений: Lenovo

Сервер ThinkSystem SR665 V3 стандарта 2U рассчитан на задачи ИИ, программно-определяемые среды и виртуализацию. Он также поддерживает два чипа EPYC Genoa и 24 модуля ОЗУ. Конфигурация может включать до 20 посадочных мест для накопителей LFF (SAS/SATA/NVMe) или до 40 мест для накопителей SFF (SAS/SATA/NVMe). Есть 10 слотов PCIe (9 × PCIe 5.0) и слот OCP 3.0.

Система ThinkSystem SR675 V3 рассчитана на ИИ-нагрузки и HPC. Платформа поддерживает два процессора и до 3 Тбайт памяти DDR5-4800 в виде 24 модулей. Могут быть установлены до восьми накопителей SFF SAS/SATA/NVMe с горячей заменой и до четырёх ускорителей PCIe 5.0 x16 двойной ширины. В конфигурации высокой плотности поддерживаются шесть накопителей EDSFF E.1S и восемь карт PCIe 5.0 x16 двойной ширины. Возможна работа с ускорителями NVIDIA HGX H100.

ThinkSystem SD665 V3 — двухузловой сервер для задач HPC, крупномасштабных облачных вычислений, тяжелых симуляций и моделирования. Задействована технология прямого жидкостного охлаждения Lenovo Neptune Direct Water Cooling (DWC). Устройство имеет формат 1U. В расчёте на узел возможно использование: двух чипов EPYC Genoa, до 24 модулей DDR5-4800, двух низкопрофильных карт PCIe 5.0 x16, четырёх накопителей SFF. Есть два интерфейса 25GbE SFP28 LOM и один 1GbE.

Сервер ThinkSystem SD665-N V3 формата 1U также использует СЖО Lenovo Neptune DWC. Он поддерживает два чипа EPYC Genoa, до 24 модулей DDR5-4800, два накопителя SFF NVMe и один загрузочный модуль M.2 NVMe (тоже с жидкостным охлаждением). Могут быть установлены четыре ускорителя NVIDIA H100, связанные между собой посредством NVLink.

 Источник изображения: AMD

Источник изображения: AMD

Кроме того, Lenovo представила серверы ThinkAgile VX645 V3 и ThinkAgile VX665 V3 для гиперконвергентных инфраструктур. Оба поддерживают два чипа EPYC Genoa и до 6 Тбайт памяти DDR5-4800 (24 модуля). Подсистема хранения может иметь структуру All-Flash или гибридную конфигурацию на основе разного количества накопителей SFF и LFF. Младшая версия поддерживает до трёх ускорителей PCIe 5.0 одинарной ширины, старшая — до трёх карт двойной ширины или до восьми ускорителей одинарной ширины.

Постоянный URL: http://servernews.ru/1077449
15.11.2022 [16:22], Сергей Карасёв

Dell обновила серверы PowerEdge: AMD EPYC Genoa, NVIDIA H100 и Intel Max

Компания Dell анонсировала серверы PowerEdge нового поколения: дебютировали модели R6615, R6625, R7615 и R7625. Все устройства построены на новейших процессорах AMD EPYC Genoa, благодаря которым, как утверждается, по производительности могут превосходить предшественников более чем в два раза.

Модель PowerEdge R6615, выполненная в формате 1U, представляет собой односокетное изделие. Сервер ориентирован на виртуализацию и гиперконвергентные инфраструктуры. Реализована поддержка памяти DDR5-4800 и трёх ускорителей одинарной ширины (до 75 Вт). Можно установить до 12 накопителей SFF или до четырёх устройств LFF или до 14 модулей E3.S. Вариант PowerEdge R6625 стандарта 1U рассчитан на два процессора. В остальном он идентичен предыдущей модели.

Сервер PowerEdge R7615 формата 2U с одним процессорным разъёмом подходит для программно-ориентированных хранилищ, виртуализации и аналитики данных. Конфигурация подсистемы накопителей может иметь следующую организацию: 24 × SFF / 12 × LFF / 32 × E3.S. Есть место для шести карт одинарной ширины (до 75 Вт) и трёх ускорителей двойной ширины (до 500 Вт). Тип оперативной памяти — DDR5-4800.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Модель PowerEdge R7625 имеет исполнение 2U и двухсокетную конфигурацию. Устройство подходит для создания массивов All-Flash, виртуализации и аналитики данных. Подсистема хранения аналогична предыдущей модели. Можно задействовать до шести карт одинарной ширины и два ускорителя двойной ширины. По сравнению с предшественниками у новых серверов улучшены средства обеспечения безопасности и повышена энергетическая эффективность. Поставки начнутся в текущем месяце.

Кроме того, Dell совместно с Intel и NVIDIA представила серверы PowerEdge XE9680, PowerEdge XE9640 и PowerEdge XE8640. Первая из перечисленных моделей — это высокопроизводительная система с восемью ускорителями NVIDIA H100 или A100. Применены два процессора Intel Xeon Sapphire Rapids. Сервер подходит для интенсивных ИИ-нагрузок.

2U-система PowerEdge XE9640 также поддерживает установку четырёх ускорителей Intel Max GPU (Ponte Vecchio). Применено прямое жидкостное охлаждение, что повышает плотность монтажа. Третий сервер, PowerEdge XE8640, имеет формат 4U: он рассчитан на четыре ускорителя H100 и два процессора Sapphire Rapids. Эти новинки станут доступны в первой половине 2023 года.

Постоянный URL: http://servernews.ru/1077325
10.11.2022 [17:15], Владимир Мироненко

HPE анонсировала недорогие, энергоэффективные и компактные суперкомпьютеры Cray EX2500 и Cray XD2000/6500

Hewlett Packard Enterprise анонсировала суперкомпьютеры HPE Cray EX и HPE Cray XD, которые отличаются более доступной ценой, меньшей занимаемой площадью и большей энергоэффективностью по сравнению с прошлыми решениями компании. Новинки используют современные технологии в области вычислений, интерконнекта, хранилищ, питания и охлаждения, а также ПО.

 Изображение: HPE

Изображение: HPE

Суперкомпьютеры HPE обеспечивают высокую производительность и масштабируемость для выполнения ресурсоёмких рабочих нагрузок с интенсивным использованием данных, в том числе задач ИИ и машинного обучения. Новинки, по словам компании, позволят ускорить вывода продуктов и сервисов на рынок. Решения HPE Cray EX уже используются в качестве основы для больших машин, включая экзафлопсные системы, но теперь компания предоставляет возможность более широкому кругу организаций задействовать супервычисления для удовлетворения их потребностей в соответствии с возможностями их ЦОД и бюджетом.

В семейство HPE Cray вошли следующие системы:

  • HPE Cray EX2500 с такой же архитектурой как у HPE Cray EX4000, самой быстрой системы экзафлопсного класса от HPE. Однако EX2500 на 24 % меньше, что позволит разместить его в корпоративном ЦОД. Новая система имеет 100% прямое жидкостное охлаждение.
  • HPE Cray XD2000 и XD6500 HPE со специализированными серверами с высокой плотностью размещения, созданные путём интеграции портфолио HPE и Cray. HPE Cray XD тоже совместимы с традиционными корпоративными ЦОД и дают возможность подобрать необходимую конфигурацию в зависимости от рабочей нагрузки.

Все три системы задействуют те же технологии, что и их старшие собратья: интерконнект HPE Slingshot, хранилище Cray Clusterstor E1000 и пакет ПО HPE Cray Programming Environment и т.д. Система HPE Cray EX2500 поддерживает процессоры AMD EPYC Genoa и Intel Xeon Sapphire Rapids, а также ускорители AMD Instinct MI250X. Модель HPE Cray XD6500 поддерживает чипы Sapphire Rapids и ускорители NVIDIA H100, а для XD2000 заявлена поддержка AMD Instinct MI210.

 Изображение: Intel

Изображение: Intel

В качестве примеров выгод от использования анонсированных суперкомпьютеров в разных отраслях компания назвала:

  • Ускорение вывода на рынок более безопасных и высокопроизводительных автомобилей: автопроизводители с помощью суперкомпьютеров смогут лучше моделировать и тестировать усовершенствования конструкции транспортных средств и моделировать столкновения, экономя деньги на краш-тестах и физических испытаниях;
  • Разработка материалов для упаковки: моделирование физических и химических процессов для ускорения создания альтернативных материалов может помочь в создании более качественной, экологичной упаковки для средств личной гигиены и потребительских товаров, и снизить затраты предприятий;
  • Ускорение разработки лекарств: учёные и фармацевтические лаборатории смогут лучше изучить химические взаимодействия, которые могут привести к созданию революционных средств для лечения сложных и даже ещё неизвестных заболеваний;
  • Принятие важных мгновенных решений на финансовых рынках: финансовые аналитики смогут использовать производительность суперкомпьютеров и возможности ИИ для создания подробной аналитики и передовых алгоритмов для прогнозирования критических тенденций на рынке, а также для выявления мошенничества и управления рисками.
Постоянный URL: http://servernews.ru/1077124
09.11.2022 [14:50], Владимир Мироненко

Производители специально ухудшают характеристики чипов для китайских серверов, чтобы избежать санкций США

В связи с вводом Соединёнными Штатами новых экспортных ограничений на поставки в Китай, производители стали намеренно снижать производительность чипов, чтобы соответствовать требованиям экспортного контроля США и избежать проблем с получением специальных лицензий. Как отметил ресурс The Register, у систем, построенных на чипах NVIDIA, изготовленных на производственных мощностях TSMC для поставок в Китай, характеристики хуже по сравнению с теми, что были ранее.

В частности, китайский производитель серверов Inspur указал на использование вместо ускорителя NVIDIA A100 чипа A800, разработанного NVIDIA специально для Китая в соответствии с экспортными ограничениями. Китайские производители H3C и Omnisky тоже представили решения на базе A800. Данный ускоритель, по словам NVIDIA, начала производиться в III квартале этого года.

 Источник изображения: Inspur

Источник изображения: Inspur

У A800 скорость передачи данных составляет 400 Гбайт/с, тогда как у A100 этот показатель равен 600 Гбайт/с, причём обойти эти ограничения, по словам NVIDIA, невозможно. Речь, судя по всему, идёт о характеристиках интерконнекта NVLink, которые прямо влияют на производительность кластеров из двух и более ускорителей в машинном обучении и других задачах. Изменения касаются 40- и 80-Гбайт вариантов с интерфейсами PCIe и SXM.

Между тем ускорители, находящиеся в разработке и выпускаемые TSMC по контракту с Alibaba и стартапом Biren Technology, тоже, как сообщается, имеют пониженную скорость передачи данных. Это позволит выпускать данные чипы на заводе TSMC, не опасаясь санкций США. До этого TSMC приостановила выпуск 7-нм чипов ускорителей Biren BR100 как раз из-за возможных санкций со стороны Вашингтона.

Постоянный URL: http://servernews.ru/1077080
19.10.2022 [23:41], Сергей Карасёв

Meta* представила Grand Teton — ИИ-систему нового поколения

Компания Meta* в ходе саммита OCP (Open Compute Project) анонсировала систему Grand Teton — аппаратную ИИ-платформу второго поколения, оптимизированную для интенсивной работы с памятью и вычислений. В основу решения положены ускорители NVIDIA H100, которые были представлены в марте 2022 года.

Система Grand Teton превосходит платформу Meta* предыдущего поколения (Zion EX) в плане объёма памяти, вычислительных ресурсов и ёмкости сети. Так, пропускная способность шины между CPU и ускорителями выросла вчетверо, а пропускная способность сети — вдвое. Кроме того, шасси теперь может обеспечить вдвое более мощные с точки зрения энергопотребления компоненты.

В то время как архитектура Zion EX предусматривает применения ряда связанных подсистем (узел CPU, модуль ускорителей и коммутаторная система), Grand Teton объединяет все компоненты на базе единого шасси в высокоинтегрированную систему. Такая конструкция позволяет улучшить производительность, повысить надёжность, ускорить развёртывание и упростить масштабирование.

 Источник изображения: ***

Источник изображения: Meta*

Отметим, что свою нынешнюю самую мощную ИИ-систему — суперкомпьютер RSC (Research SuperCluster), включающий порядка 16 тыс. ускорителей — Meta* не стала строить самостоятельно, как это было прежде, а заказала у NVIDIA узлы DGX A100, дополнив их многоуровневым All-Flash хранилищем от Pure Storage.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1075974
Система Orphus