Материалы по тегу: nvidia

08.03.2022 [00:28], Владимир Мироненко

NVIDIA приобрела разработчика блочных SDS Excelero

NVIDIA сообщила о приобретении израильской компании Excelero, разработчика высокопроизводительных блочных систем хранения данных (СХД). Условия сделки не разглашаются. Excelero продолжит интегрировать свои технологии в стек корпоративного ПО NVIDIA, а её команда присоединится к израильскому подразделению «зелёных», где работет около 2800 сотрудников.

NVMesh от Excelero предлагает программно определяемое блочное хранилище с использованием подключенных по сети NVMe SSD, которое функционирует локально и/или облаке. За прошедшие годы Excelero получила на развитие $35 млн, включая инвестиции от Western Digital и Mellanox (ныне NVIDIA Networking). Продукты Excelero будут использоваться, в том числе, для HPC-решений NVIDIA с поддержкой DPU BlueField и RDMA.

 Источник: NVIDIA

Источник: NVIDIA

Нынешние продукты компании будут поддерживаться до завершения контрактов с заказчиками, но впоследствии бренд Excelero исчезнет. «NVIDIA явно создает набор основных компетенций на системном уровне благодаря своим приобретениям и новым продуктам, — прокомментировал приобретение NVIDIA Эрл Джозеф (Earl Joseph), генеральный директор Hyperion Research. Всего пару месяцев назад NVIDIA приобрела компанию по управлению кластерами высокопроизводительных вычислений Bright Computing.

Постоянный URL: http://servernews.ru/1061509
27.02.2022 [14:35], Алексей Степин

GIGABYTE G262-ZL0 и G492-ZL2: NVIDIA HGX A100 с жидкостным охлаждением

Несмотря на то, что позиции классического воздушного охлаждения в мощных серверах ещё достаточно сильны, всё чаще и чаще выпускаются варианты, рассчитанные изначально под охлаждение жидкостное. Особенно это актуально с учётом того, что плотности упаковки вычислительных мощностей растут и отводить нагрев от многочисленных ускорителей становится всё сложнее. Два новых сервера GIGABYTE, G262-ZL0 и G492-ZL2, изначально рассчитаны на подключение к контурам СЖО в ЦОД.

Новинки подходят для формирования HPC-систем, комплексов машинного обучения, аналитики «больших данных» и вообще для любых задач. Оба сервера рассчитаны используют платформу NVIDIA HGX с SXM4-ускорителеями A100 (80 Гбайт). В первой модели высотой 2U таких ускорителя четыре, во второй, более габаритной (4U) — восемь. Используются процессоры AMD EPYC 7003 (Milan), поддерживаются технологии NVLink и NVSwitch (для G492-ZL2).

Дополнительно предусмотрены низкопрофильные слоты расширения: пять у G262-ZL0 и десять у G492-ZL2, кроме того, младшая модель имеет и слот для установки карт OCP 3.0. Заявлена поддержка 400G-адаптеров NVIDIA/Mellanox ConnectX-7. Подсистема хранения данных представлена четырьмя и шестью отсеками U.2 NVMe/SATA соответственно.

СЖО, применённая в новых серверах GIGABYTE, разработана в сотрудничестве с CoolIT Systems. Контуры охлаждения центральных процессоров и графических ускорителей NVIDIA разделены; последние используют фитинги и шланги большего диаметра, поскольку основная тепловая нагрузка придётся именно на ускорители. Соответствует и подсистема питания: это два блока питания мощностью 3 кВт у модели высотой 2U и целых четыре (3+1) таких блока у 4U-модели.

Постоянный URL: http://servernews.ru/1061015
23.02.2022 [16:35], Руслан Авдеев

«Сингулярность» планетарного масштаба: ИИ-инфраструктура Microsoft включает более 100 тыс. GPU, FPGA и ASIC

Microsoft неожиданно раскрыла подробности использования своей распределённой службы планирования «планетарного масштаба» Singularity, предназначенной для управления ИИ-нагрузками. В докладе компании целью Singularity названа помощь софтверному гиганту в контроле затрат путём обеспечения высокого коэффициента использования оборудования при выполнении задач, связанных с глубоким обучением.

Singularity удаётся добиться этого с помощью нового планировщика, способного обеспечить высокую загрузку ускорителей (в том числе FPGA и ASIC) без роста числа ошибок или снижения производительности. Singularity предлагает прозрачное выделение и эластичное масштабирование выделяемых каждой задаче вычислительных ресурсов. Фактически она играет роль своего рода «умной» прослойки между собственно аппаратным обеспечением и программной платформой для ИИ-нагрузок.

 Изображение: Microsoft

Изображение: Microsoft

Singularity позволяет разделять задачи, поручаемые ресурсам ускорителей. Если необходимо масштабирование, система не просто меняет число задействованных устройств, но и управляет распределением и выделением памяти, что крайне важно для ИИ-нагрузок. Правильное планирование позволяет не простаивать без нужды весьма дорогому «железу», благодаря чему и достигается положительный экономический эффект.

 NVIDIA DGX-2

NVIDIA DGX-2

В докладе также прямо говорится, что у Microsoft есть сотни тысяч GPU и других ИИ-ускорителей. В частности, упоминается, что Singularity используется на платформах NVIDIA DGX-2: два Xeon Platinum 8168 (по 20 ядер каждый), восемь ускорителей V100 с NVSwitch, 692 Гбайт RAM и интерконнект InfiniBand. Таким образом, ИИ-парк компании должен включать десятки тысяч узлов, поэтому эффективное управление им очень важно.

Постоянный URL: http://servernews.ru/1060812
02.02.2022 [21:53], Алексей Степин

Check Point представила межсетевые экраны Quantum Lightspeed

Известный разработчик решений в области информационной безопасности, компания Check Point Software, на днях представил новую серию устройств Quantum Lightspeed, которые, по словам создателей, установили новый стандарт производительности для брандмауэров.

Благодаря использованию контроллеров ConnectX от NVIDIA/Mellanox в серии Quantum Lightspeed удалось добиться обработки трафика на скорости до 3 Тбит/с и при задержке, не превышающей 3 мкс. Впрочем, в задачах NGFW или IPS показатели производительности новинок ожидаемо значительно скромнее.

 Изображения: Check Point Software

Изображения: Check Point Software

Новые решения Quantum Lightspeed представляют наибольший интерес для крупных предприятий, дата-центров, ритейла, финансовых организаций и прочих компаний, которым требуется и высокая пропускная способность, и низкая задержка. Сейчас в серии Quantum Lightspeed есть четыре базовые модели (число в названии указывает на пропускную способность в Гбит/с):

  • Quantum Lightspeed QLS250;
  • Quantum Lightspeed QLS450;
  • Quantum Lightspeed QLS650;
  • Quantum Lightspeed QLS800.

Также в серию входят два оркестратора Maestro Lightspeed MLS200 и MLS400, предназначенных специально для построения масштабируемых комплексов. Блоки MLS, выступающие в качестве «сердца» такой системы и работающие в том числе в режиме Active-Active, могут быть дополнены модулями расширения, что и даёт суммарную пропускную способность до 3 Тбит/с.

Подобные показатели, как уже отмечалось, во многом достигнуты благодаря использованию возможностей ConnectX. В схеме, реализованной Check Point, лишь первый пакет в каждом соединении проверяется силами CPU на соответствие политикам безопасности (в докладе говорится о связке IP-адрес+порт). Если проверка пройдена, то далее обработка трафика в обоих направлениях до закрытия соединения или сессии ложится на плечи ConneсtX. Идея, в целом, не нова.

Кроме того, шлюз занимается SPI, поддерживает NAT и может обрабатывать трафик VXLAN/GRE. Компания отдельно отмечает, что новинки хорошо подходят и для нагрузок с длительной передачей большого объёма трафика в рамках одной сессии, становящихся всё более актуальными. Впрочем, нельзя не отметить, что NVIDIA сотрудничает и с другими игроками в этой области, например, Palo Alto Networks.

Постоянный URL: http://servernews.ru/1059344
25.01.2022 [03:33], Владимир Мироненко

Meta* и NVIDIA построят самый мощный в мире ИИ-суперкомпьютер RSC: 16 тыс. ускорителей A100 и хранилище на 1 Эбайт

Meta* (ранее Facebook*) анонсировала новый крупномасштабный исследовательский кластер — ИИ-суперкомпьютер Meta* AI Research SuperCluster (RSC), предназначенный для ускорения решения задач в таких областях, как обработка естественного языка (NLP) с обучением всё более крупных моделей и разработка систем компьютерного зрения.

На текущий момент Meta* RSC состоит из 760 систем NVIDIA DGX A100 — всего 6080 ускорителей. К июлю этого года, как ожидается, система будет включать уже 16 тыс. ускорителей. Meta* ожидает, что RSC станет самым мощным ИИ-суперкомпьютером в мире с производительностью порядка 5 Эфлопс в вычислениях смешанной точности. Близкой по производительность системой станет суперкомпьютер Leonardo, который получит 14 тыс. NVIDIA A100.

 Изображения: ***

Изображения: Meta*

Meta* RSC будет в 20 раз быстрее в задачах компьютерного зрения и в 3 раза быстрее в обучении больших NLP-моделей (счёт идёт уже на десятки миллиардов параметров), чем кластер Meta* предыдущего поколения, который включает 22 тыс. NVIDIA V100. Любопытно, что даже при грубой оценке производительности этого кластера он наверняка бы попал в тройку самых быстрых машин нынешнего списка TOP500.

Новый же кластер создаётся с прицелом на возможность обучения моделей с триллионом параметров на наборах данных объёмом порядка 1 Эбайт. Именно такого объёма хранилище планируется создать для Meta* RSC. Сейчас же система включает массив Pure Storage FlashArray объемом 175 Пбайт, 46 Пбайт кеш-памяти на базе систем Penguin Computing Altus и массив Pure Storage FlashBlade ёмкостью 10 Пбайт. Вероятно, именно этой СХД и хвасталась Pure Storage несколько месяцев назад, не уточнив, правда, что речь шла об HPC-сегменте.

Итоговая пропускная способность хранилища должна составить 16 Тбайт/с. Meta* RSC сможет обучать модели машинного обучения на реальных данных, полученных из социальных сетей компании. В качестве основного интерконнекта используются коммутаторы NVIDIA Quantum и адаптеры HDR InfiniBand (200 Гбит/с), причём, судя по видео, с жидкостным охлаждением. Каждому ускорителю полагается выделенное подключение. Фабрика представлена двухуровневой сетью Клоза.

Meta* также разработала службу хранения AI Research Store (AIRStore) для удовлетворения растущих требований RSC к пропускной способности и ёмкости. AIRStore выполняет предварительную обработку данных для обучения ИИ-моделей и предназначена для оптимизации скорости передачи. Компания отдельно подчёркивает, что все данные проходят проверку на корректность анонимизации. Более того, имеется сквозное шифрование — данные расшифровываются только в памяти узлов, а ключи регулярно меняются.

Однако ни о стоимости проекта, ни о потребляемой мощности, ни о физическом местоположении Meta* RSC, ни даже о том, почему были выбраны узлы DGX, а не HGX (или вообще другие ускорители), Meta* не рассказала. Для NVIDIA же эта машина определённо стала очень крупным и важным заказом.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1058640
18.01.2022 [16:49], Алексей Степин

NVIDIA создаст в Израиле подразделение для разработки серверных CPU

В апреле прошлого года глава NVIDIA Дженсен Хуанг (Jensen Huang) раскрыл первые сведения о серверном Arm-процессоре под кодовым именем Grace. Главным «мозговыми центром» компании, ответственным за его создание, станет израильский центр исследований и разработок. Он уже насчитывает около 2800 сотрудников, но компания хочет организовать новую рабочую группу, связанную именно с HPC-решениями, и планирует нанять ещё минимум несколько сотен специалистов, сообщает Globes.

Столь серьёзных масштабов израильский исследовательский отдел NVIDIA достиг за счёт приобретения компанией известного разработчика сетевых чипов и технологий Mellanox. Также NVIDIA активно сотрудничает с местной экосистемой стартапов и разработчиков посредством программ NVIDIA Inception Program и Developer Program.

 Изображения: NVIDIA

Изображения: NVIDIA

Новая рабочая группа, ориентированная на создание процессоров, будет тесно сотрудничать с уже имеющимися командами, работающими в области DPU и ИИ. Последнее немаловажно, поскольку Grace в первую очередь нужен для поддержки работы ускорителей NVIDIA. Это поможет компании избавиться от зависимости со стороны AMD и Intel, чьи процессоры используются в платформах DGX/HGX. Новый чип NVIDIA должен увидеть свет в начале 2023 года.

 Архитектура Grace изначально будет рассчитана на тесную интеграцию с ускорителями и высокоскоростной памятью

Архитектура Grace изначально будет рассчитана на тесную интеграцию с ускорителями и высокоскоростной памятью

Ожидается, что использование Grace позволит получить десятикратный рост производительности в сравнении с существующими решениями. Новый чип будет использовать шину NVLink 4.0 с пропускной способностью до 900 Гбайт/с, что позволит сделать интеграцию CPU и ускорителей более тесной. Первые заказчики систем на базе Grace уже известны — это Лос-Аламосская национальная лаборатория и Швейцарский национальный суперкомпьютерный центр CSCS. Оба суперкомпьютера построит HPE.

Постоянный URL: http://servernews.ru/1058237
14.01.2022 [22:48], Алексей Степин

Будущие ускорители NVIDIA могут получить MCM-компоновку с ИИ/HPC-движками и гигабайтными кешами

Монолитная компоновка для современных сложных чипов уже становится слишком неэффективной. Бороться с этим можно по-разному. Один из путей подразумевает интеграцию всё более сложных структур на уровне единой кремниевой подложки, а другой — использование мультичиповой (MCM) или, иначе говоря, чиплетной компоновки. К последнему варианту и склоняется NVIDIA, хотя причины несколько отличаются от тех, которыми руководствуются другие вендоры.

GPU и ускорители становятся сложнее гораздо быстрее CPU, и на текущий момент мощные вычислители для ЦОД подбираются к пределам возможностей основных контрактных производителей, таких как TSMC и Samsung. Но это только половина уравнения. Вторая заключается в том, что взрывная популярность систем и алгоритмов машинного интеллекта требует иных вычислительных возможностей, нежели более привычные HPC-задачи.

 Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Как следствие, разработчикам приходится делать выбор, чему в большей мере отдать предпочтение в компоновке новых поколений ускорителей: FP32/64-движкам или блокам, оптимизированным для вычислений INT8, FP16 и прочих специфических форматов. И здесь использование MCM позволит скомпоновать конечный продукт более гибко и с учётом будущей сферы его применения.

 Различиые варианты конфигурации в рамках NVIDIA COPA

Различиые варианты конфигурации в рамках NVIDIA COPA

Ещё в публикации NVIDIA от 2017 года было доказано, что компоновка с четырьмя чиплетами будет на 45,5% быстрее самого сложного на тот момент ускорителя. А в 2018-м компания рассказала о прототипе RC 18. В настоящее время известно, что технология, разрабатываемая NVIDIA, носит название Composable On Package GPU, но в отличие от прошлых исследований упор сделан на обкатке концепции различных составных ускорителей для сфер HPC и машинного обучения.

Симуляция гипотетического ускорителя GPU-N, созданного на основе 5-нм варианта дизайна GA100, показывает довольно скромные результаты в режиме FP64 (12 Тфлопс, ½ от FP32), но четыре таких чиплета дадут уже солидные 48 Тфлопс, сопоставимые с Intel Ponte Vecchio (45 Тфлопс) и AMD Aldebaran (47,9 Тфлопс). А вот упор на FP16 делает даже один чип опаснейшим соперником для Graphcore, Groq и Google TPU — 779 Тфлопс!

 Варианты упаковки будущих МСМ-процессоров NVIDIA

Варианты упаковки будущих МСМ-процессоров NVIDIA

Но симуляции показывают также нехватку ПСП именно на ИИ-задачах, так что компания изучает возможность иной иерархии памяти, с 1-2 Гбайт L2-кеша в виде отдельных чиплетов в различных конфигурациях. Некоторые варианты предусматривают даже отдельный ёмкий кеш L3. Таким образом, будущие ускорители с чиплетной компоновкой обретут разные черты для HPC и ИИ.

В первом случае предпочтение будет отдано максимальной вычислительной производительности, а подсистема памяти останется классической. Как показывает симуляция, даже урезанная на 25% ПСП снижает производительность всего на 4%. Во втором же варианте, для ИИ-систем, упор будет сделан на чипы сверхъёмкого скоростного кеша и максимизацию совокупной пропускной способности памяти. Такая компоновка окажется дешевле, нежели применение двух одинаковых ускорителей.

Подробнее с исследованием NVIDIA можно ознакомиться в ACM Digital Library, но уже сейчас ясно, что в обозримом будущем конвергенция ускорителей перейдёт в дивергенцию, и каждая эволюционная ветвь, благодаря MCM, окажется эффективнее в своей задаче, нежели полностью унифицированный чип.

Постоянный URL: http://servernews.ru/1058052
11.01.2022 [16:02], Сергей Карасёв

NVIDIA купила Bright Computing, разработчика решений для управления НРС-кластерами

Компания NVIDIA сообщила о заключении соглашения по приобретению фирмы Bright Computing, разработчика специализированных программных продуктов для управления кластерами. О сумме сделки ничего не сообщается.

Bright Computing была выделена из состава нидерландской ClusterVision в 2009 году; последняя после банкротства в 2019 году была поглощена Taurus Group. Штаб-квартира Bright Computing базируется в Амстердаме. Основным направлением деятельности компании является разработка инструментов, позволяющих автоматизировать процесс построения и управления Linux-кластерами.

 Источник изображения: Bright Computing

Источник изображения: Bright Computing

В число клиентов Bright Computing входят более 700 корпораций и организаций по всему миру. Среди них упоминаются Boeing, Siemens, NASA, Университет Джонса Хопкинса и др. Отмечается, что NVIDIA и Bright сотрудничают уже более десяти лет. Речь идёт об интеграции ПО с аппаратными платформами и другими продуктами NVIDIA.

Поглощение Bright Computing, как ожидается, позволит NVIDIA предложить новые решения в области НРС, которые будут отличаться относительной простотой развёртывания и управления. Эти решения могут применяться в дата-центрах, в составе различных облачных платформ и edge-систем. В рамках сделки вся команда Bright Computing присоединится к NVIDIA.

Постоянный URL: http://servernews.ru/1057752
01.01.2022 [15:42], Игорь Осколков

Мечта майнера: суперкомпьютер Delta получит четыре вида GPU-узлов

В последний официальный рабочий день системы Blue Waters Национальный центр суперкомпьютерных приложений (NCSA) США «поприветствовал» её преемника — суперкомпьютер Delta, который станет самой производительной GPU-системой в портфолио Национального научного фонда (NSF) страны.

Новую систему разместит у себя Иллинойский университет в Урбане-Шампейне (UIUC). Суперкомпьютер, как обещают авторы проекта, получит сбалансированную конфигурацию с современными GPU и CPU. Он будет интегрирован в национальную систему кибербезопасности, а его ресурсы будут доступны учёным посредством XSEDE и SGCI (Science Gateways Community Institute). Желающие смогут получить помощь в портировании кода с CPU на GPU, но и запуск «старых» приложений будет упрощён.

 Фото: Twitter/NCSAatIllinois

Фото: Twitter/NCSAatIllinois

Суперкомпьютер планируется ввести в эксплуатацию в 2022 году. Delta получит 330 вычислительных узлов и ещё восемь сервисных. Все узлы первого типа получат 64-ядерные процессоры AMD EPYC Milan с частотой 2,55 ГГц. На текущий момент их конфигурация такова:

  • 124 CPU-узла: 2 × CPU, 256 Гбайт DDR4-3200, 800 Гбайт NVMe SSD;
  • 100 GPU-узлов NVIDIA I типа: 4 × NVIDIA A100 (40 Гбайт HBM2) с NVLink, 1 × CPU, 256 Гбайт DDR4-3200, 1,6 Тбайт NVMe SSD;
  • 100 GPU-узлов NVIDIA II типа: 4 × NVIDIA A40 (48 Гбайт GDDR6), 1 × CPU, 256 Гбайт DDR4-3200, 1,6 Тбайт NVMe SSD;
  • 5 GPU-узлов NVIDIA III типа: 8 × NVIDIA A100 (40 Гбайт HBM2) с NVLink, 2 × CPU, 2 Тбайт DDR4-3200, 1,6 Тбайт NVMe SSD;
  • 1 GPU-узел AMD: 8 × Instinct MI100 (32 Гбайт HBM2), 2 × CPU, 2 Тбайт DDR4-3200, 1,6 Тбайт NVMe SSD.

Система получит 3-Пбайт быстрое All-Flash хранилище, которое будет развёрнуто весной 2022 года, а также 7-Пбайт хранилище Lustre. Основным интерконнектом станет HPE SlingShot (100 Гбит/с).

Постоянный URL: http://servernews.ru/1057162
22.12.2021 [16:47], Алексей Степин

NVIDIA заявила, что DPU BlueField-2 установили рекорд скорости для NVMe-oF — но к нему есть вопросы

Технология NVMe-over-Fabrics (NVMe-oF) прочно заняла своё место в производительных системах хранения данных. В случае NVMe/TCP о мировом рекорде заявила Fungible, которая использует во флеш-массивах FS1600 DPU собственной разработки — она получила 10 млн IOPS на случайных операциях, тогда как без DPU удалось достичь только 6,55 млн IOPS при полной загрузке 128-ядерного сервера. NVIDIA ответила на это собственным тестом.

Вчера компания опубликовала шокирующие результатыDPU BlueField-2 позволил добиться 41,4 млн IOPS, что более чем в четыре раза лучше рекорда Fungible. Прямо имя конкурента не упоминается, но иных показателей в 10 млн IOPS никакой другой вендор и не заявлял. На блоках размером 4К результат NVIDIA составил более 5 млн IOPS, с блоками 512 байт разброс составил от 7 до более чем 20 млн IOPS.

 Изображения: NVIDIA

Изображения: NVIDIA

NVIDIA использовала пару серверов HPE Proliant DL380 Gen 10 Plus, каждый с двумя процессорами Intel Xeon Platinum 8380 (Ice Lake-SP, 40C/80T, 2,3-3,4 ГГц, 60 Мбайт L3-кеш, 270 Ватт TDP) и 512 Гбайт DRAM. В каждом узле к шине PCIe 4.0 было подключено две платы NVIDIA BlueField-2P (Performance-версия) с двумя портами 100GbE каждая — ширина канала между узлами составила 400 Гбит/с. Коммутатор не использовался, серверы напрямую соединялись посредством пассивных медных кабелей. В качестве ОС использовалась RHEL 8.3 c ядрами Linux 4.18 и 5.15. Инициаторы применялись как комплектные, так и из состава SPDK.

 Результаты тестирования для режима TCP

Результаты тестирования для режима TCP

Тестирование проводилось для NVNe/RoCE и NVMe/TCP в сценариях «100% чтения», «100% записи» и «50/50% чтение-запись». Наилучшие результаты получены при использовании SPDK на обеих системах (но за счёт повышенной нагрузки на CPU). Линейные показатели действительно впечатляют, приближаясь к лимиту канала 4×100GbE, а в режиме 50/50 для 4K с RoCE удалось получить и вовсе 550 Гбит/с (всё-таки дуплекс). Казалось бы, новый, блестящий мировой рекорд у NVIDIA в кармане, однако возникает ряд сомнений по поводу методики тестирования.

 ...и для RoCE

...и для RoCE

Во-первых, подозрение вызывает отсутствие в спецификациях данных о конфигурации дисковых подсистем. С учётом того, что используемый сервер имеет 24 SFF-отсека, речь могла бы идти о соответствующем числе Intel Optane P5800X — один такой SSD выдаёт около 1,5 млн IOPS на 4K-блоках и до 5 млн IOPS на блоках размером 512B. Цифры, казалось бы, неплохо согласовываются, хотя такая конфигурация и требует всех 128 линий PCIe 4.0 (по x4 на каждый из 24 гипотетических SSD и два x16 для DPU).

 Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X

Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X (Изображение: Intel)

Полное торжество идей NVMe-oF? Не совсем. Ресурс Serve The Home уточнил некоторые детали тестирования у NVIDIA. Так, выяснилось, что в тестовых сценариях компания вообще не использовала подсистему накопителей, отправляя всё в /dev/null. По сути, измерялись передача данных «от Xeon до Xeon», т.е. в первую очередь скорость работы сети. Более того, NVIDIA подтвердила, что массив Arm-ядер на борту BlueField-2 толком не использовался, а весь трафик шёл через стандартный «кремний» ConnectX, также имеющийся в данном DPU.

Сложно сказать, насколько полезно такое тестирование. Конечно, оно демонстрирует великолепные сетевые характеристики BlueField-2, их работу в стандартной серверной среде, готовность программного стека, а также работоспособность систем на базе Xeon Ice Lake-SP с периферией стандарта PCIe 4.0. Однако вопрос взаимодействия BlueField-2 с реальной физической дисковой подсистемой остаётся открытым, поскольку нынешние тесты сравнивать с результатом Fungible затруднительно.

Постоянный URL: http://servernews.ru/1056505
Система Orphus