Материалы по тегу: 400gbe

07.12.2022 [14:24], Сергей Карасёв

Продажи коммутаторов для ЦОД растут везде, кроме региона EMEA

Отчёт, обнародованный компанией Dell’Oro Group, говорит о том, что в III квартале 2022 года выручка от поставок коммутаторов для ЦОД в глобальном масштабе поднялась на 20 % по сравнению с результатом за тот же период 2021-го. Это самый существенный рост в уходящем году.

Рынки Северной Америки, Китая и Азиатско-Тихоокеанского региона продемонстрировали увеличение продаж на двузначные числа процентов, тогда как в регионе EMEA, в который входят Европа, включая Россию, Ближний Восток и Африка, зафиксирован спад. Такая картина объясняется наблюдающимися ограничениями в цепочках поставок, а также снижением спроса в силу макроэкономических вызовов и роста цен на энергоносители.

Основной рост на рынке коммутаторов для дата-центров обеспечили облака и гиперскейлеры. В результате, продажи устройств класса 200G/400G достигли почти 2 млн портов. На долю коммутаторов класса 200G и выше приходится лишь 10 % мировых поставок, но они обеспечили 20 % выручки в III квартале 2022-го.

 Источник изображения: Dell’Oro Group

Источник изображения: Dell’Oro Group

Эксперты прогнозируют, что 200G/400G-решения будут по-прежнему пользоваться спросом среди облачных провайдеров и гиперскейлеров в 2023 году, несмотря на ухудшение макроэкономической ситуации. Однако основной объём продаж по-прежнему приходится на оборудование 25 Гбит/с и 100 Гбит/с, а не 200 Гбит/с или 400 Гбит/с.

Отмечается, что значительный рост продаж коммутаторов для ЦОД в III квартале — это побочный эффект длительного невыполнения заказов, размещённых в прошлом году. За последние месяцы сроки поставки коммутаторов значительно сократились: с более чем года до 30–40 недель. Дефицит, как ожидается, должен исчезнуть к середине следующего года. 

Постоянный URL: http://servernews.ru/1078467
05.12.2022 [21:54], Алексей Степин

InfiniBand между ЦОД: NVIDIA представила третье поколение систем высокоскоростной связи MetroX-3 XC

Сети на основе InfiniBand традиционно используются в HPC-системах для связи в единое целое вычислительных узлов. Обычно речь идёт об организации сети в одном помещении, либо здании ЦОД, но иногда возникает нужда в высокоскоростной связи между кампусами, расположенными на расстоянии до десятков километров. Для решения этой задачи предназначена новое решение NVIDIA MetroX-3 XC.

Сама платформа была разработана ещё в бытность Mellanox независимой компанией, но платформа MetroX-2 была ограничена двумя внешними линками со скоростью 100 Гбит/с, работающими на дальности до 40 км, и россыпью локальных 200G-портов. Новая итерация платформы получила два внешних 100G-порта и два локальных 400G-порта. Используются новые модули со спектральным уплотнением каналов (DWDM). Физическая реализация использует 4 порта QSFP112 для данных и 2 аналогичных порта для управляющих целей.

 Схема работы MetroX-3 (Источник: NVIDIA)

Схема работы MetroX-3 (Источник: NVIDIA)

Разумеется, функционирует MetroX-3 XC в рамках экосистемы NVIDIA InfiniBand: она призвана работать совместно с коммутаторами Quantum-2, сетевыми адаптерами ConnectX-7 и DPU BlueField. Доступно два варианта, MTQ8400-HS2R и MTQ8400-HS2RC; последний отличается наличием шифрования сетевого трафика. Новая платформа связи MetroX совместима с фреймворком Holoscan HPC и может служить для соединения систем NVIDIA IGX, DGX и HGX.

Постоянный URL: http://servernews.ru/1078163
29.08.2022 [18:34], Алексей Степин

AMD представила DPU-платформу 400G Adaptive Exotic SmartNIC

На конференция Hot Chips 34 AMD представила новую платформу 400G Adaptive Exotic SmartNIC. В самой концепции формально нет ничего нового, поскольку DPU уже снискали популярность в среде гиперскейлеров, но вариант AMD сочетает достоинства не двух, а трёх миров: классического ASIC, программируемой логики на базе FPGA и Arm-процессора общего назначения.

На деле процессор (PSX) новинки AMD устроен ещё интереснее: он делится на два домена. В первом домене имеется шестнадцать ядер Arm Cortex-A78, организованных в четыре кластера по четыре ядра. Сюда же входят аппаратные движки для ускорения TLS 1.3. Второй домен состоит из четырёх ядер Arm Cortex-R52 и различных контроллеров низкоскоростных шин, таких как UART, USB 2.0, I2C/I3C, SPI, MIO и прочих.

 Изображения: AMD (via ServeTheHome)

Изображения: AMD (via ServeTheHome)

Посредством высокоскоростной программируемой внутренней шины блок PSX соединён с другими компонентами: модулем взаимодействия с хост-системой (CPM5N), подсистемой памяти, сетевым модулем HNICX и блоком программируемой логики. CPM5N реализует поддержку PCIe 5.0/CXL 2.0, причём доступен режим работы в качестве корневого (root) комплекса PCIe. Тут же находится настраиваемый DMA-движок.

Блок фиксированных сетевых функций представляет собой классический ASIC, обслуживающий пару портов 200GbE. Подсистема памяти представлена 8 каналами DDR5/LPDDR5 с поддержкой 32-бит DDR5-5600 ECC или 160-бит LPDDR5-6400, но говорится и совместимости с другими вариантами памяти, в то числе SCM. Здесь же имеется блок шифрования содержимого памяти с поддержкой стандартов AES-GCM/AES-XTS.

400G Adaptive Exotic SmartNIC имеет развитую поддержку VirtIO и OVS. Также поддерживается виртуализация NVMe-устройств, тоже с шифрованием. Особое внимание AMD уделила тесному взаимодействию всех частей Adaptive Exotic SmartNIC: наличие выделенных линков между блоками хост-контроллера, PSX и FPGA обеспечивает работу на полной скорости в средах, действительно требующих прокачки данных на скоростях в районе 400 Гбит/с.

Благодаря наличию FPGA-части 400G новинка можно легко адаптировать к новым требованиям со стороны заказчиков. В частности, решения на базе ПЛИС Xilinx активно поставляются в Китай, где требования к шифрованию существенно отличаются от предъявляемых к аппаратному обеспечению в Европе или США, но наличие блока FPGA позволяет решить эту проблему. У Intel уже есть в сём-то похожая платформа, но более скромная по техническим характеристикам — Oak Springs Canyon (C6000X).

Постоянный URL: http://servernews.ru/1072858
26.08.2022 [12:45], Алексей Степин

Интерконнект NVIDIA NVLink 4 открывает новые горизонты для ИИ и HPC

Потребность в действительно быстром интерконнекте для ускорителей возникла давно, поскольку имеющиеся шины зачастую становились узким местом, не позволяя «прокормить» данными вычислительные блоки. Ответом NVIDIA на эту проблему стало создание шины NVLink — и компания продолжает активно развивать данную технологию. На конференции Hot Chips 34 было продемонстрировано уже четвёртое поколение, наряду с новым поколением коммутаторов NVSwitch.

 Изображения: NVIDIA

Изображения: NVIDIA

Возможность использования коммутаторов для NVLink появилась не сразу, изначально использовалось соединение блоков ускорителей по схеме «точка-точка». Но дальнейшее наращивание числа ускорителей по этой схеме стало невозможным, и тогда NVIDIA разработала коммутаторы NVSwitch. Они появились вместе с V100 и предлагали до 50 Гбайт/с на порт. Нынешнее же, третье поколение NVSwitch и четвёртое поколение NVLink сделали важный шаг вперёд — теперь они позволяют вынести NVLink-подключения за пределы узла.

Так, совокупная пропускная способность одного чипа NVSwitch теперь составляет 3,2 Тбайт/с в обе стороны в 64 портах NVLink 4 (x2). Это, конечно, отразилось и на сложности самого «кремния»: 25,1 млрд транзисторов (больше чем у V100), техпроцесс TSMC 4N и площадь 294мм2. Скорость одной линии NVLink 4 осталась равной 50 Гбайт/с, но новые ускорители H100 имеют по 18 линий NVLink, что даёт впечатляющие 900 Гбайт/с. В DGX H100 есть сразу четыре NVSwitch-коммутатора, которые объединяют восемь ускорителей по схеме каждый-с-каждым и дополнительно отдают ещё 72 NVLink-линии (3,6 Тбайт/с).

При этом у DGX H100 сохраняются прежние 400G-адаптеры Ethernet/InfiniBand (ConnectX-7), по одному на каждый ускоритель, и пара DPU BlueField-3, тоже класса 400G. Несколько упрощает физическую инфраструктуру то, что для внешних NVLink-подключений используются OSFP-модули, каждый из которых обслуживает 4 линии NVLink. Любопытно, что электрически интерфейсы совместимы с имеющейся 400G-экосистемой (оптической и медной), но вот прошивки для модулей нужны будут кастомные.

Подключаются узлы DGX H100 к 1U-коммутатору NVLink Switch, включающему два чипа NVSwitch третьего поколения: 32 OSFP-корзины, 128 портов NVLink 4 и агрегированная пропускная способность 6,4 Тбайт/с. В составе DGX SuperPOD есть 18 коммутаторов NVLink Switch и 256 ускорителей H100 (32 узла DGX). Таким образом, можно связать ускорители и узлы 900-Гбайт/с каналом. Как конкретно, остаётся на усмотрение пользователя, но сама NVLink-сеть поддерживает динамическую реконфигурацию на лету.

Ещё одна особенность нового поколения NVLink — продвинутые аппаратные SHARP-движки, которые избавляют CPU/GPU от части работ по подготовке и предобработки данных и избавляющие саму сеть от ненужных передач. Кроме того, в NVLink-сети реализованы разделение и изоляция, брандмауэр, шифрование, глубокая телеметрия и т.д. В целом, новое поколение NVLink получило полуторакратный прирост в скорости обмена данными, а в отношении дополнительных сетевых функций он стал трёхкратным. Всё это позволит освоить новые класса HPC- и ИИ-нагрузок, однако надо полагать, что удовольствие это будет недешёвым.

Постоянный URL: http://servernews.ru/1072843
17.08.2022 [00:28], Алексей Степин

Broadcom представила 5-нм ASIC Tomahawk 5 с производительностью 51,2 Тбит/с

Растущие объемы сетевого трафика, широкое распространение медиа-сервисов и видеоконференций, новые облачные услуги — всё это требует и нового сетевого «железа», способного справляться с повышающейся нагрузкой. И если не так давно для ASIC высшего класса нормой стал считаться показатель 25,6 Тбит/с, то сейчас вендоры осваивают следующий уровень производительности. Первенство в этой гонке принадлежит NVIDIA с её чипами Spectrum-4, но сейчас в игру вступила Broadcom.

Компания представила пятое поколение «сетевого кремния» в серии StrataXGS Tomahawk, тоже способное осуществлять коммутацию на скоростях до 51,2 Тбит/с — 5-нм чип Tomahawk 5 (BCM78900). Появление ASIC такого класса существенно облегчает жизнь разработчикам HPС-систем для задач машинного обучения, поскольку позволит объединить в единый комплекс больше узлов без «наценки» на латентность в конфигурациях 64х800GbE, 128х400GbE или 256х100GbE. Поддерживается RoCEv2 и другие протоколы RDMA, виртуализация и сегментация сетей, VxLAN и прочие современные технологии.

 Источник: Broadcom

Источник: Broadcom

Несколько ограничивают возможности новинки SerDes-блоки Peregrine (PAM4/106 Гбит/с). Каждые 8 таких блоков собраны в трансиверное ядро, всего ядер в новом чипе 64, что ограничивает эффективную производительность на порт именно цифрой 800 Гбит/с. Достоинством Tomahawk 5 станет его экономичность: использование 5-нм техпроцесса позволило довести удельное энергопотребление до цифры менее 1 Вт на 100 Гбит/с, то есть речь идёт о потреблении в районе 500 Вт для полной конфигурации. Цифра немалая, но всё же позволяющая сохранить воздушное охлаждение. Кроме того, новый ASIC снабжён шестью Arm-блоками для настраиваемой потоковой телеметрии.

Следует отметить, что реальной потребности в таких скоростях пока очень немного: лишь 15 % (в деньгах) рынка Ethernet-устройств приходится на 400G-оборудование, но Broadcom считает, что постоянный рост аппетитов гиперскейлеров должен довести этот показатель до более чем 50 % уже к 2026 году. В случае же Tomahawk 5 пока речь идёт о первых поставках самих чипов, которые OEM-производителям ещё предстоит интегрировать в свои продукты. Они должны появиться на рынке в следующем году.

Постоянный URL: http://servernews.ru/1072282
04.08.2022 [22:03], Алексей Степин

Fortinet представил межсетевые экраны FortiGate 4800F — для гиперскейлеров и 5G

Пропускная способность современных сетей растёт ударными темпами — скорости в районе 400 Гбит/с на порт уже становятся обыденностью. Соответственно растут и требования к системам, обеспечивающим сетевую безопасность. Компания Fortinet представила новую серию межсетевых экранов FortiGate 4800F, способную предложить скорость обработки трафика до 2,4 Тбит/с, которая требуется 5G-операторам, дата-центрам гиперскейлеров и другим крупным заказчикам.

 Источник: Fortinet

Источник: Fortinet

Речь, конечно, идёт о «чистой» пропускной способности, и по ряду показателей, если верить производителю, новые устройства не имеют себе равных в индустрии. В более практических цифрах это выражается в 55 Гбит/с в режиме инспекции SSL (TLS 1.3) и до 70 Гбит/с в режиме защиты (до 75 Гбит/с NGFW). Заявленная скорость работы с VPN составляет до 800 Гбит/с. Для достижения таких показателей используется сразу 16 фирменных ASIC NP7.

 Чип Fortinet NP7: один из самых производительных в индустрии. Источник: Fortinet

Чип Fortinet NP7: один из самых производительных в индустрии. Источник: Fortinet

Новые модели экранов, 4800F и 4801F, оснащены широкими возможностями подключения и могут предоставить 8 портов 400GbE (QSFP-DD), 12 портов 200GbE (QSFP56/28), 12 портов 50GbE (SFP56/28), а также два порта управления 10GbE (RJ-45). Надежность по питанию гарантируют сразу четыре блока с резервированием и функцией горячей замены. Впрочем, в 4U-шасси для них места хватает.

 FortiGate 4800F в сравнении с соперниками. Источник: Fortinet

FortiGate 4800F в сравнении с соперниками. Источник: Fortinet

Со всем этим поможет справиться фирменная служба FortiGuard с элементами машинного обучения, способная обнаруживать угрозы «нулевого дня» и распознавать неизвестные потенциальные угрозы до того, как они смогут нанести вред. Кроме того, новинка может обслуживать сразу несколько различных сегментов, если для одного из них её возможности окажутся слишком велики.

Постоянный URL: http://servernews.ru/1071578
04.08.2022 [21:43], Алексей Степин

BittWare анонсировала первые ускорители с интерфейсом CXL на базе FPGA Intel Agilex

Производители аппаратного обеспечения в последнее время особенно активно анонсируют продукты, разработанные для экосистемы CXL. Пока это, в основном, модули памяти, накопители или контроллеры для самого интерконнекта CXL, но компания BittWare, дочернее предприятие Molex, представила нечто иное — по ряду параметров первые в своём роде ускорители с поддержкой CXL, пусть пока и опциональной.

Объединяет серию новинок то, что построены они на базе FPGA Intel Agilex. Всего представлено три новых модели: IA-860m, IA-640i и IA-440i. Возглавляет семейство ускоритель IA-860m, использующий самую мощную ПЛИС Agilex AGM 039, оснащённую собственным банком памяти HBM2e объёмом 16 Гбайт, но версия с поддержкой CXL может комплектоваться уже 32 Гбайт такой памяти. Помимо этого, ускоритель имеет два канала DDR5 для DIMM-модулей и три QSFP-DD (до 400GbE).

 Источник: BittWare

Источник: BittWare

Эта модель предназначена для сценариев, требующих высокой пропускной способности одновременно от сетевых каналов и подсистемы памяти. Интересной особенностью является наличие внутренних портов расширения MCIO, каждый из которых представляет собой по два корневых комплекса PCIe 4.0 x4.

 Источник: BittWare

Блок-схема IA-860m. Источник: BittWare

Модель IA-640i проще, что видно даже по более скромной однослотовой пассивной системе охлаждения. Здесь устанавливается ПЛИС Intel Agilex AGI 019 или AGI 023, 400GbE-порт QSFP-DD только один, интерфейс MCIO тоже один, памяти HBM нет, а DDR4 заменила DDR5. Поддержка CXL также опциональна, как и в старшей версии, она пока ограничена версией 1.1. Фактически при желании можно просто докупить соответствующий IP-блок.

 Источник: BittWare

Блок-схема IA-640i. Источник: BittWare

Наконец, версия IA-440i предназначена для использования в компактных серверах, она имеет низкопрофильный конструктив, остальные же её характеристики практически аналогичны IA-640i, за исключением того, что из внутренних интерфейсов у этой модели остался только USB. Все ускорители сопровождаются набором фирменного ПО: драйверами, SDK BittWare, библиотеками и утилитами мониторинга. Новинки поддерживают стандарт Intel oneAPI.

 Источник: BittWare

Блок-схема IA-440i. Источник: BittWare

Возможности, предоставляемые новыми ускорителями, ограничены только физическими возможностями набортных логических матриц и фантазией разработчиков. Они могут стать основой для инференс-систем, ускорителей работы с базами данных, «вычислительных накопителей», поддержки сетей 5G, обработки потоков данных с массивов различных датчиков в «умной» промышленности и для многого другого.

Первые поставки младших моделей запланированы на заключительный квартал этого года с последующим выходом на массовое производство в I квартале 2024 года. А вот первых IA-860m следует ждать не раньше II квартала следующего года, тогда как массовые поставки, согласно опубликованным планам, стартуют лишь годом позже, во II квартале 2024 года.

Постоянный URL: http://servernews.ru/1071587
15.06.2022 [21:18], Алексей Степин

Cisco обновила коммутаторы Nexus 9000: активный переход на 400G и задел для 800G

Взрывной рост объёмов сетевого трафика, вызванный широким внедрением удалённых рабочих мест, HD-видеоконференций и устройств класса IoT, включая «умную индустрию», требует и соответствующего роста пропускной способности сетевых каналов, а значит, и более скоростных устройств коммутации. Компания Cisco ответила на вызов времени пополнением серии коммутаторов Nexus 9000, которые получили поддержку 400GbE и 800GbE.

Данная серия относится к флагманским, в неё входят как модульные коммутаторы, допускающие гибкую конфигурацию, так и устройства с фиксированной конфигурацией. Компания обновила оба варианта: представлены две новые модульные модели Nexus 9800 и 9400, а также модели в серии Nexus 9300. Позднее на этот год компания намечает внедрение DPU, способных справляться с линейным трафиком на скорости 400 Гбит/с на каждом порту, а также шины PCI Express 5.0.

 cs

Источник изображений: Cisco (via ServeTheHome)

Новое модульное шасси Cisco Nexus 9800, которое является наследником серии 8800, подняло планку суммарной коммутационной способности с 57 до 115 Тбит/с. Оно может вмещать четыре или восемь линейных карт, два модуля супервизора и и несколько модулей питания. На данный момент поддерживаются опции 100GbE и 400GbE, а в ближайшем будущем появится и модули 800GbE.

Каждый слот может обслуживать до 36 портов 400GbE QSFP-DD с потребляемой мощностью 32 Вт на порт; для 100GbE (максимум 48 портов на слот) этот показатель равен 7,5 Вт на порт. Поддержка MACSec заявлена для всех портов. Конфигурация модулей супервизора не разглашается, ранее компания использовала процессоры Intel Broadwell-DE, но не исключено, что в новых моделях флагманских коммутаторов она перешла на более современные решения.

Шасси Nexus 9400 более компактно, оно имеет высоту всего 4U. В модуле супервизора применён четырёхъядерный Xeon D-1500, а сама платформа полагается на 25,6-Тбит/с ASIC Cisco. Всего можно установить восемь модулей и получить до 64 портов 400GbE или до 128 портов 100GbE/200GbE. Заявлена поддержка MACSec для 400GbE-портов.

Серия Nexus 9300 пополнилась моделями N9K-C9364D-GX2A (64 порта 400GbE) и N9K-C9348D-GX2A (48 портов 400GbE) высотой 2U. Они базируются на ASIС с производительностью 25,6 и 19,2 Тбит/с соответственно. По какой-то причине поддержка MACSec на всех портах реализована только в 48-портовой модели. Третья модель, N9K-C9332D-GX2B, имеет только 32 порта 400GbE и использует ASIC класса 12,8 Тбит/с, но при этом она имеет высоту всего 1U.

Таким образом, можно сказать, что стандарт 200GbE, ставший доступным благодаря внедрению PCI Express 4.0, оказался достаточно короткоживущим: рынок крупных ЦОД, провайдеров и владельцев крупномасштабных облачных систем очень активно переходит с привычных 100 Гбит/с на порт на вчетверо более высокую скорость, и не за горами внедрение и 800G-портов. Во всяком случае, поддержка этого стандарта имеется в планах Cisco относительно дальнейшего развития серии Nexus 9800.

Cisco ещё год назад отмечала резкий рост спроса на 400G-решения. Вместе с тем проблемы в цепочке поставок компонентов не позволяют полностью удовлетворить спрос. По состоянию на начало этого года объём невыполненных заказов достиг почти $14 млрд. А в последнем квартале Cisco эта цифра выросла уже до $15 млрд, причём компания недосчиталась $300 млн из-за невозможности получить блоки питания в Китае. Невозможность поставок оборудования также влияет на продажи ПО. К слову, теперь Cisco намерена внедрять облачное управление для практических всех новых устройства в рамках платформу Nexus Cloud.

Постоянный URL: http://servernews.ru/1068132
12.05.2022 [01:20], Алексей Степин

Intel опубликовала планы по развитию IPU: 400GbE в 2024 г., 800GbE в 2026 г.

На мероприятии Vision 2022 компания Intel продолжает рассказывать о текущих и грядущих новинках, и на этот раз речь пойдет о так называемых об IPU (или DPU терминах других производителей). Новые планы Intel простираются до 2026 года и включают в себя создание ускорителей, рассчитанных на работу в сетях 400GbE и 800GbE.

Первое поколение IPU (100/200GbE) Mount Evans использует ASIC и ядра Arm Neoverse N1. Mount Evans разрабатывается совместно с Google и Microsoft. Есть и серия Oak Springs Canyon, в которой компания применила Xeon D и FPGA Agilex. На смену им в будущем придут Mount Morgan (ASIC) и Hot Springs Canyon (FPGA). Оба варианта ожидаются в 2023–24 гг. и позволят Intel освоить скорость 400 Гбит/с. Добраться до 800 Гбит/с планируется в 2025–2026 гг., и тоже при помощи ASIC и FPGA. О развитии «обычных» SmartNIC на базе FPGA компании рассказывать пока не стала.

 Изображение: Intel

Изображение: Intel

Для разработки предлагается использовать открытый фреймворк Infrastructure Programmer Development Kit (IPDK), который можно использовать для IPU/DPU, коммутаторов и даже обычных CPU. В ближайшее время IPU Intel будут «сопровождать» коммутаторы на базе Tofino 3, которые тоже поддерживаются IPDK, что позволит создать сквозную цепочку работы с сетевым трафиком. И наличие развитой программной экосистемы может сыграть решающую роль, поскольку занять свою нишу пытается целый ряд компаний: AMD (Pensando и Xilinx), Chelsio, Fungible, Kalray, Marvell, Nebulon, NVIDIA.

Постоянный URL: http://servernews.ru/1065731
06.05.2022 [22:31], Владимир Мироненко

Omni-Path неплохо живётся и без Intel — Cornelis Networks получила ещё $18 млн на дальнейшую разработку OPA

Cornelis Networks, созданная выходцами из Intel для дальнейшего развития интерконнекта Omni-Path (OPA), получила контракт на исследования и разработки с Национальным управлением ядерной безопасности Министерства энергетики (NNSA) США стоимостью $18 млн. Cornelis сообщила, что выделенных средств в совокупности с другими инвестициями вполне достаточно для создания программного-аппаратных решений OPA-400 (400 Гбит/с), которые должны появиться уже в следующем году.

В рамках проекта Next-Generation High Performance Computing Network (NG-HPCN) Cornelis и NNSA займутся разработкой и производством технологий интерконнекта следующего поколения для поддержки научных и инженерных рабочих нагрузок NNSA, а также высокопроизводительных вычислений (HPC). Курировать проект будет Ливерморская национальная лаборатория Лоуренса (LLNL) при участии ещё двух лабораторий NNSA — Лос-Аламосской (LANL) и Сандийской (SNL) национальных лабораторий.

 Изображение: NHR

Изображение: NHR

Напомним, что Intel отказалась от развития Omni-Path в 2019 году. Годом позже было объявлено, что все наработки по OPA переходят к Cornelis Networks, которая анонсировала 100-Гбит/с решения под брендом Omni-Path Express (OPX). OPX является несколько доработанной версией OPA-100. в частности, появилась поддержка фреймворка Open Fabrics Interface (OFI), разработанного альянсом OpenFabrics Alliance (OFA). OPX-решения станут массово доступны в течение ближайших недель.

А вот поколение OPA-200 (200 Гбит/с) компания решила пропустить, сосредоточившись на развитии OPA-400. Полученные от NNSA средства пойдут на развитие открытой (open source) программной платформы, ускорение моделирования будущих сетей на базе OPA-400 и разработка коммутационной инфраструктуры для OPA-400. Конкурировать Cornelis придётся в первую очередь с NVIDIA, которая ещё в позапрошлом году анонсировала 400-Гбит/с решения InfiniBand NDR.

Контракт с Cornelis финансируется из бюджета программы Advanced Simulation Computing (ASC) NNSA в рамках инвестиционного портфеля инициативы Exascale Computing Initiative (ECI). В рамках данной программы шести поставщикам технологий (в том числе и Intel, создавшей Omni-Path) были выделены средства на развития решений для экзафлопсных вычислений в США. Конечная цель Cornelis в рамках контракта с NNSA — подготовка нового поколения интерконнекта для будущих суперкомпьютеров экзафлопсного класса.

Постоянный URL: http://servernews.ru/1065460
Система Orphus