Материалы по тегу: connectx-6

25.02.2020 [15:25], Алексей Степин

Mellanox представила новые сетевые решения ConnectX-6 Dx и BlueField-2

Компания Mellanox, один из признанных лидеров в разработке интеллектуальных сетевых процессоров, анонсировала свои новые решения в сериях ConnectX и BlueField.

Сетевые адаптеры ConnectX-6 Dx доступны уже на момент анонса, а вот решений BlueField-2 придётся подождать; впрочем, их поставки также начнутся в ближайшее время.

В качестве главной особенности новинок Mellanox называет продвинутые средства обеспечения ИТ-безопасности. Оба чипа нацелены на создание распределенной сетевой инфраструктуры с нулевым доверием (zero trust), они располагают средствами ускорения IPSec и TLS. Также полностью поддерживается RDMA over Converged Ethernet. Доступны скорости до 200 Гбит/с.

За счёт аппаратного управления политиками безопасности и аппаратной же инспекции пакетов новые ConnectX-6 Dx могут быть существенно эффективнее классических сетевых адаптеров. Сама компания называет цифры вплоть до 100х. Адаптеры BlueField-2 ещё более продвинуты — они поддерживают микросегментацию, глубокую инспекцию пакетов и умеют определять вредоносные приложения.

Постоянный URL: http://servernews.ru/1004504
15.11.2019 [15:31], Алексей Степин

Mellanox Skyway: шлюз между InfiniBand и Ethernet

Сетевая инфраструктура InfiniBand очень популярна в среде разработчиков суперкомпьютерных систем и кластеров, но иногда возникает необходимость обеспечения связи с другой системой, построенной на базе Ethernet. Специально для таких случаев компания Mellanox анонсировала новые шлюзы Skyway, способные служить посредником между сетями InfiniBand HDR (200 Гбит/с) и Ethernet того же класса.

Новый Skyway является развитием уже существующей серии шлюзов Mellanox, обеспечивающих соединение между InfiniBand FDR (56 Гбит/с) и 40GbE Ethernet. Его пропускная способность составляет 1,6 Тбит/с на каждой из «сторон» Ethernet и Infiniband, имеется по восемь портов, способных работать на скоростях 100 или 200 Гбит/с. Компания гарантирует минимальную латентность при использовании нового решения.

Шлюз довольно компактен: он занимает стандартный корпус 2U, основой системы являются процессоры Xeon Scalable. Сетевая часть представлена восемью двухпортовыми адаптерами ConnectX-6 VPI. В будущем возможна модернизация для поддержки скорости 400 Гбит/с. За питание системы отвечает пара блоков питания класса 8 Plus Platinum. Платформа работает под управлением фирменной ОС MLNX-GW, для управления используется фирменное ПО Unified Fabric Manager (UFM). Детально рассказать о новой шлюзовой платформе компания планирует на конференции SC19.

Постоянный URL: http://servernews.ru/997757
22.11.2016 [11:50], Алексей Степин

SC16: Mellanox покоряет новые скорости

Компания Mellanox неизвестна большинству рядовых пользователей ПК и ноутбуков, зато её хорошо знает каждый, кто когда-либо экспериментировал с высокими скоростями передачи данных — будь то разработчики суперкомпьютеров, в которых скоростные межузловые каналы передачи данных с низкой задержкой играют роль аналога кровеносной системы человека, или простые энтузиасты, ищущие простое недорогое решение для быстрого соединения ПК с домашним сервером. Ранее название компании ассоциировалось только с интерфейсом InfiniBand, но Mellanox уже давно разрабатывает и выпускает универсальные решения, способные работать и с протоколом Ethernet.

На конференции SC16 компания показала, что по-прежнему идёт в ногу со временем: она представила уже шестое поколение фирменных универсальных контроллеров IB/Ethernet — ConnectX-6, причём, не только сам чип, но и полностью работоспособный двухпортовый адаптер на его основе. Удивительно, но этот крохотный чип в металлическом корпусе одинаково хорошо может работать в режиме InfiniBand 200G HDR, и в режиме Ethernet со скоростью передачи данных 200 Гбит/с, не загружая при этом центральный процессор системы. В сравнении с конкурирующими решениями ConnectX-6 вдвое более производителен и поддерживает такую интересную функцию, как передачу протокола NVMe в средах InfiniBand или Ethernet. Посредством специальных кабелей (например, QSFP на 4 SFP+) к одному хост-адаптеру можно подключить до восьми клиентских с меньшими скоростями передачи данных.

Стоит отметить, что в самом контроллере реализованы передовые наработки в области PCI Express: он может работать как в режиме PCI Express 4.0 x16, так и довольствоваться PCI Express 3.0, но уже с 32 линиями. Ничего удивительного: скорости в районе 200 Гбит/с выходят за пределы возможностей PCIe 3.0 x16. Как и ожидалось, механически конструктив слота PCIe 4.0 не изменился, но экземпляр карты, изображённый на снимках, явно не будет работать в слотах PCIe 3.0. Высокоскоростные сети невозможно представить себе без коммутаторов, которые из простых устройств давно превратились в сложнейшие вычислительные узлы с серьезными процессорами и солидными объёмами оперативной памяти.

Mellanox привезла на конференцию новейший 40-портовый коммутатор Quantum QM8790, рассчитанный на стандарт InfiniBand 200G HDR. В режиме 100 Гбит/с эта новинка может работать, как 80-портовая, поскольку скорости 200 Гбит/с пока ещё только предстоит стать промышленным стандартом. Каждый порт коммутатора обладает пропускной способностью 390 миллионов сообщений в секунду, при этом задержки не превышают 90 наносекунд. Семейство Qantum позволяет строить сети с топологией трёхуровневого толстого дерева (3-level fat-tree) с максимальным количеством 128 тысяч узлов, чего достаточно для любого мыслимого сегодня суперкомпьютера. При этом новые коммутаторы поставляют в реальном времени и телеметрические данные о своём состоянии и состоянии сети в целом.

Как кровеносная система немыслима без сосудов, так и сеть немыслима без кабельной инфраструктуры, причём скорости, предлагаемые Mellanox, выходят далеко за пределы привычной всем «витой пары». Так что компания продемонстрировала ряд активных медных и оптических кабелей класса QSFP, не требующих использования отдельных модулей трансиверов. Но были показаны и сами трансиверы, ведь кабели стандартной длины не всегда подходят для использования в нестандартных ситуациях. В основном, речь идёт о скоростях порядка 100 Гбит/с, но у компании есть решения и для нового стандарта с пропускной способностью 200 Гбит/с. Mellanox в очередной раз доказала, что является лидером в области создания высокоскоростных сетей с низкими задержками.

Постоянный URL: http://servernews.ru/943083
Система Orphus