Материалы по тегу: dpu

17.05.2022 [16:31], Владимир Мироненко

Meta* переманила из Intel руководителя разработки сетевого «кремния» для дата-центров

Meta* наняла Джона Даму (Jon Dama), специалиста по сетевым чипам Intel, чтобы он возглавил программу по проектированию полупроводников в группе разработки аппаратного обеспечения для инфраструктуры компании. Дама получил должность директора данного направления в этом месяце. Согласно профилю на LinkedIn, он «отвечает за несколько проектных групп, внедряющих инновации» в области масштабирования ЦОД.

Дама сообщил, что у Meta* уже сформирована соответствующая команда, и он надеется с её помощью добиться значительного прогресса в ускорении обработки данных. Дама проработал в Intel более 10 лет, куда он попал после приобретения в 2011 году технологическим гигантом производителя сетевых ASIC Fulcrum Microsystems. В Intel Дама занимался разработкой полупроводниковых решений для различного сетевого оборудования для ЦОД и рынка телекоммуникаций, включая и IPU/DPU.

 Изображения: Intel

Изображения: Intel

Вполне возможно, что интерес Мета* к Джону Даму объясняется именно тем, что в течение двух лет он руководил со стороны Intel совместной с Google разработкой нового класса устройств IPU Mount Evans (на базе ASIC), ориентированных на ЦОД гиперскейлеров. Фактически он занимал пост директора по полупроводниковым решениям для облаков и IPU в техническом департаменте Intel Connectivity Group.

После этого он перешёл на должность исполнительного директора по разработке полупроводниковых компонентов в Connectivity Group, где отвечал за «полный жизненный цикл разработки микросхем» для продуктов группы, теперь входящей в недавно появившееся бизнес-подразделение Intel Network and Edge Group (NEX). Дама, в частности, занимался ASIC коммутаторов Tofino 2 и Tofino 3, которые были получены в результате поглощения Barefoot Networks в 2019 году. Он также курировал разработку новых IP-блоков для программируемой обработки сетевого трафика и Ethernet, с упором на повышение их энергоэффективности.

Похоже, Мета* планирует повысить свою независимость от производителей чипов для ЦОД. Ресурс The Information сообщил в прошлом месяце, что Meta* стремится «контролировать ключевые технологии и уменьшить свою зависимость от поставщиков готовых микросхем». И хотя собственная разработка полупроводников требует значительных вложений, она потенциально позволит со временем снизить затраты.

Также несколько месяцев назад в СМИ сообщалось, что Meta* разрабатывает собственные серверные чипы, один из которых предназначен для повышения производительности машинного обучения для рекомендательных систем, а другой — для повышения производительности транскодирования видео для стриминга. Дальше всех в деле обретения независимости от сторонних поставщиков продвинулась облачная платформа AWS, у которой уже есть собственные CPU и SSD, ИИ-ускорители для обучения и инференса и собственно DPU Nitro, которые явно вдохновили другие компании на создание аналогичных решений.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1066091
12.05.2022 [01:20], Алексей Степин

Intel опубликовала планы по развитию IPU: 400GbE в 2024 г., 800GbE в 2026 г.

На мероприятии Vision 2022 компания Intel продолжает рассказывать о текущих и грядущих новинках, и на этот раз речь пойдет о так называемых об IPU (или DPU терминах других производителей). Новые планы Intel простираются до 2026 года и включают в себя создание ускорителей, рассчитанных на работу в сетях 400GbE и 800GbE.

Первое поколение IPU (100/200GbE) Mount Evans использует ASIC и ядра Arm Neoverse N1. Mount Evans разрабатывается совместно с Google и Microsoft. Есть и серия Oak Springs Canyon, в которой компания применила Xeon D и FPGA Agilex. На смену им в будущем придут Mount Morgan (ASIC) и Hot Springs Canyon (FPGA). Оба варианта ожидаются в 2023–24 гг. и позволят Intel освоить скорость 400 Гбит/с. Добраться до 800 Гбит/с планируется в 2025–2026 гг., и тоже при помощи ASIC и FPGA. О развитии «обычных» SmartNIC на базе FPGA компании рассказывать пока не стала.

 Изображение: Intel

Изображение: Intel

Для разработки предлагается использовать открытый фреймворк Infrastructure Programmer Development Kit (IPDK), который можно использовать для IPU/DPU, коммутаторов и даже обычных CPU. В ближайшее время IPU Intel будут «сопровождать» коммутаторы на базе Tofino 3, которые тоже поддерживаются IPDK, что позволит создать сквозную цепочку работы с сетевым трафиком. И наличие развитой программной экосистемы может сыграть решающую роль, поскольку занять свою нишу пытается целый ряд компаний: AMD (Pensando и Xilinx), Chelsio, Fungible, Kalray, Marvell, Nebulon, NVIDIA.

Постоянный URL: http://servernews.ru/1065731
28.04.2022 [22:54], Алексей Степин

Chelsio представила седьмое поколение сетевых чипов Terminator: 400GbE и PCIe 5.0 x16

Компания Chelsio Communications анонсировала седьмое поколение своих сетевых процессоров Terminator с поддержкой 400GbE. От предшественников T7 отличает более развитая вычислительная часть общего назначения, включающая в себя до 8 ядер Arm Cortex-A72, так что их уже можно назвать DPU. Всего представлено пять вариантов 5 чипов (T7, N7, D7, S74 и S72), которые различаются между собой набором движков и ускорителей. Референсная платформа T7 будет доступна в мае, первых же адаптеров на базе новых DPU следует ожидать в III квартале 2022 года.

Для задач сжатия, дедупликации или криптографии есть отдельные сопроцессоры. Никуда не делся и привычный для серии Unified Wire встроенный L2-коммутатор. Для подключения к хосту T7 теперь использует шину PCIe 5.0 x16, причём он же содержит и root-комплекс. Более того, имеется и набортный коммутатор+мост PCIe 4.0, и NVMe-интерфейс, и даже поддержка эмуляции NVMe. Всё это, к примеру, позволяет легко и быстро создать NVMe-oF хранилище или мост NVMe-NVMe для компрессии и шифрования данных на лету. Новинка предлагает ускорение работы RoCEv2 и iWARP, FCoE и NVMe/TCP, iSCSI и iSER, а также RAID5/6. Сетевая часть поддерживает разгрузку Open vSwitch и Virt-IO.

 Блок-схема старшего варианта T7 (Изображения: Chelsio Communcations)

Блок-схема старшего варианта T7 (Изображения: Chelsio Communcations)

Впрочем, поддержки P4 тут нет — Chelsio продолжает использовать собственные движки для обработки трафика. Но наработки, сделанные для серий T5 и T6, будет проще перенести на новое поколение чипов. Кроме того, появилась и практически обязательная нынче «глубокая» телеметрия всего проходящего через DPU трафика для повышения управляемости и его защиты. Если и этого окажется мало, то к T7 (и D7) можно напрямую подключить FPGA, а набортную память расширить банками DDR4/5. В пресс-релизе также отмечается, что T7 сможет стать достойной заменой InfiniBand в HРC-системах.

Вариант D7 наиболее близок к T7, но предлагает только 200GbE-подключение, лишён некоторых функций и второстепенных интерфейсов, да и в целом рассчитан на создание СХД. N7, напротив, лишён Arm-ядер и всех функций для работы с хранилищами, нет у него и PCIe-коммутатора и моста. Предлагает он только 200GbE-интерфейсы. Наконец, чипы серии S7 лишены целого ряда второстепенных функций и предоставляют только 100/200GbE-подключение. Они относятся скорее к SmartNIC, поскольку начисто лишены Arm-ядер и некоторых функций. Но зато они и недороги.

Кроме того, в седьмом поколении Termintator появилась возможность обойтись без набортной DRAM с сохранением всей функциональности. Так что использование памяти хоста позволит дополнительно снизить стоимость конечных решений, которые будут создавать OEM-производители. Сами чипы производятся с использованием техпроцесса TSMC 12-нм FFC, так что даже у старшей версии чипов типовое энергопотребление не превышает 22 Вт.

Постоянный URL: http://servernews.ru/1064908
26.04.2022 [21:39], Алексей Степин

GRAID SupremeRAID SR-1010 — возможно, самый быстрый RAID-контроллер на базе GPU для NVMe SSD

GRAID Technology продолжает развитие своих RAID-ускорителей на базе GPU для формирования NVMe(-oF)-хранилищ — компания анонсировала новый адаптер GRAID SupremeRAID SR-1010, использующий видеокарту NVIDIA RTX A2000, младшего представителя семейства Ampere. От обычной RTX A2000 плата GRAID отличается только отсутствием видеовыходов, поскольку в данном случае они не нужны.

Как и прежде, SSD и ускоритель подключаются к одной и той же PCIe-шине, а виртуальный драйвер перенаправляет всю «тяжёлую» нагрузку по обслуживанию массива накопителей на GPU. Пропускной способности PCIe 4.0 достаточно для обслуживания 32-х NVMe SSD в 4-х группах с линейными скоростями до 110 Гбайт/с при чтении и 22 Гбайт/с при записи. Для случайных операций заявлена пиковая скорость 19 млн IOPS и 1,5 млн IOPS соответственно.

 Изображения: Graid

Изображения: Graid

Это, как отмечают создатели, существенно больше того, что могут предложить лучшие аппаратные RAID-контроллеры с поддержкой NVMe в режимах RAID 5/6. Неудивительно, поскольку производительность чипа NVIDIA GA106 (3328 ядер CUDA) заведомо выше любых процессоров на борту классических RAID-адаптеров. Решение использует программный стек GRAID Technology, который компания представила вместе со своим первым продуктом, SupremeRAID SR-1000 на базе NVIDIA T1000.

 Принципиальная схема технологии SupremeRAID

Принципиальная схема технологии SupremeRAID

SupremeRAID SR-1010 поддерживает формирование массивов RAID0/1/5/6/10. Фирменное ПО совместимо с популярными дистрибутивами Linux, но может также работать и в среде Windows Server 2019/2022. Энергопотребление ускорителя составляет 70 Вт. Старт продаж SupremeRAID SR-1010 начнётся 1 мая. Приобрести новинку можно у самой компании или её OEM-партнёров.

Постоянный URL: http://servernews.ru/1064734
07.04.2022 [22:54], Алексей Степин

Fungible анонсировала платформу FGC, объединяющую DPU и GPU

DPU Fungible уже успели отметиться рекордами в области СХД — система смогла «выжать» 10 млн IOPS с использованием NVMe/TCP. Но сопроцессоры Fungible универсальны и, как считают разработчики, их сфера применения не должна ограничиваться системами хранения данных (СХД), так что на днях компания анонсировала новое решение под названием Fungible GPU-Connect (FGC).

GPU-Connect объединяет DPU и пул графических или вычислительных ускорителей, ресурсы которого можно гибко конфигурировать и предоставлять для использования удалёнными пользователями. Физически Fungible GPU-Connect представляет собой 4U-шасси FX-108, в котором есть одного до четырёх DPU Fungible FC200 (это старшая модель) и до восьми ускорителей.

 Изображение: StorageReview

Изображение: StorageReview

Формально ограничений на тип ускорителей нет, но на данный момент Fungible сертифицировала только решения NVIDIA: A2, A10, A16, A30, A40, A100 (40 и 80 Гбайт). Для плат с разъёмом NVLink поддерживается установка соответствующих мостиков. Такой сервер позволяет вывести дезагрегацию на новый уровень, сгруппировав все мощные ускорители в одной стойке и предоставляя их по необходимости пользователям.

 Изображение: Fungible

Изображение: Fungible

Между конечными хостами (тоже с FC200) и FGC формируются виртуальные PCIe-каналы, которые фактически 100GbE-фабрики. С точки зрения пользователей, такое подключение ничем не отличается от локально установленного в систему GPU-ускорителя. Шасси FGC также имеет 24 корзины для накопителей. Вся система функционирует под управлением фирменного ПО Fungible Composer.

 Изображение: ServeTheHome

Изображение: ServeTheHome

Новая система Fungible GPU-Connect нацелена, в первую очередь, на рынок машинного обучения, но с учётом тенденций к дезагрегации аппаратных ресурсов и размещению их в компактных пулах, её можно считать универсальной. Любопытно, что Fungible решила сертифицировать свои решения с NVIDIA, у которой уже есть собственные DPU. Два других стартапа, занимающихся дезагрегацией ресурсов — Liqid и GigaIO — используют для связи физические подключения PCIe.

Постоянный URL: http://servernews.ru/1063578
04.04.2022 [19:51], Игорь Осколков

AMD поглощает за $1,9 млд Pensando, одного из пионеров в разработке DPU

AMD продолжает расширять портфолио решений для дата-центров. Ранее компания приобрела Xilinx, одного из ключевых разработчиков FPGA, конкурента которого в лице Altera несколько лет назад поглотила Intel. Теперь же AMD сообщила о приобретении за сумму порядка $1,9 млрд компании Pensando, которая одной из первых заявила о создании нового класса устройств, которые сейчас известны как DPU.

Pensando Systems была основана выходцами из Cisco в 2017 году. Через два года стартап «вышел из тени», собрав к тому моменту $278 млн инвестиций. Тогда же был объявлен и первый заказчик — производитель СХД NetApp. Теперь же, после объявления сделки с AMD, были названы имена других крупных клиентов, среди которых оказались облачные платформы IBM Cloud, Microsoft Azure и Oracle Cloud, а также банк Goldman Sachs.

 Изображение: AMD/Pensando

Изображение: AMD/Pensando

Pensando предлагает карты DSC-100 (Distributed Services Card) и DSC-25 с интерфейсами 100GbE и 25GbE соответственно. Как и все современные DPU, эти устройства содержат ядра общего назначения (Arm), программируемый (на P4) сетевой движок, а также ряд ускорителей для (де-)компрессии, (де-)шифрования и некоторых других типовых задач при работе с трафиком и данными. В частности, одним из первых применений стала реализация NVMe-oF с RDMA.

Сейчас же DPU забирают всё больше служебных задач с CPU, высвобождая таким образом вычислительные ресурсы, и упрощают дезагрегацию всей инфраструктуры ЦОД, переводя её на облачные рельсы — многие разработки были в той или иной степени вдохновлены AWS Nitro. Например, VMware ведёт работу с Intel, NVIDIA и Pensando над проектом Project Monterey по переносу части нагрузок vSphere на DPU и SmartNIC, причём по словам Pensando, её программно-аппаратный стек предлагают уникальные возможности, включая поддержку vMotion.

 Архитектура Pensando Elba

Архитектура Pensando Elba

Кроме того, в конце прошлого года были представлены первые коммутаторы с интегрированными DPU Pensando — Aruba CX 10000. У NVIDIA тоже есть успехи в области интеграции DPU BlueField и SmartNIC Connect-X со сторонними решениями, например, c NGFW от Check Point и Palo Alto Networks. DPU же являются одним из ключевых компонентов для HPC-платформ NVIDIA и в целом сыграют важную роль в развитии компании. Поэтому приобретение Pensando Systems важно и весьма своевременно для AMD.

Однако конкуренция на этом рынке нарастает. Intel делает для Google собственные DPU (которые она называет IPU) Mount Evans, Fungible ставит рекорды производительности, Nebulon пытается освоить новые ниши, Kalray налаживает отношения с производителями СХД и облачными провайдерами, а Marvell, как и многие другие компании, нацелилась на рынок гиперскейлеров и телекоммуникаций.

Постоянный URL: http://servernews.ru/1063328
24.02.2022 [23:58], Алексей Степин

MikroTik CCR2004-1G-2XS-PCIe — маршрутизатор в форм-факторе PCIe-платы

Идеи о конвергенции и дезагрегации, занявшие сейчас ключевое место в концепции современных инфотехнологий, продолжают порождать новые интересные продукты и решения. Компания MikroTik представила новый маршрутизатор CCR2004-1G-2XS-PCIe, выполненный в форм-факторе обычной низкопрофильной платы расширения с интерфейсом PCIe 3.0 x8 и парой корзин для модулей SFP28 (до 25 Гбит/с).

В основе лежит процессор Annapurna Labs (сейчас принадлежит Amazon) AL32400, имеющий четыре ядра с архитектурой Arm Cortex-A57 с номинальной частотой 1,5 ГГц. Он дополнен банком оперативной памяти DDR4 объёмом 4 Гбайт, для хранения прошивки и конфигурации используется NAND объёмом 128 Мбайт.

Возможности конфигурации портов у новинки довольно гибкие: можно настроить до четырёх виртуальных интерфейсов Ethernet, причём два из них могут работать в режиме прямого проброса к SFP28. Отдельный 1GbE-порт (RJ-45) предназначен для удалённого управления, но и он может иметь выход на PCIe.

По сути, это вариация на тему уже имеющихся в арсенале компании бюджетных маршрутизаторов на базе такого же процессора (например, CCR2004-1G-12S+2XS), просто выполнена она в необычном для такого рода устройств форм-факторе, позволяющем сэкономить лишний юнит в серверной стойке.

Во всём, кроме поддержки PCI Express, это привычный маршрутизатор MikroTik, работающий под управлением фирменной RouterOS v7 со всеми присущими ей возможностями и особенностями. Правда, следует учитывать, что на инициализацию «железа» и загрузку ПО уходить больше времени, чем у других PCIe-устройств.

Постоянный URL: http://servernews.ru/1060889
22.02.2022 [20:23], Алексей Степин

Marvell и Dell объединили усилия для создания 5G-платформы с Open RAN

Несколькими днями ранее компании HPE и Qualcomm объявили о совместной платформе для 5G-сетей, в том числе Open RAN. А сегодня был представлен ещё один двойственный альянс с аналогичными целями, но на этот раз свои усилия объединили Dell и Marvell. В преддверии MWC 2022 был анонсирован новый продукт — Dell Open RAN Accelerator Card — ускоритель, базирующийся на DPU Marvell Octeon.

Мощность этих сопроцессоров достаточно велика, чтобы взять на себя все обязанности по обслуживанию сети пятого поколения. Говорится о том, что серверы Dell PowerEdge, оснащённые такими ускорителями, будут обрабатывать весь L1-трафик на ускорителях Octeon, не нагружая CPU. Таким образом, основные процессоры серверов смогут использовать освободившиеся ресурсы на обслуживание программно-определяемых беспроводных сетей на основе стека технологий Open RAN.

 Dell Open RAN Accelerator Card (Фото: Dell)

Dell Open RAN Accelerator Card (Фото: Dell)

Это видение полностью укладывается в рамки современных тенденций по дезагрегации: специфические задачи лучше всего выполняются на специализированных же ускорителях и сопроцессорах в то время, как универсальные многоядерные процессоры (как ARM, так и x86) займутся обслуживанием задач более высокого порядка.

Помимо анонса нового ускорителя, Dell также рассказала о новом пакете ПО Dell Bare Metal Orchestrator. Из названия нетрудно понять, что это набор средств, упрощающий развёртывание и управление комплексами серверов компании и сетей 5G на их основе. Поддерживаются стеки решений VMWare, Red Hat и Wind River, речь идёт об удобном управлении парком сотен или даже тысяч серверов, причём на протяжении всего жизненного цикла таких комплексов.

Постоянный URL: http://servernews.ru/1060756
22.12.2021 [16:47], Алексей Степин

NVIDIA заявила, что DPU BlueField-2 установили рекорд скорости для NVMe-oF — но к нему есть вопросы

Технология NVMe-over-Fabrics (NVMe-oF) прочно заняла своё место в производительных системах хранения данных. В случае NVMe/TCP о мировом рекорде заявила Fungible, которая использует во флеш-массивах FS1600 DPU собственной разработки — она получила 10 млн IOPS на случайных операциях, тогда как без DPU удалось достичь только 6,55 млн IOPS при полной загрузке 128-ядерного сервера. NVIDIA ответила на это собственным тестом.

Вчера компания опубликовала шокирующие результатыDPU BlueField-2 позволил добиться 41,4 млн IOPS, что более чем в четыре раза лучше рекорда Fungible. Прямо имя конкурента не упоминается, но иных показателей в 10 млн IOPS никакой другой вендор и не заявлял. На блоках размером 4К результат NVIDIA составил более 5 млн IOPS, с блоками 512 байт разброс составил от 7 до более чем 20 млн IOPS.

 Изображения: NVIDIA

Изображения: NVIDIA

NVIDIA использовала пару серверов HPE Proliant DL380 Gen 10 Plus, каждый с двумя процессорами Intel Xeon Platinum 8380 (Ice Lake-SP, 40C/80T, 2,3-3,4 ГГц, 60 Мбайт L3-кеш, 270 Ватт TDP) и 512 Гбайт DRAM. В каждом узле к шине PCIe 4.0 было подключено две платы NVIDIA BlueField-2P (Performance-версия) с двумя портами 100GbE каждая — ширина канала между узлами составила 400 Гбит/с. Коммутатор не использовался, серверы напрямую соединялись посредством пассивных медных кабелей. В качестве ОС использовалась RHEL 8.3 c ядрами Linux 4.18 и 5.15. Инициаторы применялись как комплектные, так и из состава SPDK.

 Результаты тестирования для режима TCP

Результаты тестирования для режима TCP

Тестирование проводилось для NVNe/RoCE и NVMe/TCP в сценариях «100% чтения», «100% записи» и «50/50% чтение-запись». Наилучшие результаты получены при использовании SPDK на обеих системах (но за счёт повышенной нагрузки на CPU). Линейные показатели действительно впечатляют, приближаясь к лимиту канала 4×100GbE, а в режиме 50/50 для 4K с RoCE удалось получить и вовсе 550 Гбит/с (всё-таки дуплекс). Казалось бы, новый, блестящий мировой рекорд у NVIDIA в кармане, однако возникает ряд сомнений по поводу методики тестирования.

 ...и для RoCE

...и для RoCE

Во-первых, подозрение вызывает отсутствие в спецификациях данных о конфигурации дисковых подсистем. С учётом того, что используемый сервер имеет 24 SFF-отсека, речь могла бы идти о соответствующем числе Intel Optane P5800X — один такой SSD выдаёт около 1,5 млн IOPS на 4K-блоках и до 5 млн IOPS на блоках размером 512B. Цифры, казалось бы, неплохо согласовываются, хотя такая конфигурация и требует всех 128 линий PCIe 4.0 (по x4 на каждый из 24 гипотетических SSD и два x16 для DPU).

 Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X

Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X (Изображение: Intel)

Полное торжество идей NVMe-oF? Не совсем. Ресурс Serve The Home уточнил некоторые детали тестирования у NVIDIA. Так, выяснилось, что в тестовых сценариях компания вообще не использовала подсистему накопителей, отправляя всё в /dev/null. По сути, измерялись передача данных «от Xeon до Xeon», т.е. в первую очередь скорость работы сети. Более того, NVIDIA подтвердила, что массив Arm-ядер на борту BlueField-2 толком не использовался, а весь трафик шёл через стандартный «кремний» ConnectX, также имеющийся в данном DPU.

Сложно сказать, насколько полезно такое тестирование. Конечно, оно демонстрирует великолепные сетевые характеристики BlueField-2, их работу в стандартной серверной среде, готовность программного стека, а также работоспособность систем на базе Xeon Ice Lake-SP с периферией стандарта PCIe 4.0. Однако вопрос взаимодействия BlueField-2 с реальной физической дисковой подсистемой остаётся открытым, поскольку нынешние тесты сравнивать с результатом Fungible затруднительно.

Постоянный URL: http://servernews.ru/1056505
19.12.2021 [18:06], Алексей Степин

Nebulon поможет HCI-решениям освоить рынок периферийных вычислений

По мере внедрения 5G-сетей объёмы данных, добываемых и обрабатываемых на периферии, будут только расти, и здесь новое решение Nebulon для микро-ЦОД окажется весьма к месту.

Компания Nebulon была основана лишь 2018 году, а в 2020 году она представила свои первые решения, концептуально очень схожие с тем, что сейчас принято называть DPU. Изначально это были ускорители под названием SPU (Storage Processing Unit), однако впоследствии первое слово заменили на Service, поскольку речь шла уже об облачных системах, и данные платы стали частью того, что сама Nebulon называет «умной инфраструктурой» (Smart Infrastructure).

 Nebulon SPU. Изображения: Nebulon

Nebulon SPU. Изображения: Nebulon

Но у SPU нашлось и ещё одно применение, связанное с периферийной серверной инфраструктурой. Её особенности таковы, что требуют максимальной компактности оборудования, и это, по мнению Nebulon, затрудняет использование классических решений для гиперконвергентной инфраструктуры (HCI), поскольку, по словам Nebulon, она обычно для арбитража, который необходим для стабильности работы, требует наличия в системе минимум трёх узлов.

 Схематическое устройство Nebulon SPU

Такой «узел-арбитр» (quorum witness, QW) гарантирует бесперебойную работу системы в том случае, если какой-либо из её основных узлов испытывает проблемы с сетевым подключением. Но в условиях периферии третьему узлу бывает просто негде разместиться, а ведь нужен ещё и сетевой коммутатор. Тут-то на помощь и может прийти ускоритель Nebulon SPU, который можно назвать полноценным «сервером на плате»: он несёт на борту восьмиядерный CPU и 32 Гбайт DRAM.

Основным интерфейсом SPU является PCIe 3.0 x16 (8 линий) + ещё два набора по 8 линий могут обслуживать NVMe SSD (но есть и поддержка SAS/SATA). С такой платой HCI-кластер может иметь в составе всего два узла. Коммутатор не требуется, поскольку плата располагает двумя портами 10/25GbE. Интеграцию такого HCI-кластера с облаком, автоматизацию и арбитраж посредством Nebulon ON также берёт на себя SPU. Компания-разработчик назвала данную технологию smartEdge.

Постоянный URL: http://servernews.ru/1056120
Система Orphus