Материалы по тегу: интерфейсы

19.01.2024 [22:20], Сергей Карасёв

Консорциум NVM Express добавил в стандарт поддержку вычислительных хранилищ

Консорциум NVM Express обновил спецификации, добавив возможность работы с вычислительными хранилищами NVMe Computational Storage Feature. Речь идёт о возможности использования устройств хранения, которые могут самостоятельно обрабатывать хранящуюся на них информацию по команде извне. Это позволит снизить совокупную стоимость владения IT-системами и повысить их общую производительность.

Спецификация включает два новых набора команд: Computational Programs и Subsystem Local Memory Command Sets. Первый отвечает за исполнение программ на устройстве хранения, в том числе их загрузку, поиск уже загруженных программ и их запуск. Набор обеспечивает модульный подход к программам, управляемым хостом. Второй предоставляет доступ к памяти в подсистеме NVM и позволяет работать с данными, обрабатываемыми программами на устройстве хранения.

 Источник изображения: NVM Express

Источник изображения: NVM Express

Вычислительное хранилище сокращает необходимость в перемещении данных между накопителями и процессором/ускорителем. Определённые операции могут производиться непосредственно на устройстве хранения, что повышает время отклика приложений, критичных к задержке. Это могут быть базы данных, модели ИИ и системы доставки контента.

В целом, функция NVMe Computational Storage Feature обеспечивает стандартизированную, не зависящую от поставщика оборудования архитектуру для хранения и обработки данных на накопителях NVMe. Решение ориентировано прежде всего на операторов дата-центров и гиперскейлеров.

Постоянный URL: http://www.servernews.ru/1098997
25.11.2023 [13:05], Сергей Карасёв

Интерфейс SAS 24G+ дебютирует в 2025–2026 гг., но скорость передачи данных не вырастет

Отраслевая группа STA (SCSI Trade Association), по сообщению ресурса Blocks & Files, разрабатывает стандарт SAS (Serial Attached SCSI) следующего поколения, предназначенный для подключения накопителей в дата-центрах и корпоративных инфраструктурах.

В настоящее время наиболее распространённой является версия SAS-3, обеспечивающая пропускную способность до 12 Гбит/с. Спецификация SAS предусматривает возможность использования кабелей длиной до 10 м против 1 м у SATA. Кроме того, SAS обратно совместим с интерфейсом SATA, но не наоборот.

 Источник изображения: STA

Источник изображения: STA

Новейшая версия стандарта SAS носит обозначение SAS-4, или SAS 24G. Она предполагает увеличение пропускной способности до 24 Гбит/с, но эффективная скорость составляет 22,5 Гбит/с. На сегодняшний день на коммерческом рынке нет HDD, использующих SAS-4. Этот интерфейс применяется лишь в некоторых высокопроизводительных SSD, таких как Kioxia PM7. Дело в том, что в корпоративном сегменте диски со скоростью вращения шпинделя 10 000 об/мин. уступают место изделиям SSD NVMe. А для HDD со скоростью вращения шпинделя 7200 об/мин. достаточно возможностей SAS-3.

Вместе с тем, как сообщается, ведутся работы над интерфейсом SAS 24G+, который дебютирует в 2025–2026 гг. Он не предусматривает увеличение скорости передачи данных — она останется в пределах 24 Гбит/с. Кроме того, не планируется переход к 4-портовой конфигурации. Вместо этого разработчики сосредоточат усилия на улучшении других характеристик. Ожидается, что SAS останется доминирующим стандартом в сегменте HDD для корпоративных СХД ещё долгие годы. В перспективе планируется разработка спецификации SAS-5, предусматривающей эффективную скорость в 45 Гбит/с.

Постоянный URL: http://www.servernews.ru/1096510
16.10.2022 [00:19], Сергей Карасёв

Molex представила кабельную систему NearStack PCIe для OCP-серверов следующего поколения

Компания Molex анонсировала кабельную систему NearStack PCIe, которая будет применяться в серверном оборудовании нового поколения. В разработке приняли участие члены Open Compute Project (OCP). NearStack PCIe использует архитектуру Direct-To-Contact и предусматривает полностью автоматизированный процесс изготовления кабелей.

По словам Molex, данная технология повышает эффективность производства, способствует улучшению точности передачи сигналов, сокращению потерь и уменьшению задержек. В то же время механический дизайн NearStack PCIe помогает оптимально использовать имеющееся пространство, упростить интеграцию, повысить надёжность подключения и минимизировать физические конфликты с соседними компонентами.

 Источник изображений: Molex

Источник изображений: Molex

Для коннекторов NearStack PCIe (27,2 × от 11,2 × от 9,55 мм) предусмотрено несколько вариантов исполнения, в частности, с «язычком» для быстрого отсоединения или с защёлкой, а также с шлейфом, расположенным под углом 0°, 60° или 90°. Также возможно применение гибридных кабелей с разъёмом NearStack PCIe только на одном конце, что позволяет воспользоваться технологией без перепроектирования или замены имеющегося оборудования.

NearStack PCIe утверждён комитетом Small Form Factor (SFF) в качестве стандарта SFF-TA-1026, а OCP рекомендует её для серверов эталонного дизайна. Кроме того, решение NearStack PCIe включено в спецификации OCP Modular Extensible I/O (M-XIO) и Full Width HPM Form Factor (M-FLW) в качестве составляющей нового семейства платформ OCP Data Center Modular Hardware Systems (DC-MHS). Технология доступна для лицензирования поставщикам оборудования, среди которых уже есть как минимум ещё один изготовитель NearStack PCIe помимо самой Molex.

Постоянный URL: http://www.servernews.ru/1075688
01.08.2022 [23:00], Игорь Осколков

Великое объединение: спецификации и наработки OpenCAPI и OMI планируется передать консорциуму CXL

Консорциумы OpenCAPI Consortium (OCC) и Compute Express Link (CXL) подписали соглашение, которое подразумевает передачу в пользу CXL всех наработок и спецификаций OpenCAPI и OMI. Если будет получено одобрения всех участвующих сторон, то это будет ещё один шаг в сторону унификации ключевых системных интерфейсов и возможности реализации новых архитектурных решений. Во всяком случае, на бумаге.

Консорциумы OpenCAPI (Open Coherent Accelerator Processor Interface) был сформирован в 2016 году с целью создание единого, универсального, скоростного и согласованного интерфейса для связи CPU с ускорителями, сетевыми адаптерами, памятью, контроллерами и устройствами хранения и т.д. Причём в независимости от типа и архитектуры самого CPU. На тот момент новый интерфейс был определённо лучше распространённого тогда PCIe 3.0. С течением времени дела у OpenCAPI шли ни шатко ни валко, однако фактически его использование было ограничено только POWER-платформами от IBM.

 Источник: OpenCAPI

Источник: OpenCAPI

Тем не менее, в недрах OpenCAPI родился ещё один очень интересный стандарт — Open Memory Interface (OMI). OMI, если коротко, предлагает некоторую дезагрегацию путём добавления буферной прослойки между CPU и RAM. С одной стороны у OMI есть унифицированный последовательный интерфейс для подключения к CPU, с другой — интерфейсы для подключения какой угодно памяти, на выбор конкретного производителя.

 Источник: Open Memory Interface (OMI)

Источник: Open Memory Interface (OMI)

OMI позволяет поднять пропускную способность памяти, не раздувая число контактов и физические размеры и самого CPU, и модулей. Однако и в данном случае массовая поддержка OMI по факту есть только в процессорах IBM POWER10. Концептуально CXL в части работы с памятью повторяет идею OMI, только в данном случае в качестве физического интерфейса используется распространённый PCIe.

 Изображение: SK Hynix

Изображение: SK Hynix

Существенная разница c OMI в том, что начальная поддержка CXL будет в грядущих процессорах AMD и Intel. А Samsung и SK Hynix уже готовят соответствующие DDR5-модули. Да и в целом поддержка CXL в индустрии намного шире. Так что консорциуму CXL, по-видимому, осталось поглотить только ещё один конкурирующий стандарт в лице CCIX, как это уже произошло с Gen-Z.

Комментируя соглашение, президент консорциума CXL отметил, что сейчас наиболее удачное время для объединения усилий, которое принесёт пользу всей IT-индустрии. Участники OpenCAPI имеют богатый опыт, который поможет улучшить грядущие спецификации CXL и избежать ошибок.

Постоянный URL: http://www.servernews.ru/1071325
Система Orphus