Материалы по тегу: pci express

28.11.2019 [13:03], Алексей Степин

SC19: открытый стандарт OpenCAPI продолжает борьбу с PCI Express

Консорциум OpenCAPI был основан в октябре 2016 года, в него вошли такие известные компании как AMD, IBM, Google, Mellanox и ряд других игроков на рынке HPC. Целью организации является продвижение открытой альтернативы PCI Express.

В отличие от разработанных ранее стандартов CAPI, OpenCAPI не требует инфраструктуры PCIe и базируется на технологиях IBM Bluelink (25 Гбит/с на линию) и NVIDIA NVLink 2.0. Стандарт использован в системах на базе процессоров IBM POWER9. Эти процессоры имеют 48 линий OpenCAPI.

В 2017 году мы выдвинули предположение о том, что OpenCAPI будет активно развиваться на фоне стагнации PCI Express 3.0 и даже сможет серьёзно потеснить PCIe. Хотя это предположение не оправдалось, а внедрение новой, четвёртой версии PCIe, напротив, активизировалось, разработчики OpenCAPI продолжают демонстрировать новые решения на базе данного стандарта.

На выставке SC19 был продемонстрирован ряд решений, использующих наработки консорциума. В частности, была показана любопытная система хранения данных IBM Power S924. В нём используются 8, 10 или 12-ядерные процессоры POWER9 с частотой до 3,3 ГГц и поддержкой SMT4. Помимо классической оперативной памяти объёмом до 4 Тбайт система поддерживает модули SCM Memory (ближайший аналог Intel Optane).

Эти модули используют шину OpenCAPI x4, обладают пропускной способностью 80 Гбайт/с, а общий объём такой энергонезависимой памяти может достигать 12 Тбайт. Каждая карта SCM HMS имеет ёмкость 1,5 или 3 Тбайт, некоторый объём DRAM-кеша и устанавливается в слот PCIe, но использует его возможности только для питания ‒ данные передаются через отдельный разъём OpenCAPI x4.

Своё решение показал крупный тайваньский производитель Wistron. Он продемонстрировал компактный сервер на базе процессоров POWER9, поддерживающий подключение 24 NVMe-накопителей. Эта система с поддержкой OpenCAPI позиционируется в качестве основы для систем машинного обучения, аналитики больших объёмов данных и решений класса Big Data в целом.

Сама шина может быть реализована не только с помощью классических слотов, аналогичных PCIe по электромеханическому конструктиву, но и с помощью разъёма SlimSAS, имеющего 8 линий по 25 Гбит/с и позволяющего компоновать системы подобно тому, как это реализовано в серверах с ускорителями NVIDIA в формате SXM2.

Разработчики показали различные решения на базе OpenCAPI. Так, в числе прочих, был продемонстрирован адаптер OpenCAPI Gateway на базе ПЛИС Xilinx Zynq UltraScale+, предназначенный для разработки ускорителей с поддержкой нового стандарта передачи данных.

Разработки Mellanox, входящей в консорциум, были представлены «умной» сетевой картой Innova-2. Она базируется на связке чипов ConnectX-5 и Xilinx Kintex UItraScale+ и располагает двумя портами с поддержкой различных скоростей Ethernet или InfiniBand ‒ от 25 до 100 Гбит/с. Карта поддерживает как PCI Express 4.0 x8, так и OpenCAPI x8.

Компания Alpha Data показала похожее решение, но на базе чипа Xilinx Virtex UltraScale+, имеющего собственные сборки HBM2 и не требующего установки на плату микросхем DRAM. Адаптер ADM-PCIE-9H7 предлагает уже четыре порта QSFP28 и обслуживается двумя интерфейсами OpenCAPI x8. Новинка обладает существенным энергопотреблением и требует подключения шестиконтактного разъёма питания PCIe. Есть у Alpha Data и менее мощные решения.

Можно заключить, что стандарт OpenCAPI не умер. На его основе активно разрабатываются новые решения, включая уникальные системы на базе архитектур, отличных от x86. Но перспективы этой шины теперь выглядят куда менее радужными, нежели в 2017 году, и на то есть ряд причин.

Будут ли разъёмы OpenCAPI пустовать?

С появлением на рынке процессоров AMD EPYC 7002 стандарт PCI Express 4.0 стал активно продвигаться в жизнь. В отличие от OpenCAPI, он использует существующую электромеханическую инфраструктуру и располагает обратной совместимостью с предыдущими стандартами PCIe, что является весьма серьёзным преимущество в мире ИТ.

Постоянный URL: http://servernews.ru/998600
13.07.2019 [22:48], Андрей Созинов

Энтузиаст смог подключить к Raspberry Pi 4 SAS-контроллер посредством PCI Express

К новому одноплатному микро-компьютеру Raspberry Pi 4 можно подключать устройства с интерфейсом PCI Express. Это выяснил польский энтузиаст Томаш Млодуховски (Tomasz Mloduchowski), которому, правда, пришлось для этого «поработать паяльником» и внести некоторые изменения в устройство системы. Однако главное, что это возможно!

Компьютер Raspberry Pi 4 получил, пожалуй, самые значительные изменения по сравнению с предыдущим поколением из всех представителей «малинового» семейства. Если ключевой особенностью Raspberry Pi 3 был 64-битный процессор, то в Raspberry Pi 4 появились 4 Гбайт оперативной памяти, а также гигабитный сетевой интерфейс и порты USB 3.0, которые, наконец, используют шину PCI-E.

А это значит, что если один из контроллеров убрать,  выпаяв с платы, то откроется доступ к самой шине. После выпаивания чипа было необходимо распознать контакты, что было сопряжено с некоторыми сложностями — в Сети не нашлось документации к использованному в Raspberry Pi 4 контроллеру, а лишь к родственному.

Также энтузиаст обращает внимание, что по бокам от USB-контроллера располагаются конденсаторы. И их можно случайно отпаять вместе с чипом,  что и произошло в данном эксперименте, а они нужны для нормальной работы системы. Поэтому в соединения соответствующих контактов были включены конденсаторы ёмкостью 100 нФ (допускается использование ёмкостей от 75 до 200 нФ).

Далее энтузиаст использовал райзер, в котором применяется кабель USB 3.0. Такие довольно активно использовались в майнинговых фермах. Этим USB-кабелем можно подключить плату райзера со слотом PCI Express x16 прямо к порту USB 3.0 компьютера Raspberry Pi 4.

Казалось бы, что на этом всё, однако перед запуском требуется выполнить ещё несколько действий. У стандартного порта USB 3.0 и у аналогичного разъёма на райзере несколько отличается разводка контактов, а потому всё «лишнее» нужно было обрезать, а между двумя контактами ещё и добавить резистор на 10 кОм.

В итоге энтузиасту удалось запустить Raspberry Pi 4, и компьютер смог успешно распознать плату SAS-контроллера Adaptec, подключённую к слоту PCI Express x16 на райзере. В дальнейшем Томаш Млодуховски планирует продолжить эксперименты с Raspberry Pi 4 и PCIe. Он также подчеркнул, что новая «малина» может быть одним из самых дешёвых компьютеров с поддержкой PCIe, и это открывает массу возможностей для энтузиастов.

Постоянный URL: http://servernews.ru/990677
08.04.2019 [19:28], Андрей Созинов

AMD EPYC «Rome» смогут предложить до 192 линий PCIe 4.0 в двухпроцессорных серверах

Согласно последним данным, компания AMD на выставке Computex 2019 в следующем месяце не только представит настольные процессоры Ryzen 3000, но и поделится подробностями о своих новых серверных чипах EPYC «Rome». Однако благодаря ресурсу ServeTheHome мы уже сейчас узнали об одной крайне важной особенности будущих серверных процессоров AMD.

Согласно сообщению источника, будущие процессоры EPYC «Rome» будут располагать большим числом линий PCI Express, чем предполагалось изначально. Во всяком случае, так может быть в серверах с двумя процессорами. Всё дело в том, что для обеспечения связи между процессорами можно использовать меньше линий PCI Express чем требовалось ранее за счёт перехода на более скоростной интерфейс PCIe 4.0.

Актуальные процессоры AMD EPYC первого поколения для связи друг с другом в двухсокетных конфигурациях используют четыре линии Infinity Fabric, обеспечивающих связь каждого кристалла со своим «собратом» в другом процессоре. И в данном случае каждая линия Infinity Fabric представляет собой интерфейс PCIe 3.0 x16. Поэтому двухпроцессорная конфигурация из тех же флагманских EPYC 7601 предлагает те же 128 линий PCIe 3.0, как и сервер на одном таком процессоре. По 64 линии от каждого процессора используются для их соединения, и по 64 остаются свободными.

Новые процессоры EPYC «Rome» также смогут использовать четыре линии Infinity Fabric для связи друг с другом. Но здесь будут использоваться линии PCIe 4.0 со вдвое большей пропускной способностью по сравнению с PCIe 3.0. Поэтому, общая пропускная способность соединения процессоров может быть избыточна в некоторых случаях.

И в таких случаях можно отключить одну или даже две линии Infinity Fabric, тем самым освобождая по 16 или 32 линии PCIe 4.0 для каждого из процессоров. В сумме с и так свободными линиями это даёт до 192 линий PCIe 4.0 на двухсокетный сервер, к которым можно подключать накопители, ускорители вычислений и прочее оборудование. Конечно, такой подход будет полезен не всем, ведь во многих случаях скорость обмена данным между процессорами важнее. Однако наличие возможности увеличить количество линий PCI Express делает новую платформу AMD более гибкой.

В целом наличие у процессоров AMD EPYC «Rome» столь большого числа линий PCI Express, да к тому же версии 4.0, выгодно отличает их от решений конкурента. Напомним, что даже новые чипы Xeon семейства Cascade Lake используют интерфейс PCIe 3.0. Процессоры Xeon Platinum 9200 (Cascade Lake-AP) способны обеспечить лишь 80 линий PCIe 3.0 в двухсокетной конфигурации. В свою очередь чипы Xeon Cascade Lake-SP имеют по 48 линий, так что два процессора обеспечат 96 линий, и только четыре чипа способны дать 192 линии PCIe 3.0.

Постоянный URL: http://servernews.ru/985514
26.07.2017 [12:20], Алексей Степин

Главным узким местом современных платформ становится PCI Express

Создать идеальную вычислительную платформу ещё никому не удавалось — в любом, даже самом совершенном дизайне обязательно обнаруживались узкие места, так называемые «бутылочные горлышки». В обычных персональных компьютерах и рабочих станциях долгое время основным узким местом были механические накопители данных, в кластерных системах и суперкомпьютерах — межузловые сетевые соединения. Сегодня скорости таких популярных решений, как Ethernet и InfiniBand достигли значений 100‒200 Гбит/с, и впереди, не столь уж далеко, уже просматриваются скорости от 400 Гбит/с и выше. Но с ликвидацией одного «бутылочного горлышка» появилось другое, и аналитики считают, что это шина PCI Express. В наши дни на рынке доминирует стандарт PCIe 3.0, пропускная способность у которого составляет порядка 1 Гбайт/с (8 Гбит/с) на линию, а совокупно этот параметр составляет 32 Гбайт/с на 16 линий в двух направлениях.

Эволюция системных шин

Эволюция системных шин

Да, PCI-SIG не сидит на одном месте и спецификации PCI Express 4.0 определены: ревизия 0.9 принята в июне, первым коммерческим процессором с поддержкой новой технологии станет IBM POWER9. Однако существенная доля рынка принадлежит решениям на базе x86-совместимых процессоров, а пока ни Intel, ни AMD не поддерживают PCIe 4.0 даже в своих последних решениях — чипах Xeon Scalable и Naples EPYC, соответственно. В следующем году мы можем увидеть новые продукты с поддержкой нового стандарта, однако следует понимать, что четвёртая версия основной универсальной шины предусматривает лишь двукратное увеличение скорости передачи данных, что при нынешних темпах роста вычислительных мощностей кластеров и суперкомпьютеров может оказаться недостаточно. В планах PCI-SIG имеется и PCI Express 5.0 (32 Гбит/с на линию, 128 Гбайт/с на 16 линий в двух направлениях), но появления соответствующих спецификаций не следует ждать ранее 2019 года.

Рост пропускной способности и появление новых стандартов

Рост пропускной способности и появление новых стандартов

Основным форм-фактором PCIe в серверных и кластерных системах является слот x8, более производительный x16 используется редко, и почти вся сетевая периферия и дисковые контроллеры используют именно конструктив с восемью линиями. Освоение скоростей порядка 400 Гбит/с как раз и потребует учетверения производительности PCIe 3.0 для того, чтобы однопортовые контроллеры InfiniBand, Ethernet и им подобные решения смогли сохранить конструктив x8, занимающий меньше места, нежели x16. Но найдется место новым скоростям и адаптерам с разъёмом x16. Производительность различных сопроцессоров, как на базе графических чипов и ПЛИС, так и специализированных решений вроде модулярно-логарифмического сопроцессора Осинина, также будет расти, что потребует расширения пропускной способности интерфейса, с помощью которого они будут общаться с другими компонентами системы.

PCI-SIG тестирует новые стандарты

PCI-SIG тестирует новые стандарты

Но внедрение PCI Express 5.0 не будет лёгким. Уже с PCIe 4.0 разработчики столкнулись с рядом проблем, а следующая итерация потребует ещё более жёстких мер по предотвращению утечек, наводок и обеспечению надёжного функционирования интерфейса на экивалентной частоте 32 ГГц. Президент PCI-SIG уверен в успехе и в том, что перехода на оптику не потребуется: PCI Express 5.0 будет использовать более компактные разъёмы с укороченными ключами, выполненные из новых материалов, но обратная механическая и электрическая совместимость с адаптерами стандартов PCIe 3.0 и 4.0 сохранится. Это особенно важно в свете того, что жизнь PCI Express 4.0 на рынке, судя по всему, будет довольно короткой: процессоры IBM POWER9 будут массово поставляться на рынок не ранее 2018 года, а Intel может отложить внедрение PCIe 4.0 до 2019 года в чипах Xeon Cannonlake. Похоже, именно PCIe 5.0 станет новым долгоживущим стандартом, так что разработчикам системных плат, сетевых и иных контроллеров следует задуматься о внедрении этого стандарта уже сейчас.

Пример процессора с интерфейсом Omni-Path

Пример процессора с интерфейсом Omni-Path

Но существует и иное мнение: хотя рост требуемой пропускной способности и может спровоцировать массовый переход производителей аппаратного обеспечения на использование PCI Express 5.0 в районе 2020 года, однако ещё до этого события может вырасти популярность таких шин, как Intel Omni-Path, IBM CAPI/OpenCAPI или NVIDIA NVLink. Собственно, именно задержки с внедрением PCI Express 4.0 вызвали к жизни эти промежуточные решения — но у них есть шанс из промежуточных стать основными там, где требуется высокая скорость соединения как системных компонентов, так и отдельных вычислительных узлов между собой.

Постоянный URL: http://servernews.ru/956003
04.07.2017 [06:50], Антон Тестов

TYAN анонсировала сервер на базе AMD EPYC с поддержкой 26 PCIe SSD и OCuLink

TYAN представила свой первый сервер и свою первую материнскую плату для новых микропроцессоров AMD EPYC. Компания решила подойти к новой серверной платформе Advanced Micro Devices с известной долей осторожности, а потому её первая машина на базе EPYC это однопроцессорный сервер для высокопроизводительных устройств хранения данных на твердотельных накопителях (SSD). Кроме того, новые устройства TYAN станут одними из первых с поддержкой соединений OСuLink в индустрии.

Первая платформа TYAN, основанная на процессоре AMD EPYC 7000, использует два основных преимущества новых CPU: до 32 вычислительных ядер общего назначения и до 128 полос PCI Express 3.0, которые могут использоваться для подключения SSD без использования внешних маршрутизаторов или контроллеров. Сервер TYAN TN70A-B8026 основан на материнской плате S8026 с 16 слотами для памяти DDR4 (поддерживаются два модуля на канал, всего система поддерживает 1 Тбайт), двумя слотами M.2-22110 для SSD (PCIe 3.0 x4), а также восемью разъёмами SFF-8611 PCIe/OCuLink x8 для подключения 24 твердотельных накопителей в форм-факторе U.2 с возможностью «горячей» замены. В общей сложности сервер поддерживает 26 SSD с интерфейсом PCIe 3.0 x4, а также два устройства с интерфейсом SATA.

TYAN TN70A-B8026

TYAN TN70A-B8026

Платформа также имеет пять слотов PCIe 3.0 x8 при использовании карт расширения высотой 2U (эти слоты функционируют, когда накопители не используют PCIe-соединения), а также один слот PCIe 3.0 x16 OCP 2.0 для карт EDR InfiniBand или 100 Gigabit Ethernet. Система TYAN TN70A-B8026 оснащена блоком питания мощностью 770 ватт (с поддержкой избыточности), а потому может поддерживать даже самые энергоёмкие компоненты, например, сделанные на заказ SSD огромного объёма. Что касается управления и сетевых подключений, то машина оснащена микросхемой AST2500 BMC с поддержкой iKVM и Redfish, двумя портами Gigabit Ethernet (контроллер Broadcom BCM5720) для подключения и одним Gigabit Ethernet для управления IPMI.

TYAN TN70A-B8026

TYAN TN70A-B8026

TYAN не раскрывает, какие именно SSD она собирается использовать в TN70A-B8026, и сколько терабайт твердотельной памяти в целом сможет поддержать данная машина. Что примечательно, так это то, что определённую пару разъёмов SFF-8611 OCuLink x8 можно переконфигурировать (из BIOS) для поддержки до 16 жёстких дисков с интерфейсом Serial ATA. Поддержка винчестеров обеспечивает гибкость производителям серверов или реселлерам, которые планируют применять barebone TN70A-B8026 или же материнскую плату TYAN S8026. Говоря о последней, стоит упомянуть, что она совместима со стандартными корпусами E-ATX, а потому может быть использована для создания рабочих станций с поддержкой большого числа накопителей данных.

Модели barebone-серверов TYAN TN70A-B8026

Модель Количество слотов PCIe Типы накопителей Блок питания UPC
B8026T70AV16E8HR 6 16 × 2.5" SATA 770 W redundant 635872043727
B8026T70AE24HR 2 24 × NVMe 770 W redundant 635872043734

Компания TYAN не указывает рекомендованную цену и время появления на рынке серверов TN70A-B8026, а также материнской платы S8026. Поскольку сервер может быть оснащен различными процессорами и твердотельными накопителями, его цена может меняться на порядки, и на данный момент не имеет смысла строить догадки. Учитывая, что создаваемые на заказ твердотельные накопители с высокой износоустойчивостью и ёмкостью довольно дороги, стоимость полностью экипированного TYAN TN70A-B8026 может пересечь отметку в $100 тысяч.

Постоянный URL: http://servernews.ru/954831
21.06.2017 [09:30], Иван Грудцын

NVIDIA анонсировала PCI-E версию ускорителя Tesla V100

В мае NVIDIA положила начало эры 12-нм графических решений Volta, представив HPC-ускоритель Tesla V100 с интерфейсом NVLink 2.0 (300 Гбайт/с). Новый оптимизированный для NVIDIA техпроцесс TSMC, новые структурные блоки Tensor для матричных вычислений, огромный кристалл с 21 млрд транзисторов — разработчик постарался, чтобы V100 запомнили надолго.

Повод для очередного упоминания об ускорителе Tesla V100 у нас достаточно веский — официальный дебют его версии с интерфейсом подключения PCI Express 3.0 x16. Судя по набору характеристик, новинка немногим уступает основному адаптеру. По сути, кроме использования разъёма PCI-E 3.0 и немного меньшей boost-частоты ядра (около 1370 МГц), других ограничений не предусмотрено, и V100 готов усилить рабочие станции и серверы заказчиков уже в ближайшем будущем.

С положительной стороны PCI-E модификация Tesla V100 отличается от «старшей сестры» меньшим энергопотреблением — 250 Вт против 300 Вт. Это позволяет использовать как жидкостные, так и воздушные системы охлаждения с невысоким уровнем шума. Графическое ядро ускорителя — GV100 — включает в себя 5120 потоковых процессоров и 640 блоков матричных вычислений (Tensor). Микросхемы памяти HBM2 объёмом 16 Гбайт (4 × 4 Гбайт) работают на частоте 900 МГц, пропускная способность подсистемы памяти увеличена на 25 % по сравнению с Tesla P100 (Pascal) — с 720 до 900 Гбайт/с. Производительность Tesla V100 достигает 7 Тфлопс в вычислениях двойной точности, 14 Тфлопс — одинарной и 28 Тфлопс — половинной. Для матричных вычислений цифра ещё выше — 112 Тфлопс.

Тем временем нашему корреспонденту на выставке-конференции ISC 2017 в Германии удалось запечатлеть на фото обновлённый сервер DGX-1 и рабочую станцию DGX Station. Обе системы оборудованы картами V100 и предназначены для ресурсоёмких вычислений, связанных с решением задач в области искусственного интеллекта.

Сервер NVIDIA DGX-1 оснащён восемью ускорителями Tesla V100, двумя 20-ядерными процессорами Intel Xeon E5-2698 v4, 512 Гбайт оперативной памяти, четырьмя 1,92-Тбайт SSD в RAID 0, проводным сетевым интерфейсом 10-Гбит Ethernet (2 порта) и 3,2-кВт блоком питания. Рекомендованная цена системы для рынка США составляет $149 000.

У рабочей станции DGX Station всего вполовину меньше (кроме накопителей — их по-прежнему четыре). Цена, соответственно, не шестизначная, а пятизначная — $69 000. Процессор Xeon E5-2698 v4 и квартет карт Tesla V100 охлаждаются СЖО. Уровень шума на фоне DGX-1 невысок.

Постоянный URL: http://servernews.ru/954273
11.05.2017 [13:33], Алексей Степин

Новые SSD-накопители LIQUID Element: цены и производительность

Рынок твердотельных накопителей с интерфейсом NVMe продолжает расти и развиваться. Придя на смену стандартам SAS и SATA, новый протокол позволил добиться нового уровня производительности с использованием уже имеющихся технологий производства флеш-памяти. Конечно, SAS пока ещё удобнее в системах, где требуется одновременная установка десятков накопителей, но NVMe понемногу проникает и в эту сферу, а главное — он может предложить действительно потрясающие показатели, такие, как у новых накопителей LIQUID Element, базирующихся на версии протокола NVMe 1.1a.

Серия новинок была анонсирована компанией LIQUID буквально на днях, но доступны они будут только 30 июня. Как принято ныне, новые накопители представлены в двух форм-факторах: обычной платы расширения с разъёмом PCI Express и более удобного для серверных многодисковых систем U.2, использующего корпуса стандартного формата 2,5″. Твердотельные диски LIQUID Element будут поставляться в двух версиях: Enterprise с надёжностью на уровне 3 перезаписей в день и Datacenter с надежностью 1 перезапись в день. Фокус в первом варианте будет сделан на надёжности, а во втором — на достижении как можно большей ёмкости. Любопытно, что заказчик сможет выбирать тип используемой флеш-памяти — MLC или TLC (пока неясно, идёт ли в последнем случае речь о 3D TLC).

Речь идёт о ценах со скидками, доступными в проводимой в настоящее время кампании

Речь идёт о ценах со скидками, доступными в проводимой в настоящее время кампании

Серия Datacenter охватит диапазон от 960 Гбайт до 7,68 Тбайт, в то время, как накопители серии Enterprise будут поставляться на рынок в вариациях объёмом от 800 Гбайт до 6,4 Тбайт. Список моделей и цены в японских иенах приведены выше. Заплатить придётся немало, но цены не выглядят завышенными на фоне показателей: накопители в формате PCIe смогут продемонстрировать скорость последовательных операций при чтении на уровне 1250 миллионов IOPS, а при записи она составит до 900 тысяч IOPS. У моделей U.2 эти показатели будут ограничены 850 тысячами IOPS в обоих случаях, поскольку это следствие более узкого интерфейса — PCIe x4 против x8 в первом случае. Линейная скорость будет варьироваться от 3,6 Гбайт/с (U.2) до 7 Гбайт/с (PCIe x8). Латентность во всех вариациях LIQUID Element не превысит 80 микросекунд.

Постоянный URL: http://servernews.ru/952031
05.02.2016 [12:14], Алексей Степин

Промышленные решения Axiomtek в формате Mini-PCIe: звуковая карта и контроллер RS-232

В промышленных компьютерах часто используются разъёмы типа Mini-PCI и Mini-PCIe, позволяющие сэкономить место и работающие ничуть не хуже своих полноразмерных собратьев. Периферии для них не так уж много, исключая твердотельные накопители, но иногда нужны не вполне обычные решения, например, такие, как представила Axiomtek. Модуль AX92906 представляет собой двухпортовый контроллер интерфейса RS-232, который в промышленности используется весьма широко и иногда этих портов не хватает.

Состоит решение из модуля, подключаемого к разъему Mini-PCIe и двух выносных девятиконтактных разъёмов типа male DE-9, типичных для RS-232 и ему подобных интерфейсов. Довольно удобное решение, если такие порты срочно нужны. Другой модуль, AX92905 являет собой ещё более интересное решение: звуковую карту в формате Mini-PCIe. Пожалуй, в нашей практике такое встречается впервые. В отличие от AX92906, шлейф, подключенный к плате, разделяется на три аналоговых разъёма типа «миниджек»: линейный вход, микрофонный вход и линейный выход.

В основе лежит контроллер C-Media CM6501B, скорее всего, использующий USB-часть разъёма. Несмотря на скромные размеры, он поддерживает разрешение 24 бита при частоте квантования 96 кГц и имеет интерфейс I2S, а также защиту от шумов, проникающих по USB. В арсенале Axiomtek есть и другие решения: контроллер GbE на базе чипа Intel i210IT (AX9202), выполненный в том же форм-факторе Mini-PCIe, контроллер промышленной шины CAN (AX9203) и модуль цифрового ввода-вывода AX92904 с 32 программируемыми каналами.

Постоянный URL: http://servernews.ru/927909
24.09.2012 [00:47], Георгий Орлов

PLX готовит PCI Express для серверов

PLX Technology разрабатывает вариант своих коммутаторов PCI Express для различных серверов и сетевых устройств, чтобы расширить досягаемость и роль стандарта PCIe, в настоящее время являющегося предметом оживленных дискуссий. Дизайнеры серверов Facebook хотят использовать PCIe в качестве основы для будущих процессорных плат с целью упрощения задачи модернизации процессоров в тысячах стоек в своих крупных ЦОД. В настоящее время компания использует серверные карты, которые включают в себя соединения 10 Гбит/с Ethernet.

"Наша цель заключается в использовании в стойке только PCIe, чтобы мы могли обновить каждый компонент по завершении его естественного цикла жизни", - сказал Амир Майкл (Amir Michael), старший дизайнер оборудования Facebook. "Я считаю, что PCIe является одним из следующих больших рубежей для серверов, - уверен Амир Майкл. - Здесь много преимуществ, но есть и некоторые технологические проблемы, потому что PCIe не был предназначен для этого и не работает на больших расстояниях, да и экономически эффективных компонентов PCIe пока нет".

Компания PLX (Сан Хосе, Калифорния) надеется восполнить этот пробел с чипом и программным обеспечением, обеспечивающими пропускную способность в два раза больше, чем 10G Ethernet, при несколько меньшей загрузке процессора. Источники из двух компаний-производителей серверов оценивают вариант PLX как одно из нескольких аналогичных предложений в отрасли. Тем не менее, ни одна из них активно не рассматривается в группе PCI Special Interest, сказал один высокопоставленных инженеров, который попросил не называть его имени. "Возможно, для некоторых специально построенных приложений PLX найдет интересный рынок, но по объему в мире преобладает Ethernet, - отметил он. - С появлением процессоров с интегрированными сетевыми картами Ethernet технические проблемы можно быстро преодолеть".

Intel недавно заявила, что она развивает кластерные межсоединения, которыми оснастит свои будущие процессоры для серверов, заимствуя приемы из многих технологий, включая Ethernet. Главный соперник Intel, компания Advanced Micro Devices, разрабатывает технологию Freedom Fabric, полученную с приобретением SeaMicro.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596584
12.10.2011 [19:34], SN Team

Magma избавит от нехватки слотов PCI Express

Компания Magma объявила о поступлении в продажу устройства под названием ExpressBox 16 Basic, которое имеет шестнадцать слотов расширения PCI Express и предназначено для увеличения их количества в серверах и рабочих станциях. Для подключения ExpressBox 16 необходимо использовать специальную интерфейсную карту, которая подключается к разъёму PCI Express x16 (до 80 Гбит/с) или PCI Express x8 (до 40 Гбит/с). Высокая пропускная способность интерфейса позволяет использовать внешний стоечный корпус с шестнадцатью слотами PCI Express стандарта 2.0.

 

 

Высота ExpressBox 16 Basic равняется 4U, также в комплекте с самим устройством можно найти интерфейсную карту и специальный кабель iPass длинной три метра. Выпускается две модификации  ExpressBox 16 Basic:

  • EB16-BX4 с шестнадцатью слотами PCI Express х4 и блоком питания мощностью 850 ватт;
  • EB16-BX8, который имеет четырнадцать слотов PCI Express х8 и два PCI Express х16, а также блок питания на 850 ватт (опционально БП на 1700 ватт или резервный источник питания мощностью 850 ватт).

Основная область применения – серверы, которым необходим большой объём сверхскоростного хранилища данных (SSD с подходящими возможностями как раз выполняются в формате карт расширения PCI Express); также Magma не исключает возможности использования ExpressBox 16 Basic в телекоммуникационном оборудовании и даже в оборонной и аэрокосмической отрасли. Стоимость одного "ящика" равняется $4500 (за самую доступную версию), Magma уже принимает заказы от всех заинтересованных лиц.

Источник:

Постоянный URL: http://servernews.ru/595094
Система Orphus