Материалы по тегу: sc16

22.11.2016 [11:50], Алексей Степин

SC16: Mellanox покоряет новые скорости

Компания Mellanox неизвестна большинству рядовых пользователей ПК и ноутбуков, зато её хорошо знает каждый, кто когда-либо экспериментировал с высокими скоростями передачи данных — будь то разработчики суперкомпьютеров, в которых скоростные межузловые каналы передачи данных с низкой задержкой играют роль аналога кровеносной системы человека, или простые энтузиасты, ищущие простое недорогое решение для быстрого соединения ПК с домашним сервером. Ранее название компании ассоциировалось только с интерфейсом InfiniBand, но Mellanox уже давно разрабатывает и выпускает универсальные решения, способные работать и с протоколом Ethernet.

На конференции SC16 компания показала, что по-прежнему идёт в ногу со временем: она представила уже шестое поколение фирменных универсальных контроллеров IB/Ethernet — ConnectX-6, причём, не только сам чип, но и полностью работоспособный двухпортовый адаптер на его основе. Удивительно, но этот крохотный чип в металлическом корпусе одинаково хорошо может работать в режиме InfiniBand 200G HDR, и в режиме Ethernet со скоростью передачи данных 200 Гбит/с, не загружая при этом центральный процессор системы. В сравнении с конкурирующими решениями ConnectX-6 вдвое более производителен и поддерживает такую интересную функцию, как передачу протокола NVMe в средах InfiniBand или Ethernet. Посредством специальных кабелей (например, QSFP на 4 SFP+) к одному хост-адаптеру можно подключить до восьми клиентских с меньшими скоростями передачи данных.

Стоит отметить, что в самом контроллере реализованы передовые наработки в области PCI Express: он может работать как в режиме PCI Express 4.0 x16, так и довольствоваться PCI Express 3.0, но уже с 32 линиями. Ничего удивительного: скорости в районе 200 Гбит/с выходят за пределы возможностей PCIe 3.0 x16. Как и ожидалось, механически конструктив слота PCIe 4.0 не изменился, но экземпляр карты, изображённый на снимках, явно не будет работать в слотах PCIe 3.0. Высокоскоростные сети невозможно представить себе без коммутаторов, которые из простых устройств давно превратились в сложнейшие вычислительные узлы с серьезными процессорами и солидными объёмами оперативной памяти.

Mellanox привезла на конференцию новейший 40-портовый коммутатор Quantum QM8790, рассчитанный на стандарт InfiniBand 200G HDR. В режиме 100 Гбит/с эта новинка может работать, как 80-портовая, поскольку скорости 200 Гбит/с пока ещё только предстоит стать промышленным стандартом. Каждый порт коммутатора обладает пропускной способностью 390 миллионов сообщений в секунду, при этом задержки не превышают 90 наносекунд. Семейство Qantum позволяет строить сети с топологией трёхуровневого толстого дерева (3-level fat-tree) с максимальным количеством 128 тысяч узлов, чего достаточно для любого мыслимого сегодня суперкомпьютера. При этом новые коммутаторы поставляют в реальном времени и телеметрические данные о своём состоянии и состоянии сети в целом.

Как кровеносная система немыслима без сосудов, так и сеть немыслима без кабельной инфраструктуры, причём скорости, предлагаемые Mellanox, выходят далеко за пределы привычной всем «витой пары». Так что компания продемонстрировала ряд активных медных и оптических кабелей класса QSFP, не требующих использования отдельных модулей трансиверов. Но были показаны и сами трансиверы, ведь кабели стандартной длины не всегда подходят для использования в нестандартных ситуациях. В основном, речь идёт о скоростях порядка 100 Гбит/с, но у компании есть решения и для нового стандарта с пропускной способностью 200 Гбит/с. Mellanox в очередной раз доказала, что является лидером в области создания высокоскоростных сетей с низкими задержками.

Постоянный URL: http://www.servernews.ru/943083
21.11.2016 [14:32], Иван Грудцын

SC16: новая конфигурация сервера Hitachi SR24000 на базе Tesla P100

В рамках мероприятия SC16 (Supercomputing Conference 2016), которое в этом году прошло в столице американского штата Юта Солт-Лейк-Сити, компания Hitachi продемонстрировала новую серверную систему семейства SR24000. Конфигурация Hitachi SR24000/DL1 призвана решать задачи глубинного обучения и имеет для этого внушительный набор компонентов.

Сервер собран в корпусе форм-фактора 2U со сторонами 822(Д) × 442(Ш) × 86(В) мм. Его масса может достигать по крайней мере 30 кг. Ключевыми узлами системы являются 10-ядерные процессоры IBM POWER8 и высокопроизводительные ускорители NVIDIA Tesla P100, взаимодействующие с другими комплектующими с помощью интерфейса NVLink. Процессоры работают в составе сервера попарно (номинальная частота каждого — 2,86 ГГц), а количество плат Tesla P100 может равняться двум или четырём. Соответственно, пиковая производительность Hitachi SR24000/DL1 при операциях с числами половинной точности (FP16) оценена в 42,4—84,8 Тфлопс.

Процессоры POWER8 охлаждаются медно-алюминиевыми кулерами башенного типа, пластины которых пронизаны четырьмя U-образными тепловыми трубками. На карты Tesla P100 устанавливаются медные охладители с четырьмя-пятью медными теплотрубками. Радиаторы, находящиеся ближе к вентиляторам в передней части корпуса, имеют «прорехи» для лучшей продуваемости соседних радиаторов.

Каждый ускоритель Tesla P100 обеспечивает 21,2 Тфлопс «чистой» производительности (FP16) и оборудован 16 Гбайт буферной памяти HBM2 с пропускной способностью 720 Гбайт/с. В соответствии с официальной спецификацией, одна карта P100 использует 16-нм графический чип NVIDIA GP100, оперирующий 3584 потоковыми процессорами с номинальной частотой 1328 МГц и boost-частотой 1480 МГц, а также 4096-разрядным интерфейсом VRAM (объём доступной памяти стандарта HBM2 указан выше).

 Tesla P100

Tesla P100

В числе других узлов сервера Hitachi SR24000/DL1, пожалуй, стоит выделить 256 или 512 Гбайт оперативной памяти DDR4, интерфейс проводной сети с пропускной способностью 1, 10 или 40 Гбит/с, накопители HDD (2 × 2 Тбайт) или SSD (2 × 1,92 Тбайт) и блок питания мощностью 2550 Вт. Последний рассчитан на работу в сетях 200–240 В и, как и сервер в целом, греется незначительно при температуре окружения до 27 °C (нижний порог — 18 °C). Рекомендованной операционной системой для Hitachi SR24000/DL1 служит Ubuntu Server.

Постоянный URL: http://www.servernews.ru/943028
21.11.2016 [14:00], Иван Грудцын

SC16: ускорители AMD FirePro осваиваются в серверах Cirrascale GX8

Прошедшая на прошлой неделе «суперкомпьютерная» конференция SC16 в Солт-Лейк-Сити (штат Юта, США) собрала в конференц-центре Salt Palace представителей компаний и прессы, объединённых интересом к высоким технологиям — в частности, мощным серверам и их компонентам. На стенде компании AMD демонстрировалась серверная система Cirrascale GX8 в форм-факторе 4U, предназначенная для работы с GPU-ускоренными библиотеками и решения задач глубинного обучения (англ. deep learning).

В характеристиках моделей Cirrascale GX8 Series на официальном сайте компании из калифорнийского городка Пауэй вовсе отсутствует упоминание о возможности построения конфигураций из ускорителей AMD FirePro. Базовыми GPU для GX8 считаются (считались до недавнего времени) решения NVIDIA Tesla M40 на ядре Maxwell GM200 для глубинного обучения и Tesla K80 (тандем чипов GK210) для высокой производительности при выполнении вычислений двойной точности на 16 (8 × 2) графических ядрах.

Как видно на фотографиях, AMD и Cirrascale договорились о возможности использования в существующих моделях серверов GPU «красного» лагеря, а именно восьми устройств FirePro S9150 на базе чипа Hawaii XT GL. Один адаптер занимает два слота расширения, потребляет до 235 Вт и характеризуется быстродействием в 2,53 Тфлопс (FP64). В состав 28-нм графического ядра Hawaii XT GL входят 2816 потоковых процессоров GCN 1.1, 176 текстурных блоков, 64 блока рендеринга и 512-разрядная шина памяти. Ускорители S9150 оборудованы 16 Гбайт видеопамяти GDDR5 с эффективной частотой 5 ГГц. Ядро ограничивается скромными по нынешним временам 900 МГц.

Отметим, что достойного преемника FirePro S9150 придётся ждать довольно долго, ведь ни Polaris 10 (Radeon Pro WX 7100), ни ожидающийся в первом квартале следующего года продукт Vega 10 не подходят для HPC-систем.

Помимо восьми двухслотовых ускорителей NVIDIA или AMD, в Cirrascale GX8 могут использоваться процессоры Intel Xeon E5-2600 v4 (Broadwell-EP) и Xeon E5-2600 v3 (Haswell-EP), и оперативная память DDR4-1600/.../2400 форм-факторов RDIMM и LR-DIMM (максимум 1 Тбайт RAM). Кроме того, поддерживается подключение к системе восьми 2,5-дюймовых SATA SSD-накопителей.

В число основных узлов сервера в том числе входят материнская плата ASUS Z10PE-D16 WS, максимум четыре блока питания номиналом 1600–2000 Вт и просторный корпус со сторонами 762, 482,6 и 175 мм. Прочие подробности о сервере Cirrascale GX8 можно узнать на сайте американской компании.

Постоянный URL: http://www.servernews.ru/943023
21.11.2016 [13:15], Константин Ходаковский

Google приняла участие в SC16 и привлекла Intel к стратегическому альянсу

В этом году Google решила принять участие в мероприятии SC16, посвящённом серверам и суперкомпьютерам. Это вполне естественно для одного из лидеров в области облачных служб. Компания проводила различные конкурсы среди публики, презентации по глубинному машинному обучению и стендовые доклады.

Заодно интернет-исполин на своём стенде показал специализированный модуль TPU (Tensor Processing Unit), созданный в недрах Google для ускорения задач машинного обучения и представленный в мае этого года. Рядом с самим модулем, скрытым за стеклом, расположился плакат, рассказывающий посетителям о том, что чип TPU был признан журналом Wire одним из пяти продуктов или технологий, способных существенно изменить будущее сектора HPC.

Кстати, поисковый гигант косвенно присутствовал также в анонсах других компаний, сделанных во время SC16. Например, AMD сообщила, что её ускорители FirePro S9300 x2 будут применяться в облачной платформе Google в 2017 году для ускорения вычислительного движка Google Compute Engine и служб машинного обучения Google Cloud Machine Learning.

Не остался в стороне и лидер рынка x86-серверов: Intel заявила о стратегическом альянсе с Google для продвижения новаций в области многооблачных окружений, Интернета вещей (IoT) и различных новых направлений, связанных с искусственным интеллектом и машинным обучением. Прежде всего, речь идёт о сотрудничестве по развитию серверных платформ и технологий с открытым исходным кодом.

Например, в задачи входит оптимизация открытых библиотек TensorFlow (созданных с прицелом на высокопараллельные расчёты с помощью GPU) под архитектуры Intel. Результатом совместной работы Google и Intel станет предоставление разработчикам оптимизированной библиотеки для разработки новых направлений машинного обучения на основе нейронных сетей. Начальные оптимизации, как сообщает Intel, будут доступны уже в первом квартале 2017 года. Такие правления, как распознавание лиц, создание чат-ботов и управление роботами — это лишь несколько примеров использования библиотеки TensorFlow.

Второе направление сотрудничества Google и Intel — улучшение многооблачных окружений и оптимизация открытой системы автоматизированного развёртывания, масштабирования и управления контейнерами в Linux — Kubernetes. Проект Kubernetes начала Google, затем к нему присоединились другие компании вроде Microsoft, RedHat, IBM и Docker. Вдобавок, Intel будет сотрудничать с Google в области интеграции возможностей облачной платформы поискового гиганта в свои IoT-устройства.

Постоянный URL: http://www.servernews.ru/943022
21.11.2016 [12:39], Константин Ходаковский

SC16: новый стоечный 1U-корпус сервера FatTwin на стенде Supermicro

Побывав на стенде компании Supermicro во время мероприятия SC16 наши сотрудники запечатлели новую модель сервера семейства FatTwin — SYS-2028BT-HNR+. Серверы FatTwin отличаются поддержкой горячей замены модулей, больших объёмов оперативной памяти, накопителей и расширенными сетевыми возможностями.

Один серверный модуль SYS-2028BT-HNR+ поддерживает два процессора Intel Xeon семейства E5-2600 v4/v3 (контактная площадка LGA 2011, скорость QPI — 9,6 гигатранзакций в секунду), может оснащаться до 3 Тбайт оперативной памяти ECC DDR4-2400 МГц (доступно 24 слота DIMM), имеет два слота расширения PCI-Express 3.0 x16 (LP), поддержку одной карты SIOM.

Вдобавок каждый модуль SYS-2028BT-HNR+ включает шесть отсеков для установки 2,5-дюймовых твердотельных накопителей, поддерживающих подключение по стандарту NVM Express и горячую замену. Питание такого модуля обеспечивает блок на 2200 Вт с высоким коэффициентом эффективности 96 %.

Как можно видеть на снимке, один стоечный корпус 1U может включать четыре сервера SYS-2028BT-HNR+. Таким образом, Supermicro добилась впечатляющих показателей плотности размещения накопителей, оперативной памяти и процессоров. Производитель отмечает, что FatTwin SYS-2028BT-HNR+ нацелена на высокомасштабируемые и конвергентные решения, ресурсоёмкие приложения, серверы обработки данных для предприятий и HPC.

Постоянный URL: http://www.servernews.ru/943021
17.11.2016 [17:49], Константин Ходаковский

Ускорители AMD будут использоваться в облачной платформе Google в 2017 году

На мероприятии SC16 компания AMD сообщала, что её технологии будут доступны пользователям облачной платформы Google по всему миру. Начиная с 2017 года поисковый гигант задействует самые быстрые двухчиповые вычислительные ускорители AMD, FirePro S9300 x2, для ускорения вычислительного движка Google Compute Engine и служб машинного обучения Google Cloud Machine Learning.

AMD FirePro S9300 x2 могут производить высокопараллельные расчёты, включая сложные медицинские и финансовые симуляции, исследования сейсмической активности и подземных слоёв, машинного обучения, осуществлять рендеринг и кодирование видео, проводить научный анализ. Облачная платформа Google Cloud Platform сделает ресурсы ускорителей AMD доступными всем заинтересованным компаниям в мире.

«Графические процессоры представляют собой наилучшую комбинацию производительности и программируемости для уже существующих и только возникающих направлений анализа больших данных, — отмечает старший вице-президент и ведущий архитектор подразделения Radeon в AMD Раджа Кодури (Raja Koduri). — Применение нашей технологии в облачной платформе Google — доказательство прогресса AMD в области развития аппаратных GPU, а также нашей открытой вычислительной платформы Radeon Open Compute Platform. Последняя является единственной полностью открытой высокомасштабируемой вычислительной платформой GPU в мире. Мы ожидаем, что достигнутый нами текущий импульс в области GPU-вычислений будет ускоряться с выходом будущих аппаратных и программных продуктов, а также развития экосистемы промежуточного ПО и библиотек».

На днях AMD также выпустила свежую версию Radeon Open Compute Platform, в которой реализована программная поддержка новых ускорителей, добавлены некоторые математические библиотеки, расширена поддержка современных языков программирования для ускорения развития высокопроизводительных энергоэффективных гетерогенных вычислительных систем.

На SC16 компания также коснулась ряда других вопросов, включая работу технологий машинного обучения на серверах Supermicro; портирование CUDA-приложения Caffe на ускорители AMD через HIP Porting Tool; трассировку лучей и визуализацию в виртуальной реальности для HPC с помощью ускорителей AMD FirePro S9300 X2 и Radeon R9 Nano; и других.

Постоянный URL: http://www.servernews.ru/942911
17.11.2016 [00:30], Андрей Крупин

РСК представила новое поколение суперкомпьютерной системы «РСК Торнадо»

Группа компаний РСК, занимающаяся разработкой решений для сегмента высокопроизводительных вычислений и центров обработки данных, продемонстрировала на международной выставке-конференции SC16 (Солт-Лейк-Сити, США) новое поколение суперкомпьютерного решения «РСК Торнадо» с прямым жидкостным охлаждением.

Новое поколение кластерного решения «РСК Торнадо» позволяет размещать до 408 вычислительных узлов в двухстороннем шкафу 42U с размерами 120х120х200 см. В системе могут быть задействованы серверные платы семейства Intel Server Board S7200AP с использованием многоядерных процессоров семейства Intel Xeon Phi 7200, в том числе старших моделей Xeon Phi 7290 (до 72-х ядер). Предусмотрена возможность использования будущих процессоров Xeon Phi 7250F, 7290F. По данным разработчика, вычислительная плотность нового комплекса составляет 1,41 петафлопс или более 490 терафлопс/м3, энергетическая плотность — до 200 кВт/шкаф.

Отдельное внимание разработчиками нового поколения «РСК Торнадо» было уделено увеличению объёма оперативной памяти решающего поля вычислительных узлов одного шкафа почти в пять раз с 16,3 Тбайт в предыдущем поколении до 76,5 Тбайт (до 192 Гбайт оперативной памяти типа DDR4-2400 RAM и 16 Гбайт MCDRAM на узел). Сообщается о доработках системы охлаждения и модуля электропитания, а также об обновлении конструкции вычислительного шкафа с поддержкой новых технологий высокоскоростных межузловых соединений, включая Intel Omni-Path и Mellanox EDR InfiniBand, и возможности одновременного использования в одном узле до двух твердотельных накопителей с подключением по шине SATA и одного PCIe в форм-факторе M.2, таких как Intel SSD DC S3500 и SSD DC P3100 (M.2 NVMe).

Кроме того, кластерное решение «РСК Торнадо» может быть реализовано на базе серверных процессоров семейства Intel Xeon E5-2600, включая представленную на SC16 старшую модель Intel Xeon E5-2699A v4 (22 ядра, тактовая частота 2,40 ГГц, 55 Мбайт кеш-памяти L3), обеспечивающую вычислительную плотность в 258,5 терафлопс в стандартном вычислительном шкафу 42U (80x80x200 см). Любой компонент системы может обслуживаться индивидуально и не требует остановки какого-либо другого узла.

На стенде РСК были продемонстрированы вычислительный узел «РСК Торнадо» на базе многоядерного процессора Intel Xeon Phi 7290 на серверной плате Intel S7200AP с установленными двумя твердотельными дисками Intel SSD DC S3500 Series M.2 ёмкостью 340 Гбайт и одним Intel SSD DC P3100 (M.2 NVMe) с подключением по интерфейсу PCIe, а также коммутаторы и адаптеры для построения высокоскоростных межузловых соединений Intel Omni-Path (OPA) и Mellanox EDR InfiniBand.

РСК также показала решение на базе протокола NVMe-overFabric, который позволяет организовать высокоскоростной удалённый доступ к дисковому массиву. Его отличительной особенностью является использование средств RDMA высокоскоростного межузлового соединения Intel Omni-Path для минимизации задержки доступа к блочному устройству. На стенде компании был представлен мини-кластер, в котором вычислительные узлы получают дисковое пространство по требованию от централизованного сервера с NVMe-дисками Intel SSD DC P3700. Такой подход позволяет проектировать кластерные решения высокой плотности, в которых вычислительные узлы имеют ограниченное дисковое пространство с возможностью его расширения через NVMe-over-OPA в реальном времени.

Решения на базе архитектуры «РСК Торнадо» находятся в промышленной эксплуатации у российских заказчиков с 2009 года. Такие системы установлены и активно используются для моделирования и расчётов широкого спектра научно-исследовательских и реальных промышленных задач в Санкт-Петербургском политехническом университете Петра Великого (СПбПУ), Межведомственном суперкомпьютерном центре Российской академии наук (МСЦ РАН), Южно-Уральском государственном университете (ЮУрГУ), Московском физико-техническом университете (МФТИ), Росгидромете и у других заказчиков из различных отраслей промышленности.

Материалы по теме:

Источник:

Постоянный URL: http://www.servernews.ru/942858
16.11.2016 [14:14], Алексей Степин

Компания Cray анонсировала новый суперкомпьютер XC50

Имя Cray известно всем, кто когда-либо интересовался историей вычислительной техники в целом и историей развития суперкомпьютеров в частности. Компания вполне успешно существует и в наши дни, продолжая разрабатывать новые модели сверхвысокопроизводительных вычислительных систем. На конференции SC16 она представила свой новый проект XC50, который, по мнению компании, станет быстрейшим суперкомпьютером в мире. В максимальной конфигурации его мощностью может достигнуть внушительных 500 петафлопс.

Представители Cray заявили, что вычислительная мощность XC50 достигнет 1,04 петафлопа на шкаф (cabinet) и, разумеется, покупатель имеет полное право не ограничивать себя одним шкафом. Каждый шкаф XC50 содержит внутри себя три блока, в терминологии Cray именуемые «шасси» (chassis). Каждое из них, в свою очередь, состоит из 16 «лезвий» (compute blades), а каждое «лезвие» состоит из четырёх «узлов» (nodes). Каждый такой узел поддерживает процессоры Xeon и Xeon Phi, а также ускорители NVIDIA Tesla P100.

 Лезвие XC50 с ускорителями NVIDIA Tesla P100

Лезвие XC50 с ускорителями NVIDIA Tesla P100

К примеру, лезвие типа Tesla несёт на борту четыре хост-процессора Xeon и четыре ускорителя Tesla P100 с интерфейсом PCIe; более прогрессивная шина NVLink, к сожалению, не используется. Если все узлы оснащены максимальным объёмом памяти (128 Гбайт), то общий объём памяти на шкаф составляет 24 Тбайт. Без высокоскоростной подсистемы связи не удалось бы добиться хорошей масштабируемости XC50, так что компания включила в состав каждого «лезвия» фирменный маршрутизатор Aries, использующий сетевую топологию Dragonfly. Новая подсистема связи гарантирует задержки на уровне наносекунд даже в тех случаях, когда в «общении» задействованы все «узлы» XC50.

Постоянный URL: http://www.servernews.ru/942798
16.11.2016 [13:10], Александр Будик

Intel на SC16: последние достижения в мире супервычислений

Принимая активное участие в Автосалоне в Лос-Анджелесе, компания Intel не обделила вниманием также и конференцию SC16, которая является одним из крупнейших событий в мире супервычислительных технологий. Ей здесь было что показать и о чём рассказать.

 Искусственный интеллект является приоритетным направлением для Intel

Искусственный интеллект является приоритетным направлением для Intel

В настоящее время представители бизнеса и промышленности активно внедряют высокопроизводительные вычисления (HPC). Супервычислительные платформы применяются во многих приложениях, начиная от прогноза погоды и заканчивая диагностикой болезней. Несмотря на все старания разработчиков, HPC-системы всё ещё остаются достаточно сложными в техническом плане, а барьер для использования искусственного интеллекта — слишком высоким для многих организаций. Компания Intel на SC16 пыталась показать, что ей удалось решить многие из этих проблем, и новое портфолио решений позволит расширить сообщество потребителей HPC-технологий.

 HPC Orchestrator создан для удобного управления HPC-системами

HPC Orchestrator создан для удобного управления HPC-системами

Для оптимизации производительности и правильного распределения вычислительной мощности, памяти, дискового пространства Intel разработала фреймворк SSF (Scalable System Framework). Он представляет собой передовой архитектурный подход, облегчающий развёртывание HPC-систем и управление ими. В центре SFF — программная платформа Intel HPC Orhcestrator. Она поддерживает как традиционные HPC-приложения, так и передовые технологии, такие как машинное обучение, высокопроизводительный анализ данных, автономное вождение. HPC Orhcestrator использует в качестве основы открытый программный стек OpenHPC и включает более 60 предустановленных модульных компонентов. Разработчики особо отмечают лёгкость установки и настройки системы.

 Процессоры Xeon Phi с успехом применяются в суперкомпьютерах

Процессоры Xeon Phi с успехом применяются в суперкомпьютерах

Среди важных достижений в отрасли супервычислений Intel отметила выпуск на рынок Omni-Path Architecture (OPA). Эта технология доступна уже девять месяцев. За этот небольшой период Intel OPA приняли многие крупные отраслевые игроки. Отметим, в последней редакции списка самых мощных суперкомпьютеров мира TOP500 28 систем взяли на вооружение OPA, что в два раза превышает показатели InfiniBand EDR. Среди всех систем с пропускной способностью 100 Гбит/с доля Omni-Path Architecture составила 66 %. OPA используется в суперкомпьютере Oakforest-PACS, который занял шестое место в рейтинге TOP500.

В 2017 году компания выпустит на рынок ускоритель Deep Learning Inference Accelerator, который представляет собой программно-аппаратное решение на базе программируемых FPGA-элементов и предназначен для обеспечения быстрой работы нейронных сетей. Новинка выполнена в виде карты расширения PCI Express и включает Intel Arria 10 FPGA. Также в 2017 году будет выпущен новый Xeon Phi (кодовое имя Knights Mill) с архитектурой, оптимизированной для реализации искусственного интеллекта.

 Ускоритель для искусственного интеллекта выйдет на рынок уже в 2017 году

Ускоритель для искусственного интеллекта выйдет на рынок уже в 2017 году

В ходе SC16 Intel показала ранний образец процессора следующего поколения Intel Xeon, который интегрирует Omni-Path Architecture и поддерживает Advanced Vector Extensions-512 (Intel AVX-512).

На завтра в Сан-Франциско запланировано также мероприятие Intel AI Day, которое будет посвящено перспективным разработкам в области искусственного интеллекта. С докладами выступят вице-президенты подразделений Data-Center Group, Software Services Group, Internet of Things Group, а также глава Intel Брайан Кржанич.

Постоянный URL: http://www.servernews.ru/942799
16.11.2016 [09:00], Алексей Степин

TYAN продемонстрировала новые системы класса HPC

Наряду с Supermicro, имя TYAN хорошо известно тем, кому нужны серверные компоненты и готовые высокопроизводительные системы на базе этих компонентов. На конференции SC16, посвящённой супервычислениям и всему, что с ними связано, TYAN продемонстрировала новые платформы для хранения и обработки больших массивов данных. Серия платформ TYAN класса HPC отличается широкой вариативностью аппаратной начинки: так, система FT76-B7922 базируется на процессорах Intel Xeon E7, которых в ней может быть до четырёх, может вместить до 6 Тбайт оперативной памяти и до четырёх сопроцессоров Xeon Phi.

Платформа FT77C-B7079 использует процессоры Intel Xeon E5, количество основных ЦП также равно четырём, зато число возможных ускорителей Xeon Phi выросло до восьми. Эта система предназначена для тех случаев, где требуется массивная параллелизация вычислений. Система TA80-B7071 выполнена в корпусе высотой 2U и вмещает только два центральных процессора, зато поддерживает установку четырёх сопроцессоров Xeon Phi. Она универсальна и хорошо подходит для целого ряда сценариев. Наконец, GA80-B7081 и вовсе имеет форм-фактор 1U, но при этом может нести на борту два процессора и три ускорителя Xeon Phi. Эта компактная платформа предназначена для малого бизнеса, университетов и тех разработчиков, которые хотят проверить концепцию параллельных вычислений на практике.

 TYAN S7082: два процессора Xeon E5-2600 v3/v4, форм-фактор SSI EEB (12″ × 13″)

TYAN S7082: два процессора Xeon E5-2600 v3/v4, форм-фактор SSI EEB (12″ × 13″)

В выставочном павильоне TYAN также можно было найти многочисленные платформы для облачных проектов и организации систем хранения данных. В частности, интересно выглядели двухпроцессорные компактные (1U) системы GT86A-B7083, GT24B-B7076 и GT62B-B7076, предназначенные для базовых вычислительных задач, и базирующиеся на чипах Xeon E5-2600 v3/v4, а также недорогая массовая платформа GT24B-B5542, также имеющая форм-фактор 1U и использующая единственный процессор Xeon E3-1200 v5. В секторе СХД компания продемонстрировала сервер TN70B-B7086, поддерживающий «горячую» установку 12 накопителей формата 3,5″/2,5″ одновременно с четырьмя накопителями класса NVMe, и модель GT56-B7086 с поддержкой до 10 компактных накопителей формата 2,5″. В качестве опции расширения TYAN предложила дисковую полку TN70J-E3250 с возможностью установки 12 дисков формата 3,5″/2,5″.

Помимо готовых платформ, были широко представлены и новые системные платы с поддержкой процессоров Xeon E5-2600 v3/v4, E3-1200 v5, а также высокоинтегрированные платы на базе чипов серии Intel Xeon D-1500. Большинство демонстрируемых плат использовали стандартные форм-факторы ATX, EATX или Micro-ATX.

Постоянный URL: http://www.servernews.ru/942786
Система Orphus