Материалы по тегу: cpu

17.06.2021 [14:37], Владимир Агапов

Cortus объявила о создании процессорного ядра RISC-V для высокопроизводительных вычислений

Компания Cortus, работающая с 2005 года на рынке услуг дизайна интегральных схем специального назначения (ASIC) и систем на кристалле (SoC), объявила на днях о разработке 64-бит процессорного Out-of-Order (OoO) ядра RISC-V для высокопроизводительных вычислений. Разработка спонсирована ЕС в рамках проекта eProcessor и проведена под патронажем Барселонского суперкомпьютерного центра (Barcelona Supercomputing Center, BSC).

В новом изделии компания реализовала полную поддержку когерентности кеш-памяти, что делает его пригодным для создания сложных мультипроцессорных систем. На его основе компания планирует выпустить модели процессоров, оптимизированные для ЦОД, искусственного интеллекта (AI), систем автопилота и помощи водителю (ADAS), а также других приложений.

Cortus является одним из первых участников RISC-V Foundation. В предыдущие годы она в основном ориентировалась на встраиваемые решения со сверхнизким энергопотреблением и создание для них комплексного набора инструментов разработчика: IDE, компиляторов, ассемблера, компоновщика, отладчика и трассировщика (с поддержкой профилирования и MC/DC для сертификации безопасности).

Проект eProcessor, координация которого возложена как раз на BSC, создан для формирования полноценной экосистемы RISC-V (аппаратные решения и ПО) с полностью открытым исходным кодом. В рамках проекта планируется разработка высокопроизводительного и энергоэффективного RISC-V процессора (в сочетании с ускорителями и специализированным ПО) для задач HPC, HPDA, ML/DL. Суммарный бюджет проекта составляет почти €8 млрд, из которых половина приходится на финансирование со стороны ЕС.

BSC также занимается проектированием одного из первых европейских суперкомпьютеров экзафлопсного класса на основе чипов RISC-V при финансировании EuroHPC в размере €1,2 млрд. Работы планируется завершить к 2024 году. Вокруг BSC уже сформировалась небольшая группа компаний по разработки чипов RISC-V. Это, в частности, Esperanto Technologies, создающая ускорители, и SiFive, разработавшая серийно выпускаемые микропроцессоры Freedom U740. В активе BSC есть и экспериментальный чип Lagarto.

В ЕС также работает консорциум European Processor Initiative (EPI), созданный для разработки и внедрения европейских чипов в различных областях — от встраиваемых компьютеров до серверов. Работу над RISC-V процессором непосредственно для европейских суперкомпьютеров в 2020 г. начала компания Silicon Pearl (SiPearl). Правда, сейчас компания готовит первый HPC-процессор Rhea на базе ARM. EPI же завершил создание первых тестовых HPC-ускорителей EPAC 1.0 на базе RISC-V.

Постоянный URL: http://servernews.ru/1041988
15.06.2021 [12:23], Алексей Степин

Третье поколение платформы Intel Xeon Scalable: технологии, способные удивлять

Третье поколение Intel® Xeon® Scalable включает сразу два семейства процессоров под кодовыми именами Cooper Lake-SP и Ice Lake-SP. Но если первое создано для построения многосокетных систем и ориентировано, в первую очередь, на специфичные бизнес-задачи, то Ice Lake-SP ориентированы на массовые двухсокетные платформы и являются поистине универсальными решениями, охватывающими весь спектр возможных применений — от Edge до HPC.

Как уже рассказывалось в нашем обзоре, Xeon Ice Lake-SP в техническом отношении намного превосходят Xeon Scalable второго поколения (Cascade Lake-SP), хотя и уступают в ряде моментов конкурирующим EPYC Milan. Максимальное количество ядер в Ice Lake-SP выросло со 28 до 40, а благодаря новому техпроцессу возрос частотный потенциал: так, например, 32-ядерные Xeon Gold 6300 могут работать на частоте до 3,6 ГГц для всех ядер.

Все процессоры Ice Lake-SP получили по два блока обработки инструкций AVX-512, а их набор был в очередной раз дополнен: новые расширения призваны оптимизировать работу с базами данных, (де-)компрессией, и шифрованием. Сохранена поддержка расширений Intel® DL Boost для задач ИИ. Также переработана схема управления питанием и частотами, так что Ice Lake-SP могут претендовать на звание лидера и в плане времени отклика при изменении нагрузки.

Новые процессоры получили восьмиканальный контроллер памяти DDR4-3200, который также поддерживает модули Intel® Optane™ PMem 200 второго поколения. Это позволяет не только гибко сконфигурировать подсистему памяти, но и получить рекордные 6 Тбайт памяти на сокет, что на текущий момент недоступно никаким другим CPU. Наконец, новинки получили и полноценную поддержку PCI Express 4.0 — каждый Ice Lake-SP имеет 64 линии PCIe 4.0, что в типовых двухсокетных платформах даёт 128 линий для подключения самых современных ускорителей, накопителей, адаптеров и контроллеров.

Ассортимент Intel Xeon Ice Lake-SP довольно богат. В нём присутствуют модели процессоров, оптимизированные для достижения максимальной производительности на ядро, версии для облачных систем или обработки мультимедийной информации, варианты для сетевых приложений, а также модели, рассчитанные на предельно долгий срок эксплуатации или изначально предназначенные для использования жидкостного охлаждения.

Отдельно стоит отметить новые решения в области защиты данных. Так, появилась поддержка полного шифрования DRAM, а область применения защищённых анклавов вычислений SGX (технология Intel® Software Guard Extensions) в новых процессорах существенно расширена — объём анклавов может достигать 512 Гбайт в некоторых моделях. Что в сочетании с технологией DL Boost позволяет, к примеру, работать с федеративным обучением ИИ-моделей.

Что не менее важно, Intel в составе платформы Ice Lake-SP предлагает заказчикам гибкие, модульные и конфигурируемые под задачу решения. Третье поколение Xeon Scalable не просто позволяет выбрать наиболее подходящий процессор, но и сконфигурировать подсистему памяти (с использованием или без использования Optane), дооснастить платформу SSD-накопителями и сетевыми контроллерами Intel, а также различными ускорителями на базе Habana, Xe или FPGA.

Эта гибкость Ice Lake-SP не прошла незамеченной мимо крупных игроков на рынке HPC и серверного оборудования: так, российский HPC-разработчик, компания РСК, уже использует новую платформу Intel в своих суперкомпьютерных решениях «РСК Торнадо», что позволило поднять их производительность почти на 40% в пересчёте на стойку.

Новинка уже опробована многими российскими научными организациями: например, при моделировании астрофизических объектов с экстремальным энерговыделением ФТИ им. А.Ф. Иоффе сообщил о 76% приросте производительности, а учёные из ОИЯИ заявили о двукратном росте скорости обработки данных, полученных с Большого Адронного Коллайдера.

А поддержка AVX-512 способна дать ещё больше: к примеру, исследователи ИВМиМГ СО РАН при моделировании процессов звездообразования с помощью нового кода автовекторизации для AVX-512 добились 16-кратного прироста быстродействия в сравнении с классическими ядрами без поддержки 512-бит векторных расширений!

В случае правильной оптимизации под AVX-512 выигрыш может быть очень солидным

В случае правильной оптимизации под AVX-512 выигрыш может быть очень солидным

Надо ли говорить, насколько важна информационная безопасность при разработке алгоритмов машинного обучения, призванных управлять критическими процессами? Российский разработчик систем машинного интеллекта, компания oneFactor, уже объявила об испытании новых ИИ-алгоритмов на новой платформе Intel. Поддержка объёмных анклавов SGX обеспечила аппаратную защищённость обучения моделей, поскольку исполняется оно исключительно в пределах такого анклава.

Компания сообщает, что новая платформа Intel Xeon Scalable позволила повысить качество выявления мошенничества на 20-30%. С помощью Ice Lake-SP и алгоритмов oneFactor банковские системы смогут лучше противостоять всем видам мошенничества, от «телефонного» до попыток несанкционированного получения данных при оформлении кредитных заявок.

Защищённый анклав SGX может работать даже при скомпрометированных BIOS/VMM/SMM

Защищённый анклав SGX может работать даже при скомпрометированных BIOS/VMM/SMM

Эту же особенность новой платформы отмечает и Aggregion, разработчик децентрализованных доверенных систем, которые могут использоваться совместно дружественными компаниями. Любое партнёрство подразумевает обмен данными, и эти данные часто имеют конфиденциальный характер. На старых версиях платформ Xeon доверенность можно было гарантировать лишь для самых небольших объемов данных, что, очевидно, не соответствует реалиям сегодняшнего дня. Но SGX-анклавы в новых CPU избавлены от этого недостатка и очень хорошо подходят для развёртывания ПО Aggregion.

Децентрализованная платформа Aggregion полагается на анклавы SGX (Secured Enclaves на схеме)

Децентрализованная платформа Aggregion полагается на анклавы SGX (Secured Enclaves на схеме)

Другая российская компания, GridGain, специализирующаяся на корпоративных решениях класса in-memory, воспользовалась иными преимуществами Ice Lake-SP — её гибкой подсистемой памяти с поддержкой модулей Optane PMem 200. Известно, что сами по себе модули DCPMM не столь быстры, как обычная DRAM, но намного дешевле. В ряде задач такие гибридные системы практически не уступают чистым DRAM-системам и при этом могут предоставить существенно больший объём для данных, либо будут дешевле при равных объёмах.

Вкупе с поддержкой Intel® AVX-512 это позволило GridGain создать первую в отрасли вычислительную платформу класса in-memory с уникальными характеристиками. Optane PMem 200 отлично подходят для задач машинной аналитики: был достигнут десятикратный прирост в сравнении с обычным хранением данных на SSD Intel DC 4510, а в сочетании с оптимизацией решений GridGain под AVX-512 производительность можно будет поднять ещё на порядок.

Основные составляющие платформы GridGain

Основные составляющие платформы GridGain

В схожем направлении работает компания Memhive. Ядро её решений in-memory составляет СУБД PostgreSQL, оптимизированная с учётом поддержки новых модулей Intel Optane PMem 200. Согласно приведённым данным, использование модулей Optane позволило в 10-15 раз повысить производительность на типовых сценариях OLTP и OLAP, обеспечить нулевую латентность за счёт отказа от традиционного кеширования и на 50% снизить стоимость владения. И, напомним, новые процессоры Xeon Scalable поддерживают расширения, ускоряющие работу с базами данных, так что следует ждать ещё большего выигрыша.

Компания ITV, создатель интеллектуального комплекса видеонаблюдения Axxon Next, также опробовала новую платформу Intel Xeon Scalable. Решения Intel активно использовались ITV и ранее, в частности, ускорители на базе Intel® Movidius™ и программный инструментарий OpenVINO. Третье поколение Xeon Scalable, как более энергоэффективное и производительное, отлично подходит для развёртывания Axxon Next — согласно проведённым тестам, новая микроархитектура позволила на 16% повысить скорость работы нейросетевых алгоритмов обнаружения людей и автомобилей.

Последняя версия Axxon Next 4.5 поддерживает большую часть технологий, предлагаемых Intel, как на уровне сбора и анализа, так и на уровне представления данных. В последнем случае для декодирования видеопотоков используются ресурсы клиентской системы, в том числе Intel Quick Sync Video. Одно из главных новшеств в версии 4.5 — новая нейронная сеть, способная быстро и уверенно распознавать образы в большинстве стандартных ситуаций без проведения дополнительного обучения.

Третье поколение Xeon Scalable можно назвать лидером в гибкости конфигурирования под конкретную задачу

Отметила достоинства новой платформы и Mail.ru Group. Директор по развитию инфраструктуры Mail.ru Group сообщил, что платформа Ice Lake-SP на типичных для Mail.ru нагрузках демонстрирует в 1,5 раза более высокую производительность в сравнении с Xeon Scalable предыдущего поколения. А среди отечественных облачных провайдеров компания Selectel первой предложила клиентам выделенные серверы на базе Ice Lake-SP, причём сразу в нескольких вариантах.

Разумеется, не могли не представить свои решения на базе новой платформы такие гиганты, как Hewlett Packard Enterprise, Lenovo, Dell Technologies и Cisco, а также другие ключевые игроки серверного рынка. Но и российские разработчики не остались в стороне. Так, компания Тринити представила универсальный двухсокетный 2U-сервер E420R-M7, позволяющий гибко сконфигурировать подсистему памяти и хранения данных, а также установить быстрые 100GbE-адаптеры.

Ещё одна отечественная разработка, во многом уникальная — это двухсокетный OCP-сервер Delta Computers Butterfly, который не только предлагает очень гибки возможности по конфигурации системы, но и имеет BIOS/UEFI собственной разработки, а также фирменную прошивку BMC, зарегистрированную в Едином реестре российских программ.

Подробности о новых процессорах Intel Xeon Scalable третьего поколения и успешных историях их внедрения можно найти на сайте Intel.

Постоянный URL: http://servernews.ru/1041350
12.06.2021 [00:03], Игорь Осколков

Серверные процессоры Intel Xeon Sapphire Rapids будут оснащены HBM-памятью

То, что грядущие серверные процессоры Intel Xeon Sapphire Rapids помимо контроллера DDR5 получат ещё и поддержку памяти HBM, уже давно не секрет. Соответствующие изменения в документации для разработчиков были опубликованы ещё в конце прошлого года.

Эти процессоры будут трудиться вместе с укорителями Intel Xe HPC (Ponte Vecchio), причём объединять блоки ускорителей, HBM-память и CPU будет отдельная шина XEMF (XE Memory Fabric) с поддержкой когерентности. AMD тоже воспользуется когерентностью шины Infinity Fabric для связи EPYC и Radeon Instinct. В обоих случаях речь идёт о суперкомпьютерных системах.

И, надо полагать, именно для таких систем будут подготовлены процессоры Xeon Sapphire Rapids с набортной HBM-памятью. На это прямо указывают свежие патчи Intel для ядра Linux, на которые обратил внимание ресурс Phoronix. Патчи относятся к драйверу EDAC (Error Detection And Correction, выявление и коррекция ошибок). В них же содержится упоминание SoC Ice Lake Neural Network Processor for Deep Learning Inference (ICL-NNPI) — Intel Nervana NNP-I (Spring Hill).

Постоянный URL: http://servernews.ru/1041828
11.06.2021 [17:40], Андрей Галадей

openSUSE стремится улучшить поддержку процессорных архитектур с инициативой FrontRunner

openSUSE поделилась подробностями об инициативе FrontRunner, которая направлена на улучшение аппаратной поддержки в SUSE Linux Enterprise (SLE) и openSUSE. Она входит в общий проект openSUSE Leap и должна обеспечить максимально быстрое внедрение поддержки новых процессорных архитектур в дистрибутивы.

Помимо этого, в рамках инициативы планируется исправлять проблемы, возникающие в старых версиях openSUSE, которые могут не работать с новыми процессорами. На данный момент, к примеру, идёт работа по улучшению поддержки оборудования ARMv7. Отметим, что FrontRunner — это подпроект системы Open Build Service, который, в свою очередь, относится к инициативе openSUSE Step.

FrontRunner будет площадкой для отладки и поможет наладить связь между разработчиками SUSE и openSUSE, а наработки, полученные в рамках этой инициативы, в конце концов, попадут и в очередной Service Pack для SLES, и в openSUSE Leap. Напомним, что теперь эти дистрибутивы имеют общую кодовую базу.

Постоянный URL: http://servernews.ru/1041767
02.06.2021 [19:14], Игорь Осколков

Южная Корея намерена разработать собственные CPU и ИИ-чипы для суперкомпьютеров и серверов

Южная Корея намерена добиться большей независимости в сфере разработки и производства чипов для серверов и суперкомпьютеров, в первую очередь для нужд внутри страны. По сообщению Министерства науки и ИКТ Южной Кореи, пять гиперскейлеров подписали меморандум о взаимопонимании с пятью производителями микросхем.

Меморандум предполагает расширение использования отечественных технологий, в частности, ИИ-ускорителей в центрах обработки данных на территории страны. Производители и разработчики чипов — SK Group, Rebellions, FuriosaAI и Исследовательский институт электроники и телекоммуникаций — также согласились создать для этого новый технологический центр в Кванджу на юго-западе страны.

Отечественные чипы получат компании Naver Cloud, Douzone Bizon, Kakao Enterprise, NHN и KT. Все они являются крупными игроками на местном рынке и, каждая в своей области, довольно успешно конкурируют с зарубежными IT-гигантами. Это во многом напоминает ситуацию в Китае и Японии, которые также имеют сильных локальных игроков и вкладываются в разработку собственной микроэлектроники, чтобы быть менее зависимыми от США, как минимум, в области суперкомпьютинга.

Несколько недель назад правительство объявило о пакете поддержки в размере 510 трлн вон ($451 млрд) для увеличения производства микросхем в стране, что принесёт пользу не только Samsung и SK Hynix, но и небольшим компаниям. Также ранее сообщалось, что Южная Корея намерена к 2030 году построить суперкомпьютер экзафлопсного класса на базе преимущественно «домашних» компонентов.

Постоянный URL: http://servernews.ru/1041074
20.05.2021 [15:48], Алексей Степин

Ampere готовит 128-ядерный Arm-процессор Altra на базе 5-нм ядер Siryn собственного дизайна

Компания Ampere успешно дебютировала на рынке серверных процессоров с архитектурой ARM. Ещё в начале года 80-ядерная платформа Altra показала очень достойные результаты, сопоставимые в ряде задач с показателями одно- и двухсокетных платформ AMD EPYC 7742.

Позднее были опубликованы новые платы Ampere, в которых говорилось о том, что уже в этом году компания намеревается нарастить количество ядер на чип с 80 до 128, чего пока не могут сделать ни Intel, ни AMD. А долговременные планы Ampere ещё амбициознее.

Стоит напомнить, что имя Ampere — очень молодое по меркам ИТ. Компания основана в 2017 году бывшим президентом Intel Рене Джеймс (Renée J. James), а солидный костяк новоиспечённой Ampere также составили инженеры-выходцы из Intel. Вскоре были приобретены активы AppliedMicro, включая наработки по процессору X-Gene, но успех к Ampere пришёл с реализацией процессора на базе ядер ARM Neoverse.

Чипы Altra Quicksilver, в отличие от похожих процессоров AWS серии Graviton, существуют не только в составе специализированных систем, купить которые постороннему практически невозможно. Это полноценная платформа со своим разъёмом LGA 4926, существуют её реализации как с одним, так и с двумя процессорными гнёздами.

В числе преимуществ платформы Ampere Altra можно назвать не только высокую эффективность и низкий, в сравнении с x86, уровень энергопотребления. Производительность платформы более предсказуема, поскольку процессоры Quicksilver практически не «жонглируют» своими тактовыми частотами, удерживая её возле номинального значения.

Но Quicksilver — не пик развития процессоров Ampere. Как стало известно, новое поколение процессоров Ampere Altra получит кодовое имя Mystique. Тестовые образцы должны появиться уже в течение ближайших месяцев, а полноценный релиз состоится в этом году.

В основе по-прежнему лежит дизайн ядер Neoverse N1, но за счёт оптимизаций в прежний теплопакет 250 Ватт удалось уложить уже не 80, а 128 ядер. Это вдвое больше, нежели у флагманских AMD EPYC; хотя последние и поддерживают SMT, но у Mystique речь идёт о полноценных ядрах, что в ряде задач может оказаться эффективнее. Модельный ряд возглавит процессор Altra Max M128-30, то есть, тактовая частота всё-таки несколько снизится в сравнении с текущей топовой моделью Q80-33 (3,0 против 3,3 ГГц).

Компания намеревается и дальше развивать тему «предсказуемой производительности». Однако главная новость куда любопытнее: Ampere не собирается и дальше пользоваться только наработками ARM. Следующее за Mystique поколение процессоров, известное сейчас под кодовым именем Siryn, будет базироваться на ARM-ядрах собственной разработки. И появиться новые процессоры должны уже в 2022 году. Они могут получить более 128 ядер и будут использовать 5-нм техпроцесс.

Объясняется такое решение стремлением сделать новые процессоры более эффективными в условиях современных ЦОД (в первую очередь, облаков и гиперскейлеров), как в отношении производительности, так и потребления энергии. В рамках собственного дизайна возможна более тонкая оптимизация ядра. И у Ampere есть все шансы, если даже со стандартным Neoverse N1 она смогла на 60% увеличить количество ядер при неизменном уровне тепловыделения. Пока деталей о дизайне ядер Siryn компания не раскрывает, но, судя по всему, он практически закончен и в настоящее время разработчики «наносят последние штрихи».

Как бы ни были хороши процессоры Ampere, но без клиентской базы новая платформа не получит широкого распространения. И здесь компании тоже есть чем похвастаться. Если ранее из крупных имён, решивших опробовать серверную платформу Ampere Quicksilver, можно было назвать Oracle, которая когда-то инвестировала в компанию, то сейчас уже заявлено о партнёрстве с такими китайскими гигантами, как ByteDance и TencentCloud.

Кроме того, среди клиентов Ampere названы Cloudflare и Microsoft. Последняя уступает в сфере облачных услуг только AWS. Поскольку у AWS есть собственная ARM-платформа, решение Microsoft о сотрудничестве с Ampere выглядит более чем обоснованно — от такого союза должны выиграть оба его участника, даже несмотря на слухи о разработке Microsoft собственного серверного ARM-процессора.

Что не менее важно, вокруг Ampere Altra постепенно создаётся программно-аппаратная экосистема. Например, NVIDIA анонсировала набор для разработки HPC-решений на базе Ampere Altra и собственных GPU, а VMware добавила поддержку Altra для экспериментальной Arm-версии ESXi.

Постоянный URL: http://servernews.ru/1040058
10.05.2021 [20:18], Владимир Мироненко

Loft Orbital создаст процессор для периферийных вычислений в космосе

Стартап из Сан-Франциско (США) Loft Orbital сообщил о заключении очередного контракта с Космическими силами США на разработку процессора, который позволит выполнять периферийные вычисления на борту военных спутников. Согласно данным ресурса SpaceNews, на этот раз компания получит финансирование на общую сумму $1,5 млн: $750 тыс. от государства и ещё $750 тыс. от частных фондов.

Процессор будет поддерживать выполнение не слишком «тяжёлых» периферийных вычислений: обработка данных датчиков и телеметрии, обеспечение автономности миссии, самозащита спутников. Компания также занимается разработкой ПО на базе машинного обучения для автономного обнаружения, идентификации и смягчения киберугроз на борту космического аппарата.

«Процессор позволит отдельным спутникам действовать как вычислительные узлы в mesh-сети из других спутников, наземных станций и облачных центров обработки данных, но при этом сможет работать изолированно и автономно в условиях, когда коммуникационные каналы перегружены или недоступны», — сообщили в компании. Бортовые вычисления позволяют спутникам обрабатывать данные, которые они собирают, выполнять задачи и принимать автономные решения быстрее, чем если бы информация отправлялась для обработки на сервер на Земле.

Loft Orbital планирует предложить Космическим силам полный пакет «космической инфраструктуры как услуги». Компания будет отправлять полезные нагрузки правительственных заказчиков в космос на борту своих спутников, а правительство будет использовать периферийную вычислительную среду для запуска приложений и анализа данных о погоде или дистанционного зондирования.

Постоянный URL: http://servernews.ru/1039230
27.04.2021 [22:45], Владимир Фетисов

Arm раскрыла больше деталей о серверных платформах Neoverse V1 и Neoverse N2

Компания Arm опубликовала больше информации касательно производительности своих новых серверных решений семейства Neoverse, анонс которых состоялся осенью прошлого года. Согласно опубликованным данным, чипы Neoverse V1 и Neoverse N2 обеспечивают на 40-50 % более высокую производительность по сравнению с решениями предыдущего поколения.

Требования к рабочим нагрузкам центров обработки данных и потребляемому интернет-трафику растут в геометрической прогрессии, поэтому необходимы новые аппаратные решения, способные удовлетворить растущие потребности при одновременном снижении уровня энергопотребления. По мнению Arm, её новые серверные платформы отвечают современным требованиям в плане производительности и энергопотребления.

Neoverse V1 представляет собой серверную платформу, которая подходит для использования в крупных центрах обработки данных. Решение поддерживает векторные инструкции Scalable Vector Extension (SVE) и обеспечивает до 50 % более высокую производительность по части машинного обучения, по сравнению с решениями предыдущего поколения. Помимо прочего, V1 поддерживает формат bfloat16, который является актуальным для нейронных сетей.

Платформа Neoverse N2 построена на базе архитектуры ARMv9, которая была анонсирована не так давно. Она способна обеспечить до 40 % более высокую производительность для разных типов рабочих нагрузок. «Я думаю, что N2 приятно удивит разработчиков тем, насколько производительными будут проекты с однопоточным дизайном. V1 выглядит хорошим стартом на нишевом рынке высокопроизводительных вычислений. В целом Arm усиливает свои позиции на рынке», — заявил Патрик Мурхед (Patrick Moorhead), аналитик компании Moor Insights & Strategy.

Постоянный URL: http://servernews.ru/1038317
15.04.2021 [23:16], Владимир Мироненко

РосСХД разработает системы хранения данных на базе российских Arm-процессоров «Байкал»

В Консорциуме российских разработчиков систем хранения данных РосСХД появился новый участник — отечественный производитель высокоинтегрированных процессорных систем «Байкал Электроникс». В связи с этим участники РосСХД запланировали разработку новой серии систем хранения данных на базе процессоров «Байкал».

Как ожидается, объединение усилий российских разработчиков производителей программного и аппаратного обеспечения позволит создать продукт высокого уровня — как по производительности и функциональности, так и исходя из конкурентоспособности цены и гарантий.

Среди разработок «Байкал Электроникс» — отечественные системы на кристалле на базе как архитектуры MIPS (процессор BE-T1000), так и ARM v8 (модель BE-M1000). Её продукция используется в коммуникационной инфраструктуре, сетевых накопителях данных, системах безопасности и управления зданиями, а также на офисах. Во второй половине этого года на рынке появится 48-ядерный ARM-процессор серверного класса (модель BE-S1000), что станет следующим этапом эффективного импортозамещения вычислительной техники.

Использование архитектуры ARM позволило «Байкал Электроникс» создать обширную экосистему системного и прикладного программного обеспечения, что значительно облегчает задачу перехода на российские аппаратные платформы. По словам Виталия Богданова, директора по развитию бизнеса «Байкал Электроникс», РосСХД является действенным инструментом реализации импортозамещения в сегменте решений для хранения данных, поэтому совместными усилиями можно будет построить партнёрскую экосистему и максимально быстро представить решения для конечных клиентов.

Постоянный URL: http://servernews.ru/1037469
12.04.2021 [19:26], Игорь Осколков

NVIDIA анонсировала серверные Arm-процессоры Grace и будущие суперкомпьютеры на их базе

В рамках GTC’21 NVIDIA анонсировала Arm-процессоры Grace серверного класса, которые станут компаньонами будущих ускорителей компании. Это не означает полный отказ от x86-64, но это позволит компании предложить клиентам более глубоко оптимизированные, а, значит, и более быстрые решения. NVIDIA говорит, что новый CPU позволит на порядок повысить производительность систем на его основе в ИИ и HPC-задачах в сравнении с современными решениями.

Процессор назван в честь Грейс Хоппер (Grace Hopper), одного из пионеров информатики и создательницы целого ряда основополагающих концепций и инструментов программирования. И это имя нам уже встречалось в контексте NVIDIA — в конце 2019 года компания зарегистрировала торговую марку Hopper для MCM-решений.

Компания не готова раскрыть полные технически характеристики новинки, которая станет доступна в начале 2023 года, но приводит некоторые интересные детали. В частности, процессор будет использовать Arm-ядра Neoverse следующего поколения (надо полагать, уже на базе ARMv9),  которые позволят получить в SPECrate2017_int_base результат выше 300. Для сравнения — система с парой современных AMD EPYC 7763 в том же бенчмарке показывает результат на уровне 800.

Вторая особенность Grace — использование памяти LPDRR5X (с ECC, естественно). В сравнении с DDR4 она будет иметь вдвое большую пропускную способность (ПСП) и в 10 раз меньшее энергопотребление. Число и скорость каналов памяти не уточняются, но говорится о суммарной ПСП в более чем 500 Гбайт/с на процессор. А у того же EPYC 7763 теоретический пик ПСП чуть больше 200 Гбайт/с. Очевидно, что другие процессоры к моменту выхода NVIDIA Grace тоже увеличат и производительность, и пропускную способность памяти. Гораздо более интересный вопрос, сколько линий PCIe 5.0 они смогут предложить. Если допустить, что у них будет 128 линий, то общая скорость для них составит чуть больше 500 Гбайт/с.

И NVIDIA этого мало — процессоры Grace получат прямое, кеш-когерентное подключение к GPU по NVLInk 4.0 (14x) с суммарной пропускной способностью боле 900 Гбайт/с. GPU тоже, как и прежде, будут общаться напрямую друг с другом по NVLink. Скорость связи между двумя CPU превысит 600 Гбайт/с, а в сборке из четырёх модулей CPU+GPU суммарная скорость обмена данными между системной памятью процессоров и GPU в такой mesh-сети составит 2 Тбайт/с. Но самое интересное тут то, что у памяти CPU (LPDDR5X) и GPU (HBM2e) в такой системе будет единое адресное пространство. Собственно говоря, таким образом компания решает давно назревшую проблему дисбаланса между скоростью обмена данными и доступным объёмом памяти в различных частях вычислительного комплекса.

Для сравнения можно посмотреть на архитектуру нынешних DGX A100 или HGX. У каждого ускорителя A100 есть 40 или 80 Гбайт набортной памяти HBM2e (1555 или 2039 Гбайт/с соответственно) и NVLInk-подключение на 600 Гбайт/c, которое идёт к коммутатору NVSwitch, имеющего суммарную пропускную способность 1,8 Тбайт/с. Всего таких коммутаторов шесть, а объединяют они восемь ускорителей. Внутри этой NVLInk-фабрики сохраняется достаточно высокая скорость обмена данными, но как только мы выходим за её пределы, ситуация меняется.

Схема NVIDIA DGX A100. Источник: Microway

Схема NVIDIA DGX A100. Источник: Microway

Каждый ускоритель A100 имеет второй интерфейс — PCIe 4.0 x16 (64 Гбайт/с), который уходит к PCIe-коммутатору, каковых в DGX A100 имеется четыре. Коммутаторы, в свою очередь, объединяют между собой сетевые 200GbE-адаптеры (суммарно в дуплексе до 1,6 Тбайт/с для связи с другими DGX A100), NVMe-накопители и CPU. У каждого CPU может быть довольно много памяти (от 512 Гбайт), но её скорость ограничена упомянутыми выше 200 Гбайт/c.

Узким местом во всей этой схеме является как раз PCIe, поэтому переход исключительно на NVLInk позволит NVIDIA получить большой объём памяти при сохранении приемлемой ПСП, не тратясь лишний раз на дорогую локальную HBM2e у каждого GPU. Впрочем, если компания не переведёт на NVLink и собственные будущие DPU Bluefield-3 (400GbE), которые будут скармливать связке CPU+GPU по, например, GPUDirect Storage данные из внешних NVMe-oF хранилищ и объединять узлы DGX POD, то PCIe 5.0 в составе Grace стоит ждать. Это опять-таки упростит и повысит эффективность масштабирования.

В целом, всё это необходимо из-за быстрого роста объёма ИИ-моделей — в GPT-3 уже 175 млрд параметров, а в течение пары лет можно ожидать модели уже с 0,5-1 трлн параметров. Им потребуются не только новые решения для обучения, но и для инференса. То же касается и физических расчётов — модели становятся всё больше и требовательнее + ИИ здесь тоже активно внедряется. Параллельно с разработкой Grace NVIDIA развивает программную экосистему вокруг Arm и своих решений, готовя почву для будущих систем на их основе.

Одной из такой систем станет суперкомпьютер Alps в Швейцарском национальном компьютерном центре (Swiss National Computing Centre, CSCS), который придёт на смену Piz Daint (12 место в нынешнем рейтинге TOP500). Этот суперкомпьютер серии HPE Cray EX, в частности, сможет в семь раз быстрее обучить модель GPT-3, чем машина NVIDIA Selene (5 место в TOP500). Впрочем, на нём будут выполняться и классические HPC-задачи в области метеорологии, физики, химии, биологии, экономики и так далее. Ввод в эксплуатацию намечен на 2023 год. Тогда же в США появится аналогичная машина от HPE в Лос-Аламосской национальной лаборатории (LANL). Она дополнит систему Crossroads, использующую исключительно процессоры Intel Xeon Sapphire Rapids.

Постоянный URL: http://servernews.ru/1037136
Система Orphus