Материалы по тегу: xilinx

03.08.2022 [19:31], Владимир Мироненко

Процессоры EPYC обеспечили рост выручки AMD в сегменте ЦОД

Компания AMD подвела итоги работы во II квартале 2022 года. Выручка компании составила $6,55 млрд, что на 70 % больше показателя аналогичного периода прошлого года.

AMD сообщила, что выручка сегмента центров обработки данных составила $1,5 млрд, что на 83 % больше по сравнению с прошлым годом. В основном это стало возможным благодаря высоким продажам серверных процессоров EPYC. Операционная прибыль сегмента ЦОД составила $472 млн, или 32 % от выручки, что более чем в два раза превышает результат предыдущего года, равный $204 млн (25 % выручки). Увеличение операционной прибыли связано с более высокой выручкой.

 Изображения: AMD

Изображения: AMD

AMD прогнозирует высокий спрос на чипы EPYC и в дальнейшем. Облачные провайдеры оценили возможности грядущих серверных 5-нм процессоров AMD EPYC Genoa (анонс в этом квартале) и уже готовы размещать на них заказы. AMD намерена в первую очередь сосредоточиться на крупномасштабных облачных и крупносерийных корпоративных поставках чипов. Компания прогнозирует длительный период параллельного выпуска чипов текущего поколения чипов Milan и следующего поколения Genoa.

Следует отметить, что предложения AMD на данный момент отчасти ограничены из-за отсутствия компонентов — от сетевых адаптеров до блоков питания — для постройки полных систем. Следовательно, расширение ассортимента и рост продаж в сегменте ЦОД можно будет наблюдать по мере улучшения ситуации на этих рынках.

В сегменте встраиваемых решений AMD продажи составили $1,3 млрд, превысив результат прошлого года на 2228 % — всё благодаря включению доходов Xilinx, поглощение которой было завершено в I квартале. Операционная прибыль от продаж встраиваемых решений составила $641 млн или 51 % выручки, тогда как год назад этот показатель был равен $6 млн (11 % выручки). При этом, как сообщается, AMD улучшила цепочку поставок Xilinx, благодаря чему выручка подразделения выросла на 20 % по сравнению с предыдущим кварталом.

Постоянный URL: http://www.servernews.ru/1071489
21.07.2022 [18:16], Алексей Степин

Samsung представила второе поколение «вычислительных» SmartSSD с FPGA Xilinx на борту

Идея «умных» накопителей не нова и довольно очевидна — накопители можно дополнить чипами, которые могут взять на себя первичную обработку данных непосредственно на месте их хранения, например, обслуживая рутинные операции с базами данных или (де-)компрессию на лету и без загрузки CPU хост-системы.

Samsung Electronics экспериментирует с данной технологией давно: компания демонстрировала прототипы «вычислительных SSD» ещё на SC18, а в 2020 году уже представила коммерческие накопители SmartSSD, оснащённые мощной ПЛИС Xilinx Kintex, дополненной 4 Гбайт оперативной памяти. Но пришло время двигаться дальше и сегодня компания анонсировала новое поколение накопителей.

 Источник: Samsung Electronics

Источник: Samsung Electronics

Во втором поколении SmartSSD компания-разработчик сменила FPGA Kintex на более универсальную и производительную платформу Versal. Сама AMD Xilinx называет эти чипы «адаптивной платформой ускорения вычислений», поскольку в них имеются блоки практически на любой случай, от классической ПЛИС до ядер Arm Cortex-A и R, а также DSP и криптодвижки.

 Источник: Samsung Electronics

Источник: Samsung Electronics

По словам Samsung, новые накопители обрабатывают «тяжёлые» запросы к БД на 50 % быстрее традиционных серверных SSD, при этом они на 70 % экономичнее, а выигрыш по нагрузке на CPU сервера составляет и вовсе 97 %, поскольку основную работу берёт на себя Versal. Главной областью применения SmartSSD нового поколения Samsung видит рынок машинного обучения и сетей пятого и шестого поколений, как требующий активной обработки больших объёмов данных.

Постоянный URL: http://www.servernews.ru/1070601
14.06.2022 [18:51], Алексей Степин

AMD запланировала массированное наступление на рынок машинного обучения и ИИ

C момента анонса архитектуры Zen и появления процессоров EPYC можно отсчитывать начало возвращения AMD на серверный рынок и в сферу HPC. Многие владельцы ЦОД и проектировщики суперкомпьютеров всё чаще выбирают AMD, но компания также стремится упрочнить свои позиции и на рынке систем машинного интеллекта, где долгое время доминирует NVIDIA со своей экосистемой CUDA.

Причём речь идёт о завоевании всех сегментов, от сферы периферийных вычислений до крупных облачных систем, для чего в распоряжении компании уже есть «нужный кремний и программное обеспечение». Именно такое заявление «красные» сделали на мероприятии Financial Analyst Day 2022. Глава AMD, Лиза Су (Lisa Su) отметила, что предстоит много работы, но открывающиеся перспективы роста того стоят. Наступление уже началось: отмечается интерес к процессорам EPYC для применения в инференс-системах и ускорителей Instinct для обучения нейросетей.

Охват рынка ИИ-систем и машинного обучения решениями AMD. Источник: AMD

С Instinct всё понятно, на сегодня это один из мощнейших ускорителей в отношении «чистой» производительности, а вот EPYC добились серьёзного прироста скорости исполнения инференс-нагрузок во многом благодаря благодаря библиотеке ZenDNN (Zen Deep Neural Network). Эта библиотека тесно интегрирована с популярными фреймворками TensorFlow, PyTorch и ONNXRT.

Она поддерживается процессорами EPYC, начиная со второго поколения, но компания пойдет и дальше в деле внедрения элементов ИИ в новые поколения процессоров на аппаратном уровне. Речь, в том числе, идёт о поддержке AVX-512 VNNI, которая появится в EPYC Genoa и Ryzen 7000. Ранее поддержкой таких инструкций могли похвастаться только процессоры Intel, которая активно вкладывалась в развитие ПО в течение нескольких лет.

 Адаптивная архитектура XDNA. Источник: AMD

Адаптивная архитектура XDNA. Источник: AMD

Другой путь заключается в использовании чиплетов на базе блоков Xilinx. Эта инициатива получила название адаптивной архитектуры XDNA. Нужны блоки появились ещё в серии Versal в 2018 году, а сейчас AMD намеревается снабдить аналогичным ИИ-движком ноутбучные Ryzen: Phoenix Point (2023 год) и Strix Point (2024 год). Эта же технология появится в EPYC, но точные сроки пока не оговорены, зато сообщается, что чипы с архитектурой Zen 5 c новыми оптимизациями для машинного обучения дебютируют в 2024 году.

На этом планы относительно портфолио Xilinx не заканчиваются. Решения на базе матриц Zynq давно и активно применяются в индустрии, здравоохранении, транспортных системах и «умных» производствах. Это же относится к рынку телекоммуникаций, использующему Xilinx Versal и облачным ЦОД, где довольно широко применяются ускорители Alveo и ПЛИС Kintex. И AMD ни в коем случае не собирается покидать эти секторы рынка.

Сферы и отрасли, потребности которых могут покрываться решениями AMD. Источник: AMD

Компания также активно готовит почву к пришествию своего первого серверного APU Instinct MI300. Так, пакет ROCm получил оптимизации для сценариев обучения и инференса в PyTorch и TensorFlow, и он же теперь может работать на потребительских моделях Radeon с архитектурой RDNA. AMD также разрабатывает SDK с предварительно оптимизированными моделями, что упростит разработку и внедрение ИИ-приложений.

Можно сказать, что охват рынка искусственного интеллекта и машинного обучения у AMD будет держаться на трёх китах: процессорах Ryzen и EPYC для моделей малых и средних объёмов; будущих EPYC с ИИ-блоками и ускорителях на базе Radeon и Versal для средних и больших моделей; ускорителях и APU Instinct вкупе с адаптивными чипами Xilinx для моделей большого и сверхбольшого размера.

Консолидация всех технологий ИИ, имеющихся у AMD, в единый программный стек. Источник: AMD

А для лучшей консолидации AMD активно объединяет в единый массив ранее независимые средства ПО для всех типов вычислителей. В этом она активно сотрудничает с другими компаниями, включая таких гигантов, как Microsoft и Meta. Концепция Unified AI Stack будет развиваться и в дальнейшем, включая всё новые и новые компоненты, так что в итоге разработчику систем машинного интеллекта можно будет использовать единый набор инструментов, поддерживающий все ИИ-технологии AMD. В том же направлении движется и Intel со своей инициативой oneAPI.

Постоянный URL: http://www.servernews.ru/1068024
10.06.2022 [23:31], Алексей Степин

Решения Xilinx и Pensando помогут AMD завоевать рынок ЦОД

О грядущих серверных APU MI300, сочетающих архитектуры Zen 4 и CDNA 3, и сразу нескольких сериях процессоров EPYC мы уже рассказали, но на мероприятии Financial Analyst Day 2022 компания поделилась и другими планами относительно серверного рынка, которые весьма обширны. Они включают в себя использование разработок и технологий Xilinx и Pensando.

Фактически AMD теперь владеет полным портфолио аппаратных решений для ЦОД и рынка HPC: процессорами EPYC, ускорителями Instinct, SmartNIC и DPU на базе чипов Xilinx и Pensando и, наконец, FPGA всё той же Xilinx. Долгосрочные перспективы рынка ЦОД AMD оценивает в $125 млрд, из них на долю ускорителей приходится $64 млрд, а классические процессоры занимают лишь второе место с $42 млрд; остальное приходится на DPU, SmartNIC и FPGA.

 Источник: AMD

Источник: AMD

Теперь у AMD есть полный спектр «умных» сетевых решений практически для любой задачи, включая сценарии, требующие сверхнизкой латентности. Эту роль берут на себя адаптеры Solarflare. Более универсальные ускорители Xilix Alveo обеспечат поддержку кастомных сетевых функций и блоков ускорения, а также высокую производительность обработки пакетов. Ускорители могут быть перепрограммированы, что потенциально позволит существенно оптимизировать затраты на сетевую инфраструктуру крупных ЦОД.

 Источник: AMD

Источник: AMD

Гиперскейлерам они уже поставляются, в текущем виде они имеют до двух 200GbE-портов и совокупную скорость обработки до 400 млн пакетов в секунду. Следующее поколение должно увидеть свет в 2024 году, здесь AMD придерживается двухгодичного цикла. Выпускается и 7-нм DPU Pensando Elba, также предоставляющий пару 200GbE-портов. В отличие от Alveo, это более узкоспециализированное устройство, содержащее 144 P4-программируемых пакетных движка. Помимо них имеются выделенные аппаратные движки ускорения криптографии и сжатия/декомпрессии данных.

Уникальный программно-аппаратный стек Pensando, унаследованный AMD, обеспечивает ряд интересных возможностей, востребованных в крупных системах виртуализации на базе ПО VMware — например, полноценную поддержку виртуализации NVMe, поддержку NVMe-oF/RDMA, в том числе и NVMe/TCP, а также полноценное шифрование и туннели IPSec на полной линейной скорости 100 Гбит/с с временем отклика 3 мкс и джиттером в районе 35 нс.

Источник: AMD

Разработки Pensando уже используются такими крупными поставщиками сетевого оборудования и СХД, как Aruba (коммутаторы с DPU) и NetApp (системы хранения данных). Таким образом, AMD вполне вправе говорить о том, что современный высокопроизводительный ЦОД может быть целиком построен на базе технологий компании, от процессоров и ускорителей до интерконнекта и специфических акселераторов.

Современный безопасный ЦОД может быть целиком построен на базе технологий AMD. Источник: AMD

Поддержка доверенных вычислений, включая полное шифрование содержимого памяти делает такие ЦОД и более безопасными, что немаловажно в современном мире, полном кибер-угроз. В том же направлении движутся NVIDIA BlueField и Intel IPU, а также целый ряд других игроков.

Постоянный URL: http://www.servernews.ru/1067763
07.06.2022 [21:44], Алексей Степин

Arista Networks анонсировала низколатентные коммутаторы 7130LBR и 7130B на базе решений AMD Xilinx и Intel Tofino

Существуют задачи, в которых главным мерилом производительности сети выступает не пропускная способность, а латентность; к таким, например, относится высокочастотный трейдинг. В погоне за неподатливыми наносекундами компания Arista Networks представила новые низколатентные коммутаторы 7130LBR-48S6QD и 7130B-32QD на базе технологий AMD Xilinx и Intel Tofino.

 Источник: Arista Networks

Источник: Arista Networks

Первая модель очень компактна, она занимает в высоту всего 1U, но при этом располагает 48 портами SFP+ и шестью портами QSFP-DD. Фактически& 7130LBR объединяет в себе низколатентный коммутатор L1+, но к нем подключен как классический кремний Broadcom Jericho 2, так и пара высокопроизводительных ПЛИС Xilinx Virtex UltraScale+ (VU9P-3). За точность отвечает тактовый генератор на базе термостабилизированного модуля OCXO. Джиттер практически отсутствует, а латентность во всех 96 линиях 10G не превышает 6 нс.

 Arista 7130LBR и его архитектура. Источник: Arista Networks

Arista 7130LBR и его архитектура. Источник: Arista Networks

Каждая из программируемых матриц имеет по 32 Гбайт памяти DDR4-2400 ECC, что позволяет запускать специализированные приложения, например, MetaMux и MetaWatch (низколатентная агрегация и прецизионные временные отметки). Программное обеспечение хранится на отдельном твердотельном накопителе объёмом 120 Гбайт, при этом, имеется ещё и вспомогательный управляющий x86-процессор Intel, обеспечивающий работу фирменной операционной системы EOS.

 Arista 7130B: детерминированное время отклика 7 нс, платформа Intel Tofino. Источник: Arista Networks

Arista 7130B: детерминированное время отклика 7 нс, платформа Intel Tofino. Источник: Arista Networks

Модель 7130B крупнее, она занимает в высоту уже 2U, все 32 10G-порта используют форм-фактор QSFP-DD, а в основе платформы лежит P4-программируемый кремний Intel Tofino. Совокупно этот коммутатор может обслуживать 256 портов с латентностью «хост-хост» в районе 7 нс. При этом 7130B использует конвейер, реализованный в серии 7170, с теми же возможностями, включающими инкапсуляцию, трансляцию адресов и балансировку нагрузки. Благодаря гибкости Tofino, дополнительный маршрутизатор не требуется. Здесь также имеется восьмиядерный процессор x86, отвечающий за работу EOS.

 Архитектура Arista 7130B. Источник: Arista Networks

Архитектура Arista 7130B. Источник: Arista Networks

В вариантах платформы Arista 7130, оснащённых программируемыми матрицами Xilinx (в зависимости от моделей, от одной до трёх, в 7130LBR их две) обеспечивается наибольшая гибкость и универсальность — поддерживаются программные модули не только самой Arista, но и сторонних разработчиков программного обеспечения; доступна также полная кастомизация. Новинки позволяют одновременно добиться повышения плотности и гибкости L1-инфраструктуры, которую при желании можно дополнить L2/L3-функциями или же реализовать собственные сценарии обработки трафика.

Не обошлось и без модных облачных технологий. Новые коммутаторы поддерживают поддерживает фирменный стек Arista CloudVision, обеспечивающий удобное управление сетью, включая гибкую оркестрацию нагрузки, автоматизацию рабочих процессов, сбор телеметрии и многое другое. Обеспечена интеграция с программными решениями сторонних разработчиков, что упрощает внедрение сетей на базе Arista 7130 в уже существующую инфраструктуру. Подробности доступны на сайте Arista.

Постоянный URL: http://www.servernews.ru/1067397
04.06.2022 [23:15], Игорь Осколков

AMD выделила учёным и исследователям ещё 7 Пфлопс вычислительных мощностей

AMD объявила о расширении специального фонда HPC Fund, который был создан в 2020 году для помощи в исследованиях коронавируса COVID-19. К уже имеющимся мощностям было добавлено ещё 7 Пфлопс. Таким образом, общая производительность превысила 20 Пфлопс, а рыночная стоимость предоставляемого в бесплатное пользование оборудования составила более $31 млн по состоянию на май этого года.

Теперь в рамках HPC Fund научному сообществу будут доступны не только процессоры AMD EPYC и ускорители Instinct, но и FPGA Xilinx Alveo и Versal ACAP. Обновлённая гетерогенная платформа поможет в исследованиях в таких областях, как изменение климата, здравоохранение, транспорт, Big Data и т.д. AMD предлагает облачный доступ к вычислительным мощностям глобальным университетам и исследовательским институтам, которые могут подать заявку на выделение необходимых ресурсов.

 Изображение: AMD

Изображение: AMD

На сегодняшний день AMD предоставила локальные и облачные вычислительные системы трём десяткам учреждений в восьми странах. Почти 6000 исследователей получили доступ к решениям AMD, в результате чего было опубликовано 55 научных статей, посвящённых различным вопросам — от исследования эффективности вакцинации от COVID-19 до повышения качества диагностики рака молочной железы с помощью методов глубокого обучения.

Постоянный URL: http://www.servernews.ru/1067306
19.05.2022 [19:50], Алексей Степин

Представлен FPGA-модуль AMD Xilinx Kria KR260 для быстрой разработки робототехники

Семейство модулей Xilinx Kria появилось ещё весной прошлого года, позиционировались новинки в качестве платформы для быстрой разработки периферийных (edge) устройств, особенно связанных с системами машинного зрения. Вчера же был представлен новый модуль Kria KR260, предназначенный специально для робототехники. По сравнению с моделью KV260 базовая плата новинки имеет расширенные возможности, особенно в части сетевой подсистемы.

Основой по-прежнему является SoM Kria K26 на базе FPGA Zynq UltraScale+, но в отличие от KV260 новая KR260 имеет не один, а два 240-контактных разъёма. Количество 1GbE-интерфейсов подросло до четырёх, причём два разъёма поддерживают индустриальную версию, а пятый Ethernet-интерфейс (10GbE) выполнен в форм-факторе SFP+. Есть поддержка TSN. Другое важное отличие — поддержка высокоскоростных модулей машинного зрения SLVS-EC (до 860 Мпикс/с) против обычных с интерфейсом MIPI.

 Источник: AMD Xilinx

Источник: AMD Xilinx

Также стоит отметить наличие большого количества разъёмов как для подключения сенсорных систем, например, лидара, так и для силовых ключей, обслуживающих приводы. Платформа реализует полностью предсказуемую внутреннюю сеть, а также может работать в составе кластера из нескольких плат KR260. Имеются развитые аппаратные средства для разгрузки процессоров от вспомогательных задач, вроде планировки движения или объединения сенсоров.

 Характеристики платформы Kria KR260. Источник: AMD Xilinx

Характеристики платформы Kria KR260. Источник: AMD Xilinx

Стоимость новинки довольно высока: сам модуль K26 стоит $300 в базовой версии или $420 в защищённом исполнении (от -40 до +100 °C), а плата KR260 обойдётся ещё в $349. Но это даст покупателю законченную и мощную систему, имеющую массу IO-портов и поддерживающую обработку видео сразу с нескольких HD-камер. Причём для неё уже есть магазин готовых приложений. Похоже, AMD всерьёз нацелилась на рынок робототехнических платформ, где собирается конкурировать с решениями NVIDIA Jetson.

Постоянный URL: http://www.servernews.ru/1066285
13.05.2022 [21:41], Алексей Степин

AMD поможет Meta✴ развернуть открытую 5G-инфраструктуру на базе решений Xilinx

Приобретение активов Xilinx открыло для AMD новые горизонты, порой неожиданные. Так, компания недавно заключила соглашение с Meta, в рамках которого поможет разработать беспроводную 5G-инфраструктуру на базе Open RAN в рамках проекта Evenstar. Сама Meta заинтересована в том, чтобы подключить к проекту свой метавселенной как можно больше пользователей, в том числе и тех, кто не имеет сегодня качественного доступа в Сеть. Сочетание технологий AMD/Xilinx поможет ей в этом начинании.

В арсенале Xilinx как раз есть подходящая FPGA-матрица RFSoC DFE из серии Zynq UltraScale+, которая уже используется в составе ускорителей T1, созданных специально для нужд телеком-индустрии. Эта ПЛИС позволяет реализовать достаточно производительную для поддержи 5G-радиочасти и в то же время гибкую логику, причём в многоканальном режиме. Сейчас у AMD есть полный набор микрочипов и ПЛИС, необходимых для построения универсальных базовых станций 4G/5G.

 Изображение: AMD/Xilinx

Изображение: AMD/Xilinx

Однако это далеко не единственная инициатива Meta в области повышения доступности широкополосного интернета. Помимо крупных инвестиций в подводные и наземные волоконно-оптически линии связи, компания разрабатывает самоорганизующеся 5G-сети Terragraph, которые, в частности, уже появились на Аляске, и развивает проект по созданию автономного робота Bombyx, способного самостоятельно прокладывать оптоволокно по линиям электропередач. Компания сейчас настолько увлечена идеей метавселенной, что даже заявила о необходимости выработки новых стандартов сетевой инфраструктуры ближайшего будущего.

Постоянный URL: http://www.servernews.ru/1065921
04.05.2022 [21:29], Алексей Степин

AMD предложила внедрить в процессоры EPYC ИИ-ускорители на базе FPGA Xilinx

Модульный подход к компоновке процессоров имеет как недостатки, так и преимущества. К первым относится ограниченность межъядерной коммуникации, а ко вторым — возможность легко регулировать количество чиплетов в процессорах, предназначенных для разных сегментов рынка. AMD пошла ещё дальше — теперь чиплеты получили уникальную возможность установки дополнительного кеша сверху основного кристалла (3D V-Cache в Milan-X), а вскоре появятся и чиплеты, включающие не только ядра CPU.

В попытках сделать как можно более универсальный процессор тоже видны два подхода. Intel уповает на инструкции AVX-512, которые получили расширения VNNI для работы с актуальными ИИ-нагрузками. А вскоре к ним добавится ещё и набор AMX. Базовый набор инструкций у AMD не менялся уже достаточно давно, но будущие EPYC вскоре тоже получат возможность работы с ИИ-задачам, как раз благодаря модульной компоновке. Новые патенты AMD говорят о сочетании CPU- и FPGA-чиплетов поглощённой ранее Xilinx в одной SoC.

 Изображения: AMD (via Tom's Hardware)

Изображения: AMD (via Tom's Hardware)

Патенты покрывают два способа интеграции новых кристаллов : либо добавлением нового чиплета по соседству с другими, либо использование 3D-стекинга как в случае с 3D V-Cache. В последнем случае возникают некоторые трудности с теплоотводом при размещении ускорителей непосредственно над CPU-чиплетами, поэтому AMD предлагает устанавливать новые чипы на IO-модуль.

Новые процессоры AMD EPYC, имеющие гетерогенную чиплетную архитектуру должны увидеть свет уже в 2023 году в поколении Zen 4 в виде 5-нм платформ Genoa (до 96 ядер) и Bergamo (128 ядер). И это только начало, ведь ничто не мешает использовать и другие виды чиплетов, от GPU и DPU до специфических DSP и даже ASIC. Впрочем, скорее всего, подобные чипы будут востребованы относительно небольшим числом клиентов или вообще будут создавать на заказ, как это ранее уже произошло с Intel.

Первые гибридные процессоры Xeon с FPGA компании Altera, которую Intel в итоге купила годом позже, были анонсированы ещё в 2014 году. По неофициальным данным, эти чипы создавались для обслуживания и ускорения работы СУБД Oracle. Следующая попытка была предпринята уже в поколении Skylake-SP. Тогда появился чип Intel Xeon Gold 6138P с ПЛИС Arria 10 GX 1150, соединённой с ядрами процессора посредством UPI. Одна из сфер его применение — телекоммуникации.

Постоянный URL: http://www.servernews.ru/1065294

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus