Материалы по тегу: nvidia

15.05.2020 [20:57], Алексей Степин

Atos анонсировала первый суперкомпьютер с ускорителями NVIDIA Ampere

Один из крупнейших и наиболее известных в мире производителей суперкомпьютеров, компания Atos, анонсировала первую систему на базе новейшей графической архитектуры NVIDIA Ampere.

Она будет производиться и поставляться под торговой маркой BullSequana. Машина на основе BullSequana X2415 станет первой в Европе, использующей процессоры NVIDIA A100.

Базовая плата NVIDIA HGX A100, версия с четырьмя ускорителями

Базовая плата NVIDIA HGX A100, версия с четырьмя ускорителями

Вчера NVIDIA представила миру наследницу Turing — микроархитектуру Ampere и первый ускоритель на её основе, A100. Его производительность в традиционных режимах с плавающей запятой составляет 19,5 (FP32) и 9,7 (FP64) Тфлопс, вызывают уважение и показатели на тензорных операциях. Как и V100, A100 является, в первую очередь, вычислительным ускорителем, а не графическим процессором.

Если верить анонсу, вычислительные модули BullSequana X2415 будут более чем вдвое превосходить модели предыдущего поколения, но при этом продемонстрируют более высокую энергоэффективность за счёт применения фирменной жидкостной системы охлаждения DLC (Direct Liquid Cooling).

Машинный зал суперкомпьютера JUWELS

Машинный зал суперкомпьютера JUWELS

Основой новых вычислительных узлов станет плата с двумя процессорами AMD EPYC второго поколения, дополненными 32 Гбайт оперативной памяти. Каждая из ускорительных плат Nvidia HGX A100 получит по четыре ускорителя A100, соединённых между собой шиной NVLink 3.0.

Юлихский исследовательский центр, один из крупнейших научных центров Европы, планирует модернизировать с помощью новых модулей Atos уже имеющийся в его распоряжении суперокомпьютер JUWELS, также произведенный BullSequana. Это сделает JUWELS самым мощным суперкомпьютером на европейском континенте — после модернизации его производительность должна превысить 70 Пфлопс. Система будет использована в ряде научных проектов, включая проект еврокомиссии «Human Brain Project», ей также планируют воспользоваться Юлихские лаборатории климатологии и молекулярных систем.

Nvidia A100, версия NVLink

Nvidia A100, версия NVLink

Массовая доступность BullSequana X2415, насколько этот термин вообще может быть применён к суперкомпьютерам, ожидается во втором квартале текущего года.

Постоянный URL: http://servernews.ru/1011065
14.05.2020 [18:52], Рамис Мубаракшин

NVIDIA представила ускорители A100 с архитектурой Ampere и систему DGX A100 на их основе

NVIDIA официально представила новую архитектуру графических процессоров под названием Ampere, которая является наследницей представленной осенью 2018 года архитектуры Turing. Основные изменения коснулись числа ядер — их теперь стало заметно больше. Кроме того, новинки получили больший объём памяти, поддержку bfloat16, возможность разделения ресурсов (MIG) и новые интерфейсы: PCIe 4.0 и NVLink третьего поколения. 

NVIDIA A100 выполнен по 7-нанометровому техпроцессу и содержит в себе 54 млрд транзисторов на площади 826 мм2. По словам NVIDIA, A100 с архитектурой Ampere позволяют обучать нейросети в 40 раз быстрее, чем Tesla V100 с архитектурой Turing. 

Характеристики A100

Характеристики A100

Первой основанной на ней вычислительной системой стала фирменная DGX A100, состоящая из восьми ускорителей NVIDIA A100 с NVSwitch, имеющих суммарную производительность 5 Пфлопс. Стоимость одной системы DGX A100 равна $199 тыс., они уже начали поставляться некоторым клиентам. Известно, что они будут использоваться в Аргоннской национальной лаборатории для поддержания работы искусственного интеллекта, изучающего COVID-19 и ищущего от него лекарство.

Так как некоторые группы исследователей не могут себе позволить покупку системы DGX A100 из-за ее высокой стоимости, их планируют купить поставщики услуг по облачным вычислений и предоставлять удалённый доступ к высоким мощностям. На данный момент известно о 18 провайдерах, готовых к использованию систем и ускорителей на основе архитектуры Ampere, и среди них есть Google, Microsoft и Amazon.

Система NVIDIA DGX A100

Система NVIDIA DGX A100

Помимо системы DGX A100, компания NVIDIA анонсировала ускорители NVIDIA EGX A100, предназначенная для периферийных вычислений. Для сегмента интернета вещей компания предложила плату EGX Jetson Xavier NX размером с банковскую карту.

Постоянный URL: http://servernews.ru/1010946
07.05.2020 [20:32], Алексей Степин

TYAN представила GPU-серверы с NVIDIA Tesla V100S для машинного обучения

Компания TYAN, крупный разработчик и производитель серверного аппаратного обеспечения, объявила о запуске новой платформы для сферы машинного обучения.

Основой новой серии серверов стали ускорители на базе графических процессоров NVIDIA Tesla V100S и T4.

В настоящее время TYAN является подразделением MiTAC Computing Technology Corporation. Как отметил в анонсе вице-президент TYAN, Дэнни Хсу (Danny Hsu), элементы машинного интеллекта всё активнее проникают в современные центры обработки и хранения данных, и новая серия систем TYAN нацелена именно на построение соответствующей инфраструктуры. В неё входят как решения на базе Intel Xeon Scalable второго поколения, так и системы, использующие в качестве центральных процессоров чипы AMD EPYC 7002.

Так, высокоплотный сервер Thunder HX FT83-B7119 высотой 4U несёт в своей основе пару процессоров Intel Xeon Scalable, но это не основное его оружие: он может содержать либо 10 ускорителей Tesla V100S, либо целых 20 плат T4. Кроме того, имеется свободный слот PCIe x16 для установки высокоскоростного сетевого адаптера InfiniBand или Ethernet. Система имеет 12 дисковых отсеков формата 3,5″ с возможностью горячей замены. Установка накопителей упрощена, так как дисковые отсеки безотвёрточные.

Три других сервера, Transport HX TN83-B8251, Transport HX TS75-B8252 и Transport HX TS75A-B8252 базируются на процессорах AMD EPYC 7002 и поддерживают стандарт PCI Express 4.0. Эти системы компактны, они имеют высоту 2U и могут нести на борту четыре полноразмерных ускорителя Tesla V100S, либо восемь более компактных T4. Первая модель имеет 16 слотов DIMM, две другие поддерживают установку 32 модулей памяти.

Модель TS75-B8252 рассчитана на установку 12 накопителей формата 3,5″, четыре из которых могут поддерживать стандарт NVMe, модель TS75A-B8252 может принять в себя 26 накопителей формата 2,5″, из которых 8 могут быть с поддержкой NVMe.

В новой серии платформ также представлены компактные решения высотой 1U: однопроцессорная Thunder HX GA88-B5631 на базе Xeon Scalable, могущая нести до 4 ускорителей, и аналогичная однопроцессорная Transport HX GA88-B8021 на базе AMD EPYC; последняя вмещает либо четыре Tesla V100S, либо шесть T4.

Постоянный URL: http://servernews.ru/1010414
06.05.2020 [13:38], Алексей Разин

Cуперкомпьютер Perlmutter получит 6 тысяч GPU NVIDIA и AMD EPYC Milan

Суперкомпьютерная платформа Cray Shasta была представлена ещё в конце 2018 года, но в вычислительном центре NERSC в Беркли суперкомпьютер Perlmutter начнёт монтироваться только в конце текущего года. Помимо прочего, он интересен способностью объединить процессоры AMD Milan и графические процессоры NVIDIA Ampere.

Соответствующий контракт Национальный энергетический научно-исследовательский вычислительный центр (NERSC) заключил с Cray на этой неделе. По условиям контракта, монтаж системы Perlmutter, чей уровень быстродействия приблизится к эксафлопсу, будет проводиться в две фазы.

В следующем полугодии заказчик получит 12 стоек с узлами на основе графических процессоров NVIDIA следующего поколения, а также уникальную подсистему хранения данных на базе твердотельной памяти совокупным объёмом 35 петабайт, способную передавать информацию со скоростью более 5 Тбайт/с. К середине 2021 года будет поставлено 12 стоек с процессорами AMD EPYC семейства Milan.

Источник изображения: NERSC

Источник изображения: NERSC

В принципе, один процессор AMD Milan пропишется и в каждом вычислительном узле, сочетающем четыре графических процессора NVIDIA следующего поколения и 256 Гбайт памяти. В общей сложности, суперкомпьютер Perlmutter будет использовать более шести тысяч графических процессоров NVIDIA следующего поколения. Их условное обозначение не раскрывается, но принято считать, что речь идёт об Ampere с памятью типа HBM2.

Источник изображения: Twitter, Retired Engineer

Источник изображения: Twitter, Retired Engineer

Каждый узел «первой фазы» будет использовать по четыре канала интерконнекта Cray Slingshot, который обладает пропускной способностью 200 Гбит/с. Один «лезвийный» сервер разместит по два узла на базе GPU, либо по четыре узла на базе центральных процессоров AMD EPYC. В последнем случае пара процессоров будет соседствовать с 512 Гбайт памяти. Количество узлов на основе AMD EPYC в суперкомпьютере Perlmutter сможет превысить три тысячи штук.

Действующий суперкомпьютер Cori в NERSC используется более чем семью тысячами учёных для расчётов в сфере энергетики, материаловедения, физики, химии, биологии и предсказания климатических изменений. Perlmutter окажется в три или четыре раза производительнее Cori.

Постоянный URL: http://servernews.ru/1010254
05.05.2020 [13:04], Алексей Разин

NVIDIA усилила свои позиции на серверном направлении покупкой Cumulus Networks

Прошло лишь несколько дней с момента закрытия сделки по покупке Mellanox, а компания NVIDIA уже сообщает о новом поглощении. Под её контроль должна перейти основанная в 2010 году компания Cumulus Networks, которая специализируется на разработке программного обеспечения с открытым исходным кодом для сетевого оборудования.

Сетевые коммутаторы, использующие операционную систему Cumulus Linux, можно найти в составе более чем сотни аппаратных платформ.

Источник изображения: NVIDIA

Источник изображения: NVIDIA

Количество клиентов Cumulus приближается к двум тысячам, её решения используются примерно третью компаний, входящих в рейтинг Fortune 100. Аппаратные решения Mellanox тоже используют программные разработки Cumulus, эти компании сотрудничают с 2016 года. Сумма сделки не называется, но она наверняка превысит те $134 млн, что Cumulus Networks смогла привлечь с 2010 года на своё развитие.

Использование управляющего программного управления с открытым исходным кодом даёт клиентам гораздо больше инструментов для гибкой конфигурации сетевого оборудования под собственные нужды. Проблема в том, что не все компании готовы этим заниматься.

Интеграция программных решений Cumulus в экосистему NVIDIA с учётом присутствия в ней аппаратных платформ Mellanox позволит создать комплексный продукт, который NVIDIA будет продвигать на серверном рынке. Её выручка на этом направлении уже приблизилась к $1 млрд за квартал, это второй по величине источник доходов NVIDIA после игрового сегмента. Бизнес компании последовательно усиливается за счёт приобретения профильных активов, расширяется охват рынка.

Постоянный URL: http://servernews.ru/1010125
24.04.2020 [14:15], Алексей Разин

Liqid LQD8360: вдвое дешевле и на 20% быстрее NVIDIA DGX-2

Компания NVIDIA делает серьёзную ставку на вычислительные системы DGX-2, которые имеют 16 ускорителей Tesla V100, но Liqid отныне предлагает модульную систему LQD8360, которая использует более доступные комплектующие, вдвое дешевле DGX-2 и при этом ещё и производительнее. 

Следует пояснить, что компоновка систем Liqid позволяет формировать инфраструктуру под различные задачи достаточно гибко, подключая необходимые модули. Система использует собственную PCIe-фабрику, серверы Dell PowerEdge R640 и GPU-модули.

Источник изображения: Liqid

Источник изображения: Liqid

За ускорение работы с нейросетями в составе решения Liqid отвечает так называемый GPU Super Pod — отдельный корпус, способный приютить до 20 графических адаптеров NVIDIA Quadro RTX 8000, каждый из которых будет работать через интерфейс PCI Express x16. Совокупная ёмкость твердотельных накопителей с поддержкой протокола NVMe может достигать 60 Тбайт, предусмотрено до четырёх сетевых портов со скоростью передачи информации 100 Гбит/с.

Связка из двадцати графических процессоров может работать в сочетании с одним, двумя или четырьмя центральными процессорами, в данном случае они будут располагаться внутри готового сервера стороннего производителя. Dell уже адаптировала BIOS своих серверов PowerEdge R640 для корректной работы с 20 графическими адаптерами.

Источник изображения: EnterpriseAI

Источник изображения: EnterpriseAI

Секрет эффективного взаимодействия «внешних» графических адаптеров с головной серверной системой заключается не только в использовании фирменного программного обеспечения Liqid Command Center, но и в применении специального интерфейса, который использует шину PCI Express 3.0 для связи с блоком внешних графических адаптеров. В тесте Resnet50 конфигурация с 16 графическими адаптерами Quadro RTX 8000 оказывается быстрее NVIDIA DGX-2 в распознавании образов, но при этом сохраняет примерно в два раза более низкую стоимость.

Liqid не ставит задачу конкурировать с NVIDIA в этой сфере. В действительности, последняя из компаний помогала специалистам Liqid в настройке системы. Распознавание образов — лишь частный случай применения Liqid LQD8360, связку из 20 адаптеров Quadro RTX 8000 целесообразнее использовать, например, для рендеринга. NVIDIA DGX-2 чаще применяется для обучения нейронных сетей и других сугубо вычислительных задач, поэтому соперничать с Liqid компании-партнёру не придётся.

Постоянный URL: http://servernews.ru/1009338
07.04.2020 [18:50], Андрей Созинов

NVIDIA зарегистрировала новый серверный ускоритель, возможно, на базе Ampere

Коронавирус сорвал проведение в прошлом месяце конференции GTC 2020, на которой ожидался анонс новой архитектуры графических процессоров NVIDIA. Однако компания явно не прекращала работу над ней. Это косвенно подтверждает и свежая утечка — некий новый графический ускоритель NVIDIA был зарегистрирован южнокорейским агентством RRA.

Устройство описывается как «серверный графический модуль» и имеет кодовое название PG506.

Похожие кодовые названия (PG500, PG502 и PG504) имеют графические ускорители NVIDIA Tesla V100 на графическом процессоре Volta. Напрашивается вывод, что перед нами некий новый ускоритель вычислений Tesla, который вполне может оказаться преемником вышеуказанного ускорителя на базе Volta. 

Ускоритель PG500 является версией Tesla V100 с интерфейсом PCIe, выполненной в формате традиционной карты расширения. В свою очередь PG502 и PG504 являются NVLink-версиями с 16 и 32 Гбайт оперативной памяти соответственно. К слову, последний был представлен как раз на NVIDIA GTC в марте 2018 года.

На самом деле нельзя с полной уверенностью сказать, что ускоритель NVIDIA PG506 является носителем новой архитектуры, будь то Ampere или что-либо другое. Не исключено, что это ещё какая-то новая версия Volta. Но всё же, хотелось бы верить, что NVIDIA уже регистрирует продукты на GPU нового поколения. Это бы означало, что они выйдут до конца года — обычно с момента регистрации в RRA проходит около полугода до появления устройств.

Постоянный URL: http://servernews.ru/1007803
06.04.2020 [22:23], Николай Хижняк

NVIDIA присоединилась к HPC-консорциуму для борьбы с COVID-19

К суперкомпьютерному консорциуму High Performance Computing (HPC) Consortium, направленному на борьбу с коронавирусной инфекцией COVID-19, присоединились специалисты NVIDIA. В состав консорциума вошли ведущие технические специалисты из американского правительства, академических учреждений, а также индустриальные эксперты из IBM, Amazon Web Services, Google Cloud и Microsoft.

Основная цель консорциума — ускорение разработки эффективных методов выявления и лечения коронавируса.

Компания готова предоставить доступ к 30 суперкомпьютерам с суммарной производительностью более 400 Пфлопс. Помимо этого, специалисты NVIDIA готовы поделиться своим опытом в сферах искусственного интеллекта, суперкомпьютерных вычислений, поиска лекарств, молекулярной динамики, геномики, диагностической визуализации и анализа данных.

Блог компании сообщает, что рабочая группа специалистов NVIDIA готова:

  • Применить опыт использования искусственного интеллекта для более эффективного поиска и обработки данных;
  • Поделиться многолетним опытом в исследованиях молекулярной биологии, медицинской визуализации и вычислительной гидродинамики;
  • Масштабировать и оптимизировать рабочий процесс компьютерных вычислений.

Кроме того, компания предоставляет доступ к своей облачной платформе NVIDIA GPU Cloud (NGC) для размещения и обмена программным обеспечением, связанным со сферами искусственного интеллекта и медико-биологических разработок. Средства исследования COVID-19 находятся в открытом доступе и оптимизированы для работы на широкой базе GPU-платформ: суперкомпьютерах, системах NVIDIA DGX, NGC-серверах, а также открытых облачных GPU-платформах и рабочих станциях на базе NVIDIA Quadro.

Блог компании также отмечает, что графические процессоры NVIDIA уже используются во многих суперкомпьютерах, занимаясь поиском и решений проблем, связанных с COVID-19.

Учёные использовали самый быстрый в мире суперкомпьютер Summit, установленный в Ок-Риджской национальной лаборатории, для поиска 77 лекарственных соединений, которые могут оказаться эффективными в лечении болезни. Благодаря использованию 27 000 графический процессоров NVIDIA работу, на которую могло бы потребоваться несколько лет, компания выполнила всего за несколько дней.

Группа исследователей из Техасского университета в Остине (США) и Национальных институтов здравоохранения США, используя графические процессоры NVIDIA, создала первую в мире трёхмерную атомную карту шиповидного белка вируса, который цепляется к человеческим клеткам. Картирование белковых соединений очень важно для разработки эффективных лекарственных средств.

Белки нового вируса (2019-nCoV) и старого (SARS)

Белки нового вируса (2019-nCoV) и старого (SARS)

Сотни тысяч владельцев домашних компьютеров на базе графических процессоров NVIDIA принимают участие в проекте Folding@Home с целью поиска лекарства от нового коронавируса. Более 356 000 GPU NVIDIA вносят свой вклад в обеспечении суммарной мощности вычислений на уровне 1,5 экзафлопса.

Постоянный URL: http://servernews.ru/1007704
27.03.2020 [15:49], Алексей Степин

BOXX анонсировала VDI-платформу для ЦОД на базе NVIDIA RTX

Продолжается гонка на повышение плотности упаковки вычислительных мощностей в ЦОД. На проходящей в настоящее время конференции GTC Digital компания BOXX Technologies предложила своё видение этой задачи.

Она анонсировала модульную вычислительную многопользовательскую платформу FLEXX, использующую ускорители NVIDIA RTX.

BOXX FLEXX Data Center Platform

BOXX FLEXX Data Center Platform

Данный разработчик специализируется на создании высокопроизводительных рабочих станций, рендер-комплексов и серверных систем для нужд CAD, дизайнеров, архитекторов, аниматоров и создателей визуальных спецэффектов. Платформа BOXX FLEXX в этом смысле представляет собой сервер виртуализации удалённых рабочих графических станций. Конструктивно она чем-то напоминает лезвийные серверы: в едином стоечном корпусе установлено несколько одинаковых модулей меньшего размера.

APEXX W4L ProViz

APEXX W4L ProViz, вид сбоку

Эти модули могут быть одинарной (1VU) и двойной (2VU) ширины. Соответственно, их в общем шасси может быть 10 или 5. Основой модулей являются ускорители NVIDIA Quadro RTX, поддерживающие технологию Quadro Virtual Workstation. Такая виртуальная рабочая станция может быть развёрнута в считаные минуты. Само шасси имеет стандартную ширину 19 дюймов и занимает в стойке 5 юнитов. В системе питания предусмотрено резервирование.

Компания также представила рабочие станции RAXX P6G Jupiter и APEXX W4L ProViz. Первая может содержать до 16 ускорителей Quadro RTX 8000, вторая скромнее и несёт на борту лишь четыре таких ускорителя. В качестве процессоров использованы чипы Intel Xeon W-3275.

Постоянный URL: http://servernews.ru/1006983
27.03.2020 [00:20], Андрей Созинов

Для Azure Stack Edge стали доступны ИИ-ускорители NVIDIA T4

Компания Microsoft объявила о том, что теперь в её серверах для периферийных вычислений Azure Stack Edge стали доступны ИИ-ускорители NVIDIA T4. Пока что только для стоечных решений, однако позже в этом году они появятся и в защищённом исполнении, то есть в портативных системах, которые можно использовать в полевых условиях.

Главной целью Azure Stack Edge является переместить обработку данных непосредственно туда, где эти самые данные генерируются. 

Для решения этой задачи было создано своего рода «облако на вынос», то есть система, позволяющая доставить ресурсы Azure прямо к клиенту. Такие системы Microsoft сдаёт в аренду с помесячной оплатой.

Система позволяет получить доступ к значительным вычислительным мощностям буквально в любом месте на планете. Такие устройства могут оказаться полезными в отдалённых населённых пунктах или рабочих местах, где пропускная способность сети ограничена и/или существующая задержка при передаче данных является важным фактором.

Стоимость аренды одной системы Azure Stack Edge составляет почти $695,95. Помимо этого клиенту придётся заплатить за доставку системы туда, где она ему необходима.

Постоянный URL: http://servernews.ru/1006928
Система Orphus