Материалы по тегу: tesla v100

02.08.2017 [12:00], Илья Гавриченков

NVIDIA начала поставлять Volta

AMD Vega – не единственная новая графическая архитектура, которая приходит на рынок этим летом. Поставки новых процессоров поколения Volta параллельно начала и NVIDIA, правда речь в данном случае идёт о GPU для расчётов в области искусственного интеллекта и глубинного обучения. Тем не менее, обойти вниманием это событие нельзя, поскольку продажи Volta стартовали раньше ожидаемого срока. Впрочем, это вряд ли может означать, что игровые видеокарты на базе NVIDIA Volta появятся в обозримом будущем.

Как сообщает Fudzilla, первая партия ускорителей Tesla V100, основанных на процессорах Volta GV100, была отгружена клиентам в составе обновлённых суперкомпьютерных модулей DGX-1 стоимостью $149 тыс. Каждый такой модуль, напомним, содержит восемь плат Tesla V100, которые в сумме могут предоставить разработчикам массив из более чем 40 тысяч CUDA-процессоров.

Первое поколение систем DGX-1 стоимостью $129 тыс, которое базировалось на картах Tesla P100, стало доступно в сентябре прошлого года, спустя полгода после премьеры архитектуры Pascal на конференции GTC 2016. Ускорители же Tesla V100 на базе архитектуры Volta, как можно судить по началу поставок обновлённых модулей DGX-1, оказались готовы к массовому выпуску заметно быстрее своих предшественников – спустя всего три месяца после анонса на мероприятии GTC 2017, которое прошло в мае. Это косвенно указывает на то, что цикл подготовки к серийному производству GPU поколения Volta оказался короче, чем в случае с процессором прошлого поколения, и NVIDIA потенциально готова начинать внедрение новой архитектуры в другие рыночные сегменты.

Это особенно важно, поскольку лежащий в основе Tesla V100 процессор GV100 – очень сложный чип площадью 815 мм2, состоящий из 21,1 млрд транзисторов. Глава NVIDIA, Дженсен Хуанг (Jensen Huang) в своё время называл Volta «самым большим чипом, который только можно сделать». Тем не менее, никаких проблем с его изготовлением по новому 12-нм FFN-техпроцессу, как можно судить, у TSMC не возникло.

В то же время столь скорое появление первых серийных профессиональных решений семейства Volta вряд ли можно считать признаком того, что игровые карты с перспективной архитектурой выйдут в обозримом будущем. Несколько дней тому назад мы стали свидетелями «триумфального возвращения AMD в область графики для энтузиастов» (так охарактеризовал выход Vega глава маркетингового отдела AMD, Крис Хук (Chris Hook)), однако это событие вряд ли способно подтолкнуть NVIDIA к каким-то активным действиям. Даже после появления на прилавках Radeon RX Vega 64 флагманский игровой ускоритель GeForce GTX 1080 Ti, очевидно, сохранит своё безальтернативное лидирующее положение. А это значит, что игровые видеокарты на базе Volta вряд ли увидят свет в текущем году, несмотря на циркулировавшие ранее слухи.

Постоянный URL: http://servernews.ru/956366
21.06.2017 [09:30], Иван Грудцын

NVIDIA анонсировала PCI-E версию ускорителя Tesla V100

В мае NVIDIA положила начало эры 12-нм графических решений Volta, представив HPC-ускоритель Tesla V100 с интерфейсом NVLink 2.0 (300 Гбайт/с). Новый оптимизированный для NVIDIA техпроцесс TSMC, новые структурные блоки Tensor для матричных вычислений, огромный кристалл с 21 млрд транзисторов — разработчик постарался, чтобы V100 запомнили надолго.

Повод для очередного упоминания об ускорителе Tesla V100 у нас достаточно веский — официальный дебют его версии с интерфейсом подключения PCI Express 3.0 x16. Судя по набору характеристик, новинка немногим уступает основному адаптеру. По сути, кроме использования разъёма PCI-E 3.0 и немного меньшей boost-частоты ядра (около 1370 МГц), других ограничений не предусмотрено, и V100 готов усилить рабочие станции и серверы заказчиков уже в ближайшем будущем.

С положительной стороны PCI-E модификация Tesla V100 отличается от «старшей сестры» меньшим энергопотреблением — 250 Вт против 300 Вт. Это позволяет использовать как жидкостные, так и воздушные системы охлаждения с невысоким уровнем шума. Графическое ядро ускорителя — GV100 — включает в себя 5120 потоковых процессоров и 640 блоков матричных вычислений (Tensor). Микросхемы памяти HBM2 объёмом 16 Гбайт (4 × 4 Гбайт) работают на частоте 900 МГц, пропускная способность подсистемы памяти увеличена на 25 % по сравнению с Tesla P100 (Pascal) — с 720 до 900 Гбайт/с. Производительность Tesla V100 достигает 7 Тфлопс в вычислениях двойной точности, 14 Тфлопс — одинарной и 28 Тфлопс — половинной. Для матричных вычислений цифра ещё выше — 112 Тфлопс.

Тем временем нашему корреспонденту на выставке-конференции ISC 2017 в Германии удалось запечатлеть на фото обновлённый сервер DGX-1 и рабочую станцию DGX Station. Обе системы оборудованы картами V100 и предназначены для ресурсоёмких вычислений, связанных с решением задач в области искусственного интеллекта.

Сервер NVIDIA DGX-1 оснащён восемью ускорителями Tesla V100, двумя 20-ядерными процессорами Intel Xeon E5-2698 v4, 512 Гбайт оперативной памяти, четырьмя 1,92-Тбайт SSD в RAID 0, проводным сетевым интерфейсом 10-Гбит Ethernet (2 порта) и 3,2-кВт блоком питания. Рекомендованная цена системы для рынка США составляет $149 000.

У рабочей станции DGX Station всего вполовину меньше (кроме накопителей — их по-прежнему четыре). Цена, соответственно, не шестизначная, а пятизначная — $69 000. Процессор Xeon E5-2698 v4 и квартет карт Tesla V100 охлаждаются СЖО. Уровень шума на фоне DGX-1 невысок.

Постоянный URL: http://servernews.ru/954273
11.05.2017 [10:00], Иван Грудцын

Эра NVIDIA Volta началась с ускорителя Tesla V100

На конференции GTC 2017 в американском городе Сан-Хосе компания NVIDIA в лице её генерального директора Дженсена Хуанга (Jen-Hsun Huang) представила ускоритель Tesla V100 для дата-центров на основе графического процессора Volta GV100. Разработка последнего обошлась NVIDIA в $3 млрд, и в результате свет увидел чип площадью 815 мм², содержащий 21,1 млрд транзисторов, более 5000 потоковых процессоров и новые блоки Tensor, повышающие производительность GPU в так называемых матричных вычислениях. Изготовление ядер GV100 было поручено давнему партнёру NVIDIA — тайваньскому полупроводниковому гиганту TSMC. Техпроцесс выпуска — 12-нм FFN. Последняя буква в аббревиатуре FFN обозначает не что иное, как «NVIDIA»: технологическая норма разрабатывалась с учётом требований заказчика.

 Tesla V100

Tesla V100

Из года в год сложность архитектуры кремниевых кристаллов для HPC-задач продолжает расти, и теперь, с дебютом NVIDIA Volta, остаётся констатировать, что помимо потоковых процессоров, кеш-памяти первого и второго уровней, текстурных блоков, контроллеров VRAM и системного интерфейса, частью high-end GPU становятся блоки Tensor. У GV100 их по 8 на мультипроцессорный кластер (SM) и 672 в целом.

 SM-блок Volta GV100

SM-блок Volta GV100

Матричные вычисления в блоках Tensor увеличивают производительность нового ядра в задачах машинного обучения до 120 Тфлопс. В то же время быстродействие GV100 в FP32-вычислениях составляет 15 Тфлопс, а в FP64-вычислениях — 7,5 Тфлопс.

 Ядро Volta GV100

Volta GV100

Ядро Volta GV100 неотделимо от буферной памяти — четырёх микросхем HBM2, взаимодействующих с GPU по 4096-битной шине. Объём каждого чипа составляет 4 Гбайт, пропускная способность подсистемы памяти — 900 Гбайт/с. Кристалл GV100 дебютирует одновременно с ускорителем Tesla V100, являясь его основой. В V100 ядро работает на частоте до 1455 МГц (с учётом динамического разгона) обеспечивая вышеуказанную производительность в FP32-, FP64- и матричных (Tensor) вычислениях. Адаптер с GPU впечатляющих размеров потребляет умеренные 300 Вт — столько же, сколько и Tesla P100.

 Спецификации ускорителей NVIDIA Tesla разных лет

Спецификации ускорителей NVIDIA Tesla разных лет

 Вычислительные возможности Volta GV100

Вычислительные возможности Volta GV100

По эскизу в начале данной заметки можно было догадаться, что соединение Tesla V100 с такими же ускорителями и центральным процессором обеспечивает интерфейс типа NVLink. В этот раз это не интерфейс первого поколения, а NVLink 2.0 — соответствующие контакты находятся на тыльной поверхности карты. В Tesla V100 реализовано шесть двунаправленных 25-Гбайт соединений (суммарно 300 Гбайт/с), а также функция согласования содержимого кеш-памяти с кешем центрального процессора IBM POWER9.

Распространение новых HPC-ускорителей будет осуществляться по межкорпоративным (B2B) каналам. При этом заказчики получат свободный выбор между готовыми решениями вкупе с сопутствующим программным обеспечением и технической поддержкой. Все три системы — DGX-1, HGX-1 и DGX Station — предназначены для решения задач, связанных с развитием искусственного интеллекта (AI).

С системой глубинного обучения NVIDIA DGX-1 первого поколения мы уже знакомили читателей — она использует восемь ускорителей Tesla P100 с производительностью 170 Тфлопс в вычислениях половинной точности (FP16). Обновлённый сервер DGX-1 содержит восемь карт Tesla V100 с быстродействием 960 Тфлопс (FP16), два центральных процессора Intel Xeon и блок(-и) питания суммарной мощностью не менее 3200 Вт. Такой апгрейд позволяет выполнять не только типичные задачи в области исследования AI, но и переходить к новым, целесообразность решения которых прежде была под вопросом ввиду высокой сложности вычислений.

Предварительный заказ системы NVIDIA DGX-1 второго поколения обойдётся всем желающим в $149 000. Ориентировочный срок начала поставок — третий квартал текущего года.

Сервер HGX-1 на восьми ускорителях Tesla V100 аналогичен DGX-1. Ключевое отличие данной системы заключается в применении жидкостного охлаждения компонентов. Кроме того, NVIDIA HGX-1 проще внедрить с ИТ-инфраструктуру компаний. Помимо глубинного обучения, этот сервер может использоваться в экосистеме GRID, а также для решения широкого круга HPC-задач.

 NVIDIA HGX

NVIDIA DGX Station представляет собой высокопроизводительную рабочую станцию с четырьмя картами Tesla V100, центральным процессором Intel Xeon, системой жидкостного охлаждения и 1500-ваттным источником питания. Ускорители NVIDIA в составе DGX Station оснащены интерфейсом NVLink 200 Гбайт/с и тремя разъёмами DisplayPort с поддержкой разрешения 4K.

В матричных Tensor-вычислениях DGX Station обеспечивает быстродействие на уровне 480 Тфлопс. Стоимость рабочей станции для рынка США равна $69 000.

Постоянный URL: http://servernews.ru/952008
Система Orphus