Материалы по тегу: volta

02.08.2017 [12:00], Илья Гавриченков

NVIDIA начала поставлять Volta

AMD Vega – не единственная новая графическая архитектура, которая приходит на рынок этим летом. Поставки новых процессоров поколения Volta параллельно начала и NVIDIA, правда речь в данном случае идёт о GPU для расчётов в области искусственного интеллекта и глубинного обучения. Тем не менее, обойти вниманием это событие нельзя, поскольку продажи Volta стартовали раньше ожидаемого срока. Впрочем, это вряд ли может означать, что игровые видеокарты на базе NVIDIA Volta появятся в обозримом будущем.

Как сообщает Fudzilla, первая партия ускорителей Tesla V100, основанных на процессорах Volta GV100, была отгружена клиентам в составе обновлённых суперкомпьютерных модулей DGX-1 стоимостью $149 тыс. Каждый такой модуль, напомним, содержит восемь плат Tesla V100, которые в сумме могут предоставить разработчикам массив из более чем 40 тысяч CUDA-процессоров.

Первое поколение систем DGX-1 стоимостью $129 тыс, которое базировалось на картах Tesla P100, стало доступно в сентябре прошлого года, спустя полгода после премьеры архитектуры Pascal на конференции GTC 2016. Ускорители же Tesla V100 на базе архитектуры Volta, как можно судить по началу поставок обновлённых модулей DGX-1, оказались готовы к массовому выпуску заметно быстрее своих предшественников – спустя всего три месяца после анонса на мероприятии GTC 2017, которое прошло в мае. Это косвенно указывает на то, что цикл подготовки к серийному производству GPU поколения Volta оказался короче, чем в случае с процессором прошлого поколения, и NVIDIA потенциально готова начинать внедрение новой архитектуры в другие рыночные сегменты.

Это особенно важно, поскольку лежащий в основе Tesla V100 процессор GV100 – очень сложный чип площадью 815 мм2, состоящий из 21,1 млрд транзисторов. Глава NVIDIA, Дженсен Хуанг (Jensen Huang) в своё время называл Volta «самым большим чипом, который только можно сделать». Тем не менее, никаких проблем с его изготовлением по новому 12-нм FFN-техпроцессу, как можно судить, у TSMC не возникло.

В то же время столь скорое появление первых серийных профессиональных решений семейства Volta вряд ли можно считать признаком того, что игровые карты с перспективной архитектурой выйдут в обозримом будущем. Несколько дней тому назад мы стали свидетелями «триумфального возвращения AMD в область графики для энтузиастов» (так охарактеризовал выход Vega глава маркетингового отдела AMD, Крис Хук (Chris Hook)), однако это событие вряд ли способно подтолкнуть NVIDIA к каким-то активным действиям. Даже после появления на прилавках Radeon RX Vega 64 флагманский игровой ускоритель GeForce GTX 1080 Ti, очевидно, сохранит своё безальтернативное лидирующее положение. А это значит, что игровые видеокарты на базе Volta вряд ли увидят свет в текущем году, несмотря на циркулировавшие ранее слухи.

Постоянный URL: http://servernews.ru/956366
21.06.2017 [09:30], Иван Грудцын

NVIDIA анонсировала PCI-E версию ускорителя Tesla V100

В мае NVIDIA положила начало эры 12-нм графических решений Volta, представив HPC-ускоритель Tesla V100 с интерфейсом NVLink 2.0 (300 Гбайт/с). Новый оптимизированный для NVIDIA техпроцесс TSMC, новые структурные блоки Tensor для матричных вычислений, огромный кристалл с 21 млрд транзисторов — разработчик постарался, чтобы V100 запомнили надолго.

Повод для очередного упоминания об ускорителе Tesla V100 у нас достаточно веский — официальный дебют его версии с интерфейсом подключения PCI Express 3.0 x16. Судя по набору характеристик, новинка немногим уступает основному адаптеру. По сути, кроме использования разъёма PCI-E 3.0 и немного меньшей boost-частоты ядра (около 1370 МГц), других ограничений не предусмотрено, и V100 готов усилить рабочие станции и серверы заказчиков уже в ближайшем будущем.

С положительной стороны PCI-E модификация Tesla V100 отличается от «старшей сестры» меньшим энергопотреблением — 250 Вт против 300 Вт. Это позволяет использовать как жидкостные, так и воздушные системы охлаждения с невысоким уровнем шума. Графическое ядро ускорителя — GV100 — включает в себя 5120 потоковых процессоров и 640 блоков матричных вычислений (Tensor). Микросхемы памяти HBM2 объёмом 16 Гбайт (4 × 4 Гбайт) работают на частоте 900 МГц, пропускная способность подсистемы памяти увеличена на 25 % по сравнению с Tesla P100 (Pascal) — с 720 до 900 Гбайт/с. Производительность Tesla V100 достигает 7 Тфлопс в вычислениях двойной точности, 14 Тфлопс — одинарной и 28 Тфлопс — половинной. Для матричных вычислений цифра ещё выше — 112 Тфлопс.

Тем временем нашему корреспонденту на выставке-конференции ISC 2017 в Германии удалось запечатлеть на фото обновлённый сервер DGX-1 и рабочую станцию DGX Station. Обе системы оборудованы картами V100 и предназначены для ресурсоёмких вычислений, связанных с решением задач в области искусственного интеллекта.

Сервер NVIDIA DGX-1 оснащён восемью ускорителями Tesla V100, двумя 20-ядерными процессорами Intel Xeon E5-2698 v4, 512 Гбайт оперативной памяти, четырьмя 1,92-Тбайт SSD в RAID 0, проводным сетевым интерфейсом 10-Гбит Ethernet (2 порта) и 3,2-кВт блоком питания. Рекомендованная цена системы для рынка США составляет $149 000.

У рабочей станции DGX Station всего вполовину меньше (кроме накопителей — их по-прежнему четыре). Цена, соответственно, не шестизначная, а пятизначная — $69 000. Процессор Xeon E5-2698 v4 и квартет карт Tesla V100 охлаждаются СЖО. Уровень шума на фоне DGX-1 невысок.

Постоянный URL: http://servernews.ru/954273
30.05.2017 [12:39], Геннадий Детинич

NVIDIA и тайваньские ODM-производители наполнят мир ИИ-ускорителями

В ходе выступления на открытии Computex 2017 глава NVIDIA Дженсен Хуанг сделал ряд заявлений, которые призваны подчеркнуть новую роль компании в меняющемся мире. Новый мир обещает оказаться наполненным платформами и решениями с зачатками искусственного интеллекта. Десять лет назад всё началось с поглощения AMD компании ATI, что вылилось в создание гибридных решений и технологий GPGPU, которые позволили графическим ядрам выполнять неграфические расчёты. В активе NVIDIA нет собственных вычислительных скалярных ядер, но технология CUDA компании для решения задач с помощью GPGPU стала более популярной, чем аналогичная технология AMD.

 www.extremetech.com

www.extremetech.com

Тема искусственного интеллекта и глубокого машинного обучения вдохнула в GPGPU-платформы новую жизнь. Графические процессоры с множеством потоковых процессоров оптимально подходят для ускорения «ИИ-расчётов» с одинарной (FP32) и половинной (FP16) точностью. Появляется возможность собрать суперкомпьютер для ИИ буквально размером с тумбочку. Это закроет нужды в подобных вычислительных ресурсах для массы небольших фирм и учебных учреждений, а для центров обработки данных открываются перспективы едва ли не безграничного масштабирования соответствующих ресурсов. Отдать клиенту ровно столько, сколько он требует — это высший пилотаж любого сервиса, и NVIDIA готова в этом помочь.

 Полочный компьютер NVIDIA DGX-1 на адаптерах с графическими процессорами P100 или V100

Полочный компьютер NVIDIA DGX-1 на адаптерах с графическими процессорами P100 или V100

Год назад компания представила полочный компьютер DGX-1 на адаптерах с графическими процессорами P100 (архитектура Pascal). Неделями ранее платформа DGX-1 получила обновление в виде адаптеров с GPU V100 (архитектура Volta). Это система с восемью ускорителями в формфакторе SXM2. Между собой ускорители связаны в «кубическую» ячеистую сеть через интерфейс NVIDIA NVLink. Одна такая полка в операциях с половинной точностью обеспечивает производительность на уровне 960 Тфлопс. Помимо восьми адаптеров Tesla V100 в состав DGX-1 входит пара процессоров Intel Xeon, обеспечивая загрузку операционной системы и GPGPU-вычисления.

 Эталонная платформа NVIDIA HGX

Эталонная платформа NVIDIA HGX

Для использования DGX-1 в составе стандартных стоек в ЦОД в компании разработали эталонную платформу HGX на базе жидкостного охлаждения. Аппаратные конфигурации DGX-1 и HGX ничем не отличаются. Более того, DGX-1 на GPU P100 легко могут быть замены на DGX-1 с GPU V100. Чтобы наполнить рынок систем для ЦОД критической массой ускорителей, NVIDIA запустила в понедельник 29 мая партнёрскую программу по поддержке ряда тайваньских ODM-производителей. Среди партнёров можно обнаружить как давних клиентов NVIDIA — это компании Inventec, Quanta и Wistron, так и новое имя — компанию Foxconn.

 Блок-схема эталонной платформы NVIDIA HGX (NVIDIA)

Блок-схема эталонной платформы NVIDIA HGX (NVIDIA)

В рамках партнёрской программы NVIDIA обещает разработчикам ранний доступ к документации и архитектуре HGX, а также всестороннюю техническую поддержку. Для компании важно заручится интересом со стороны тайваньских производителей, иначе их фокус внимания рискует переключиться на конкурирующие продукты Google (TPU), AMD (Vega) и Intel (Xeon Phi).

Постоянный URL: http://servernews.ru/953054
12.05.2017 [14:59], Алексей Степин

Анонсированы новые платформы NVIDIA для разработчиков

Вчера мы рассказывали читателям о прототипе первой многопользовательской рабочей станции виртуальной реальности, которую NVIDIA представила на конференции GTC 2017. Она оснащена четырьмя ускорителями Quadro P6000 и позволяет четырём пользователям работать одновременно в единой среде VR. Но компания анонсировала и другие новинки, например, серию вычислительных станций на базе новой технологии Volta. В серию входят модели DGX-1, DGX Station и HGX.

 Рабочая станция с четырьмя новыми процессорами NVIDIA Volta

Рабочая станция с четырьмя новыми процессорами NVIDIA Volta

Первая модель представляет собой стоечное решение с восемью ускорителями Tesla V100, что обеспечивает производительность порядка 960 тензорных терафлопс. По мнению NVIDIA это заменяет 400 обычных серверов. Стоит такая система $149 тысяч, а заказчики получат её уже в третьем квартале. Модель DGX Station выглядит совсем иначе: это рабочая станция в настольном исполнении, она содержит четыре ускорителя Tesla V100. В ней установлены версии ускорителей с разъёмами PCIe и тремя портами DisplayPort. Друг с другом, однако, платы общаются посредством NVLink. Стоит такая станция $69 тысяч.

 Серверные варианты

Серверные варианты

Наконец, была представлена платформа NVIDIA HGX-1. Её назначение —  облачные вычисления. Она изначально рассчитана на работу в составе единой инфраструктуры ЦОД, причём эта инфраструктура должна предусматривать наличие единого контура жидкостного охлаждения, к которому платформа и подключается. Характеристики и производительность у HGX-1 аналогичны таковым параметрам у DGX-1, и она содержит восемь ускорителей Tesla V100 в версии с интерфейсом NVLink. Стоимость не оглашена, но она должна быть выше стоимости DGX-1.

Постоянный URL: http://servernews.ru/952092
11.05.2017 [10:00], Иван Грудцын

Эра NVIDIA Volta началась с ускорителя Tesla V100

На конференции GTC 2017 в американском городе Сан-Хосе компания NVIDIA в лице её генерального директора Дженсена Хуанга (Jen-Hsun Huang) представила ускоритель Tesla V100 для дата-центров на основе графического процессора Volta GV100. Разработка последнего обошлась NVIDIA в $3 млрд, и в результате свет увидел чип площадью 815 мм², содержащий 21,1 млрд транзисторов, более 5000 потоковых процессоров и новые блоки Tensor, повышающие производительность GPU в так называемых матричных вычислениях. Изготовление ядер GV100 было поручено давнему партнёру NVIDIA — тайваньскому полупроводниковому гиганту TSMC. Техпроцесс выпуска — 12-нм FFN. Последняя буква в аббревиатуре FFN обозначает не что иное, как «NVIDIA»: технологическая норма разрабатывалась с учётом требований заказчика.

 Tesla V100

Tesla V100

Из года в год сложность архитектуры кремниевых кристаллов для HPC-задач продолжает расти, и теперь, с дебютом NVIDIA Volta, остаётся констатировать, что помимо потоковых процессоров, кеш-памяти первого и второго уровней, текстурных блоков, контроллеров VRAM и системного интерфейса, частью high-end GPU становятся блоки Tensor. У GV100 их по 8 на мультипроцессорный кластер (SM) и 672 в целом.

 SM-блок Volta GV100

SM-блок Volta GV100

Матричные вычисления в блоках Tensor увеличивают производительность нового ядра в задачах машинного обучения до 120 Тфлопс. В то же время быстродействие GV100 в FP32-вычислениях составляет 15 Тфлопс, а в FP64-вычислениях — 7,5 Тфлопс.

 Ядро Volta GV100

Volta GV100

Ядро Volta GV100 неотделимо от буферной памяти — четырёх микросхем HBM2, взаимодействующих с GPU по 4096-битной шине. Объём каждого чипа составляет 4 Гбайт, пропускная способность подсистемы памяти — 900 Гбайт/с. Кристалл GV100 дебютирует одновременно с ускорителем Tesla V100, являясь его основой. В V100 ядро работает на частоте до 1455 МГц (с учётом динамического разгона) обеспечивая вышеуказанную производительность в FP32-, FP64- и матричных (Tensor) вычислениях. Адаптер с GPU впечатляющих размеров потребляет умеренные 300 Вт — столько же, сколько и Tesla P100.

 Спецификации ускорителей NVIDIA Tesla разных лет

Спецификации ускорителей NVIDIA Tesla разных лет

 Вычислительные возможности Volta GV100

Вычислительные возможности Volta GV100

По эскизу в начале данной заметки можно было догадаться, что соединение Tesla V100 с такими же ускорителями и центральным процессором обеспечивает интерфейс типа NVLink. В этот раз это не интерфейс первого поколения, а NVLink 2.0 — соответствующие контакты находятся на тыльной поверхности карты. В Tesla V100 реализовано шесть двунаправленных 25-Гбайт соединений (суммарно 300 Гбайт/с), а также функция согласования содержимого кеш-памяти с кешем центрального процессора IBM POWER9.

Распространение новых HPC-ускорителей будет осуществляться по межкорпоративным (B2B) каналам. При этом заказчики получат свободный выбор между готовыми решениями вкупе с сопутствующим программным обеспечением и технической поддержкой. Все три системы — DGX-1, HGX-1 и DGX Station — предназначены для решения задач, связанных с развитием искусственного интеллекта (AI).

С системой глубинного обучения NVIDIA DGX-1 первого поколения мы уже знакомили читателей — она использует восемь ускорителей Tesla P100 с производительностью 170 Тфлопс в вычислениях половинной точности (FP16). Обновлённый сервер DGX-1 содержит восемь карт Tesla V100 с быстродействием 960 Тфлопс (FP16), два центральных процессора Intel Xeon и блок(-и) питания суммарной мощностью не менее 3200 Вт. Такой апгрейд позволяет выполнять не только типичные задачи в области исследования AI, но и переходить к новым, целесообразность решения которых прежде была под вопросом ввиду высокой сложности вычислений.

Предварительный заказ системы NVIDIA DGX-1 второго поколения обойдётся всем желающим в $149 000. Ориентировочный срок начала поставок — третий квартал текущего года.

Сервер HGX-1 на восьми ускорителях Tesla V100 аналогичен DGX-1. Ключевое отличие данной системы заключается в применении жидкостного охлаждения компонентов. Кроме того, NVIDIA HGX-1 проще внедрить с ИТ-инфраструктуру компаний. Помимо глубинного обучения, этот сервер может использоваться в экосистеме GRID, а также для решения широкого круга HPC-задач.

 NVIDIA HGX

NVIDIA DGX Station представляет собой высокопроизводительную рабочую станцию с четырьмя картами Tesla V100, центральным процессором Intel Xeon, системой жидкостного охлаждения и 1500-ваттным источником питания. Ускорители NVIDIA в составе DGX Station оснащены интерфейсом NVLink 200 Гбайт/с и тремя разъёмами DisplayPort с поддержкой разрешения 4K.

В матричных Tensor-вычислениях DGX Station обеспечивает быстродействие на уровне 480 Тфлопс. Стоимость рабочей станции для рынка США равна $69 000.

Постоянный URL: http://servernews.ru/952008
21.12.2016 [08:39], Алексей Степин

Производительность NVIDIA Volta GV100 может достигнуть 9,5 терафлопс

Как известно, следующим после Pascal поколением графических процессоров NVIDIA является Volta. Впрочем, к современным чипам название «графический процессор» применимо всё меньше — с тех пор, как их архитектура стала полностью унифицированной и программируемой, они прочно утвердились в различных проектах суперкомпьютеров, некоторые из которых уже вступили в строй и вовсю заняты научными и другими сложными вычислениями. Создавая свой первый чип Pascal GP100, NVIDIA уделила больше внимания его вычислительным возможностям, нежели графическим, и, похоже, первенца в семействе Volta, чип GV100, ожидает аналогичный подход.

 Новый принцип построения узлов суперкомпьютера. Количество плат ускорителей не соответствует указанному в заметке

Новый принцип построения узлов суперкомпьютера. Количество плат ускорителей не соответствует указанному в заметке

Уже подтверждено, что GV100 станет сердцем, а точнее, сердцами суперкомпьютеров Summit в Национальной лаборатории Ок-Ридж (Oak Ridge National Laboratory) и Sierra в Ливерморской национальной лаборатории (Lawrence Livermore National Laboratory). Первый проект должен войти в рабочую стадию в начале 2018 года и развить пиковую мощность 200 петафлопс, что существенно превышает показатель самого быстрого сегодняшнего китайского суперкомпьютера Sunway TaihuLight, чьи возможности оцениваются в 125,4 петафлопса. К сожалению, о характеристиках и архитектуре GV100 мы до сих пор знаем не так много, как хотелось бы, но кое-какие сведения о проекте Summit позволяют сделать некоторые выводы.

 Тот самый слайд

Тот самый слайд

Лаборатория в Ок-Ридже опубликовала слайд, на котором Summit сравнивается с суперкомпьютером Titan, базирующимся на чипах Kepler GK110. Состоит он из 18688 узлов, мощность каждого из них составляет 1,4 терафлопса. На том же плакате указаны спецификации Summit: 4600 узлов с мощностью более 40 терафлопс на узел. Указано также, что в каждом узле будет 512 Гбайт памяти DDR4, 800 Гбайт энергонезависимой памяти и некий объём памяти HBM (речь, разумеется, идёт о HBM2). Основой каждого узла станут пара процессоров IBM POWER9 и шесть процессоров NVIDIA Volta. Чипы POWER9, помимо традиционных линий PCI Express (версия 4.0) имеют и 48 линий интерфейса Bluelink, который будет работать в режиме NVLink 2.0 и соединять их с процессорами Volta, что позволит процессорам различных архитектур делить общее пространство памяти, практически не теряя в скорости: пропускная способность может составлять от 80 до 200 Гбайт/с.

 Использование NVLink экономит энергию и повышает производительность

Использование NVLink экономит энергию и повышает производительность

Потребляемая Summit мощность составит 13 мегаватт — всего на 4 мегаватта больше, нежели у Titan, при более чем десятикратном превосходстве в производительности. Как мы знаем, NVIDIA объявила о том, что GV100 будет демонстрировать эффективность 72 гигафлопса на ватт при операции перемножения матриц с одинарной точностью (Single precision floating General Matrix Multiply). Для GP100 этот показатель равен 42 гигафлопса на ватт. Нетрудно посчитать, приняв за основу теплопакет GV100 на уровне 300 ватт, что этот чип в теории может достичь производительности 9,5 терафлопс на вычислениях двойной точности (FP64). Шесть чипов GV100 при потреблении не выше 300 ватт на чип как раз и дадут упомянутые на плакате «более 40 терафлопс», а точнее, в теории, смогут выдать 57,2 терафлопса. Даже при конфигурации с теплопакетом 200 ватт и на 20‒25 % более низкой производительности производительность узла составит 45,6 терафлопс, так что у создателей Summit явно есть задел по части экономии электроэнергии при сохранении заявленных характеристик. По крайней мере, такой подход может существенно облегчить работу холодильных установок Summit.

Постоянный URL: http://servernews.ru/944758
25.08.2016 [00:13], Иван Грудцын

Интерфейс NVLink 2.0 соединит GPU Volta и процессоры IBM Power9

В этом году NVIDIA порадовала любителей нерядовых новинок в сегменте дискретной графики картами на 16-нм чипах GP100 и GP102. Различия между старшим GPU для HPC-систем (GP100) и его производным — адаптером для широкого круга задач (GP102) оказались весьма существенными. В частности, проприетарный интерфейс NVLink, отличающий серверный графический процессор от собрата, способен обеспечивать пропускную способность в 40 Гбайт/с на один порт. Для сравнения, аналогичное значение для разъёма PCI Express 3.0 x16 составляет 16 ГТ/с (15,75 Гбайт/с), а для будущего PCI Express 4.0 x16 — 32 ГТ/с (31,5 Гбайт/с). При этом одним соединением NVLink дело не ограничивается. Так, у ускорителя Tesla P100 на чипе Pascal GP100 четыре порта NVLink, и, соответственно, пиковая пропускная способность достигает 160 Гбайт/с (4 × 40 Гбайт/с).

 NVLink открывает возможность взаимодействия GPU двух систем

NVLink открывает возможность взаимодействия GPU двух систем

Среди тех, кто по достоинству оценил труд инженеров NVIDIA, оказалась корпорация IBM. Её 22-нм процессоры POWER8 прекрасно «дружат» с NVLink 1.0 и Tesla P100. В частности, был спроектирован 2P-сервер типоразмера 2U на основе процессоров POWER8 (POWER8+) и двух-четырёх адаптеров Tesla P100 с вышеупомянутым интерфейсом. На 2017 год запланировано создание ещё более мощной системы. В её состав войдут два CPU POWER9 и от четырёх до шести ускорителей NVIDIA Volta, содержащих порты NVLink 2.0. Форм-фактор останется прежним — 2U.

 NVLink 2.0

По сообщению ресурса Fudzilla, вторая версия NVLink принесёт увеличение пропускной способности интерфейса с 20 до 25 Гбит/с на контакт, с 40 до 50 Гбайт/с на один порт и со 160 до 200 Гбайт/с на один GPU. Преимущество NVLink над PCI Express 4-го поколения будет весьма впечатляющим — 6,35 раза (четыре порта NVLink против 16-скоростного PCI-E 4.0).

 NVLink 2.0

Внедрение NVLink 2.0 тесно связано с ожидающимся дебютом графических процессоров Volta в следующем году. Последние, по предварительным данным, будут выпускаться по нынешнему, но при этом «повзрослевшему» 16-нм техпроцессу, а в качестве буферной памяти будут использоваться микросхемы HBM2 (до внедрения HBM3 пока ещё далеко).

 HBM2 — это надолго

HBM2 — это надолго

Что касается процессоров IBM POWER9, то они будут выпускаться по 14-нм технологической норме начиная со следующего года. Количество ядер составит 12 или 24. В данных CPU предусмотрены кеш третьего и четвёртого уровней, контроллер памяти DDR4, линии PCI Express 4.0, а также скоростной интерфейс для синхронизации работы двух процессоров на одной плате.

 IBM POWER9

IBM POWER9

Постоянный URL: http://servernews.ru/938344
26.03.2013 [03:53], Георгий Орлов

NVIDIA выпустила два GPU для «больших данных»

На конференции 2013 GPU Technology Conference в Сан Хосе (Калифорния, США) генеральный директор NVIDIA Джен-Сун Хуан (Jen-Hsun Huang) представил два графических процессора компании: Maxwell с единой виртуальной памятью для операций GPU, позволяющей контролировать память процессора, и энергоэффективный Volta с новой технологией стековой памяти DRAM, обеспечивающий пропускную способность до 1 Тбит/с.

NVIDIA также показала визуальные вычислительные устройства (GRID Visual Computing Appliance, VCA), привносящие высокую производительность GPU в любые Windows-, Linux- или Mac-клиенты в сети организации. Компания считает, что предприятия могут использовать GPU-ускорение в виртуальных рабочих столах и профессиональных графических приложениях из облаков на любом устройстве, в любое время, в любом месте. Dell, HP и IBM предлагают NVIDIA GRID-серверы, Citrix Systems, Microsoft и VMware - поддержку NVIDIA GRID в своём программном обеспечении.

Корпоративные решения NVIDIA GRID использует программное обеспечение GRID VGX, которое открывает возможности виртуализации и удаленного управления графическими процессорами NVIDIA GRID и лицензированы Citrix Systems для XenDesktop, XenApp и XenServer, VMware для VSphere и Horizon View и Microsoft для RemoteFX.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/597207
22.06.2011 [12:37], Георгий Орлов

SuVolta обещает сократить энергопотребление процессоров в два раза

Представители малоизвестной до сих пор компании SuVolta сообщили о разработке технологии, которая позволит, по их словам, примерно в два раза сократить энергопотребление процессоров по сравнению с современными аналогами, имеющими равную производительность. В основе новой технологии лежит минимизация вариаций порогового напряжения на миллионах транзисторов микрочипа, что позволяет на 30% снизить напряжение питания транзисторов и на 80% уменьшить токи утечки.

 suvolta

«Раньше отрасль была сосредоточена на вопросах производительности, но в последнее время самой существенной проблемой при разработке электронных устройств стала проблема энергоэффективности, — сказал д-р Брюс Мак-Вильямс (Bruce McWilliams), президент и исполнительный директор SuVolta. — SuVolta разработала интеллектуальную и несложную при практическом воплощении технологию, позволяющую уменьшить энергопотребление микрочипов в два раза или более, что сделает возможным создание портативных устройств, требующих менее частой подзарядки аккумуляторов. Платформа PowerShrink компании SuVolta будет совместима и с более тонкими технологическими процессами, чем те, что задействованы в данный момент, что позволит ее использовать и при разработке интегральных микросхем следующих поколений».

Технология PowerShrink предполагает применение транзисторов с глубоко обедненными полупроводниковыми каналами (DDC, Deeply Depleted Channel), что и позволяет добиться заявленных компанией результатов, при этом основная структура микрочипа не затрагивается. Компания SuVolta лицензирует скорее именно технологию и уже подписала свое первое лицензионное соглашение с компанией Fujitsu Semiconductor. Предполагается, что первоначальное применение PowerShrink найдет в мобильных устройствах, но в будущем ее можно будет использовать и в серверных чипах, как это уже происходит с архитектурой ARM.

Источник:

Постоянный URL: http://servernews.ru/594754
Система Orphus