Материалы по тегу: nvidia

30.06.2022 [14:07], Владимир Мироненко

Siemens и NVIDIA создадут промышленную метавселенную

Siemens и NVIDIA подписали соглашение о сотрудничестве с целью создания промышленной метавселенной, расширенной виртуальной реальности для компаний, которая позволит сократить расходы на эксплуатацию заводов, зданий и ускорить разработку новых продуктов. Предполагается, что решение будет доступно для компаний любого размера, включая малые предприятия. Услуги будут предлагаться по подписке по модели SaaS.

 Изображения: NVIDIA

Изображения: NVIDIA

«Промышленная метавселенная — это иммерсивный цифровой двойник в реальном времени. Он фотореалистичен, но в то же время основан на физике. Это означает, что двойник не только показывает, как он выглядит в реальном времени, но и как он ведёт себя в реальном мире», — заявила Siemens. Это позволит предсказать уже на стадии разработки, будет ли эффективным будущий продукт или процесс. В рамках сотрудничества Siemens интегрирует Xcelerator, собственное ПО и цифровые двойники с платформой NVIDIA Omniverse.

Компании намерены сделать цифровое представление сложных физических систем более доступным для любых клиентов всех размеров. Запуск цифровых двойников производств и предприятий позволит спрогнозировать их производительность. «В результате эту виртуальную модель можно использовать для оптимизации, изменения конструкции, будущих итераций, профилактического обслуживания», — говорит NVIDIA. Компания считает, что в течение 10 лет эта технология позволит проектировать, моделировать и прогнозировать возможности новых заводов ещё до того, как они приступят к работе.

Для создания цифрового двойника требуется большой объём данных от подключенных устройств, которые «общаются» на одном языке. В этом поможет Siemens Xcelerator, облачная цифровая платформа. Xcelerator позиционируется как интегрированное портфолио ПО, API, услуг и платформ для разработки приложений. Xcelerator включает решения для управления жизненным циклом продуктов (PLM), для автоматизации электронного проектирования (EDA), для управления жизненным циклом приложений (ALM), для управления производственными операциями (MOM), для работы со встроенным ПО и Интернетом вещей (IoT).

«Чтобы создать цифрового двойника, вы должны объединить механику, электронику, компьютерное ПО, системы планирования и ERP на виртуальном заводе», — пояснила NVIDIA, добавив, что она совместно с Siemens стандартизирует формат универсального описания сцен (USD). Все собранные данные можно передать на цифровую платформу NVIDIA Omniverse для создания фотореалистичных симуляций сложных систем, начиная от заводских цехов и заканчивая внутренней работой интегральных схем.

Постоянный URL: http://servernews.ru/1069201
29.06.2022 [20:00], Алексей Степин

NVIDIA снова ставит рекорды в ИИ-бенчмарке MLPerf Training

Сегодня вышла очередная версия бенчмарка MLPerf Training для оценки производительности ИИ-ускорителей в различных сценариях, максимально приближённых к реальным. Всего в состав версии 2.0 входит 8 различных тестах в четырёх категориях.

NVDIA — давний и наиболее активный участник проекта MLPerf, именно результаты различных систем на базе ускорителей NVIDIA составляют 90% от всего объёма рейтинга. Также это единственный участник, стабильно принимающий участие во всех дисциплинах. В новой версии MLPerf 2.0 ускорители NVIDIA A100 вновь оказались единственными, охватившими все тесты.

 Последние результаты A100 в MLPerf 2.0. Источник: NVIDIA

Последние результаты A100 в MLPerf 2.0. Источник: NVIDIA

А суперкомпьютер Selene и вовсе продемонстрировал лидерство в шести дисциплинах MLPerf из восьми, уступив место лишь Intel Habana Gaudi 2 в тесте RN-50 и Google TPU v4 в тесте RetinaNet. Всего в «забеге» со стороны NVIDIA приняли участие 16 партнёров со своими платформами, в их число вошли такие известные компании, как ASUS, Baidu, CASIA, Dell Technologies, Fujitsu, GIGABYTE, H3C, HPE, Inspur, Lenovo, Nettrix и Supermicro. Большая часть из них запускала MLPerf 2.0 на системах, имеющих сертификацию самой NVIDIA.

 fds

A100 лидирует в шести тестах из восьми. Источник: NVIDIA

Опираясь на результаты тестов, NVIDIA говорит, что пока только она в состоянии предложить коммерческому клиенту законченную платформу, способную выполнять все стадии какого-либо ИИ-сценария: к примеру, от распознавания произнесённой фразы до поиска и классификации нужной для ответа информации, и наконец, озвучивания самого ответа.

Прогресс ИИ-ускорителей NVIDIA за 3.5 года. Источник: NViDIA

А использование унифицированной платформы вместо нескольких отдельных, закономерно снижает и стоимость владения, и сложность обслуживания и настройки. К тому же, такая платформа имеет задел на будущее, особенно с учётом того, что на смену A100 вскоре начнёт приходить новый флагман NVIDIA в лице H100.

Любопытные факты: за два года, прошедшие с первого участия A100 в тестировании, производительность удалось поднять в 6 раз за счёт оптимизаций программного стека, а за 3,5 года с момента начала участия NVIDIA в проекте MLPerf она выросла ещё больше, в целых 23 раза.

Постоянный URL: http://servernews.ru/1069131
26.06.2022 [15:47], Алексей Степин

Основой суперкомпьютера MareNostrum-5 всё же станут процессоры Intel  Xeon Sapphire Rapids и ускорители NVIDIA H100

Евросоюз явно отстаёт в гонке экзафлопсных суперкомпьютеров, а у одного из крупнейших проектов, MareNostrum-5, сложная судьба — строительство системы постоянно откладывалось. Не столь давно, наконец-то, процесс возобновился, главным поставщиком стала Atos с её новой платформой BullSequana XH3000, причём в составе машины будут использоваться новые Arm-чипы NVIDIA Grace. Но, как выяснил ресурс The Next Platform, основой суперкомпьютера будут вовсе не они. Да и подрядчик в проекте тоже не один.

 Изображение: BSC

Изображение: BSC

Пиковая FP64-производительность составит 314 Пфлопс в HPL, а устоявшаяся — 205 Пфлопс. Однако почти ⅘ из них (163 Пфлопс) обеспечат узлы XH3000 с двумя процессорами Intel Xeon Sapphire Rapids и четырьмя ускорителями NVIDIA H100. В пике они дадут до 270 Пфлопс в FP64, а в вычислениях с пониженной точностью — как раз обещанные 18 Эфлопс. Ещё один кластер будет состоять из узлов Lenovo ThinkSystem SD650 V3, содержащих только CPU Sapphire Rapids, которые суммарно дадут ещё 36 Пфлопс.

 Изображение: BSC

Изображение: BSC

Третий кластер получит следующие поколения процессоров Intel Xeon — Emerald Rapids — и ускорителей Xe Rialto Bridge. Но этот раздел совсем невелик — на него придётся всего 2% мощностей MareNostrum-5, т.е. около 4 Пфлопс. Наконец, самую меньшую долю составят спарки NVIDIA Grace, развивать они будут всего около 2 Пфлопс, менее 1% запланированной мощности системы в Linpack. Два вышеописанных кластера описываются как экспериментальные.

А вот сведения о подсистемах хранения данных изначально были опубликованы верные. Систему объединит 400G-сеть InfiniBand NDR (Quantum-2), для хранения «горячих данных» будет применен кластер IBM Elastic Storage Server с файловой системой Spectrum Scale объёмом более 200 Пбайт. Архивное хранилище, тоже от IBM, будет иметь объём 400 Пбайт. Остаётся надеяться, что более задержек не будет, а имеющиеся проблемы с началом массового производства чипов Sapphire Rapids будут успешно решены.

Постоянный URL: http://servernews.ru/1068814
22.06.2022 [12:50], Сергей Карасёв

В облачных и выделенных серверах Selectel появились новые GPU

Selectel, ведущий провайдер облачной инфраструктуры и услуг дата-центров, объявил о том, что клиентам теперь доступны сервисы на базе новых графических процессоров (GPU) и ускорителей NVIDIA. Речь идёт о предоставлении как выделенных серверов, так и облачных инстансов.

Отмечается, что задействованные акселераторы позволят эффективнее решать такие задачи, как машинное обучение и искусственный интеллект (ИИ), транскодирование видео, обработка графики и рендеринг видео, организация виртуальных рабочих мест, научное моделирование и CUDA-вычисления.

 Источник изображений: Selectel

Источник изображений: Selectel

В облаке появились конфигурации с видеокартами А5000, А2000, А30 и A2. Ускоритель A2000 — это энергоэффективный GPU для компактных рабочих станций: он подойдёт для ИИ, графики и рендеринга видео. Пропускная способность памяти достигает 288 Гбайт/с. В свою очередь, A5000 — универсальный GPU, который подходит для любых задач в рамках своей производительности. Пропускная способность памяти составляет до 768 Гбайт/с, поддерживается vGPU.

Модель A30 подходит для ИИ-инференса, мейнстрим-вычислений, обработки языка, разговорного искусственного интеллекта, рекомендательных систем. Поддерживает vGPU, до четырёх изолированных GPU-инстансов (Multi-Instance GPU), а пропускная способность памяти достигает 933 Гбайт/с. Модель A2 — GPU начального уровня, который подходит для простого инференса, видео и графики, периферийных вычислений (ИИ, обработка видео), мобильного облачного гейминга.

Среди преимуществ облачных серверов названы: оплата по факту потребления, совместимость с различными фреймворками (TensorFlow, PyTorch, Keras, MXNet, Caffe) и со всеми типами нейросетей (GAN, CNN, RNN, SSNN и пр.), простота масштабирования. Рассчитать стоимость облачного инстанса с нужным типом ускорителя можно на соответствующей странице.

В случае выделенных серверов теперь доступны сборки с ускорителями А2, A2000, A4000, A5000 и A100. Версия A4000 предлагает 16 Гбайт памяти GDDR6, 6144 ядра CUDA и 192 тензорных ядра. Акселератор A100 (40 Гбайт) обладает максимальной производительностью для ИИ, HPC и обработки данных. Модель подходит для глубокого обучения, научных исследований и аналитики данных.

Говорится, что при выборе ускорителей Selectel уделяла внимание количеству ядер CUDA, тензорных ядер, а также ядер для трассировки лучей. Кроме того, учитывались объём и пропускная способность памяти, поддержка виртуальных GPU VDI. Изучить и заказать выделенные серверы с GPU можно здесь.

Постоянный URL: http://servernews.ru/1068438
17.06.2022 [00:40], Игорь Осколков

MareNostrum-5 станет самым быстрым ИИ-суперкомпьютером ЕС

У MareNostrum-5 непростая судьба — проект был заморожен прошлым летом из-за разногласий между участниками, причём произошло это тогда, когда машинный зал в Барселонском суперкомпьютерном центре был уже практически готов. Участники не смогли выбрать поставщика оборудования между IBM с Lenovo и Atos. Теперь же стало известно, что победила Atos, весьма вовремя представившая новую HPC-платформу BullSequana XH3000.

Правда, теперь MareNostrum-5 уже не претендует на звание самого быстрого суперкомпьютера Европы в FP64-вычислениях, поскольку его производительность составит 314 Пфлопс. Но вот в ИИ-нагрузках, как сообщила NVIDIA изданию HPCWire, в Евросоюзе ему равных не будет — ожидаемый уровень производительности в этом случае составит 18 Пфлопс. Основу систему составят Arm-процессоры Grace Superchip, которые будут дополнены ускорителями H100, интерконнектом InfiniBand NDR (Quantum-2), 200-Пбайт СХД и 400-Пбайт архивным хранилищем.

 Изображение: BSC

Изображение: BSC

Это будет вторая после ALPS крупная европейская система, построенная на Arm-чипах Grace. Стоимость MareNostrum-5 составит €151,41 млн. Половину этой суммы оплатит EuroHPC и половина же машинного времени достанется участникам консорциума. Остальные расходы поделят между собой Испания, Португалия и Турция. Новый суперкомпьютер будет использоваться в первую очередь для медицинских исследований, разработки лекарств, создания вакцин, изучения распространения вирусов, а также для задач ИИ и Big Data.

 Изображение: BSC

Изображение: BSC

Впрочем, более традиционные HPC-нагрузки в области климатологии, инженерных расчётов, материаловедения и т.д. на нём тоже будут выполняться. Машина будет обладать высокой энергоэффективностью. Питать её планируется исключительно от «зелёных» источников энергии, а выделяемое тепло будет утилизировано. В этом отношении она будет похожа на финский LUMI, самый быстрый европейский суперкомпьютер на сегодняшний день. Но скоро LUMI должен будет уступить первое место экзафлопсной системе JUPITER (Германия).

Помимо LUMI под патронажем EuroHPC сейчас находятся четыре суперкомпьютера: MeluXina (Люксембург), Karolina (Чехия), Discoverer (Болгария) и Vega (Словения). В скором времени будут введены в строй системы LEONARDO (Италия) и Deucalion (Португалия). Вместе с JUPITER были анонсированы ещё четыре суперкомпьютера: DAEDALUS (Греция), LEVENTE (Венгрия), CASPIr (Ирландия) и EHPCPL (Польша). Ну а MareNostrum-5 должен заработать в 2023 году.

Постоянный URL: http://servernews.ru/1068233
08.06.2022 [15:20], Алексей Степин

NVIDIA выбрала процессоры Intel Xeon Sapphire Rapids для своих топовых систем DGX H100

В популярных ныне HPC-системах ведущую роль в обеспечении производительности зачастую играют ускорители, располагающие огромными массивами универсальных вычислительных ядер. Однако все их надо вовремя «кормить» данными, и здесь на первый план выходит пропускная способность интерконнекта. В своё время NVIDIA для DGX A100 выбрала AMD EPYC, единственные массовые на тот момент CPU с поддержкой PCI Express 4.0.

Однако Intel удалось, наконец, справиться с технологическим отставанием по этой части, так что процессоры Xeon поколения Sapphire Rapids получили не только новые расширения, но и поддержку PCI Express 5.0/CXL. И это, возможно, одна из основных причин, по которой корпорация NVIDIA на конференции BofA Securities 2022 объявила о том, что новая система DGX H100 будет использовать именно Sapphire Rapids, а не AMD EPYC Genoa, хотя дизайн системных плат прорабатывался и для этого процессора.

 DGX H100. Источник: NVIDIA

DGX H100. Источник: NVIDIA

Новинка должна увидеть свет в конце этого года, она получит два процессора Xeon Sapphire Rapids, 2 Тбайт системной памяти и 8 ускорителей NVIDIA H100 на базе архитектуры Hopper, объединённых четвёртым поколением интерконнекта NVLink. Общий объём пула HBM3-памяти ускорителей составит 640 Гбайт, чего достаточно для достаточно серьёзных моделей машинного обучения; производительность же в типичном для этого режиме FP8 составит 32 Пфлопс.

Для загрузки машина получит пару NVMe-накопителей объёмом 1,9 Тбайт каждый, встроенное хранилище данных будет состоять из 8 дисков NVMe U.2 объёмом по 3,84 Тбайт. Сетевая часть также достаточно любопытна: только для управления DGX H100 имеет порт 10GbE (50GbE опционально), основная же сетевая часть представлена 400G-адаптерами ConnectX-7 и DPU BlueField-3.

 Источник: Intel

Источник: Intel

Глава корпорации, Дженсен Хуанг (Jensen Huang) также отметил, что NVIDIA продолжит поддержку процессоров с архитектурой x86, в том числе, и для новых суперкомпьютеров, несмотря на разработку собственной серии Arm-процессоров Grace (Hopper). Эти чипы также используют NVLink 4.0 с пропускной способностью 900 Гбайт/с и используются в платформе HGX.

Однако Intel Sapphire Rapids заслужил отдельной похвалы за «великолепную производительность в однопоточном режиме». В настоящее время, отметил Хуанг, новый процессор Intel проходит квалификационное тестирование гиперскейлерами по всему миру, а также тестируется в качестве основного CPU для будущих суперкомпьютеров NVIDIA.

Постоянный URL: http://servernews.ru/1067551
31.05.2022 [00:16], Алексей Степин

ИИ-суперкомпьютер HPE Champollion позволит поставить разработку новых моделей машинного обучения на поток

Компания Hewlett Packard Enterprise (HPE) опубликовала сведения о новом французском суперкомпьютере Champollion, названном в честь знаменитого египтолога и лингвиста Жана-Франсуа Шампольона, открывшего миру с помощью Розеттского камня значение египетских иероглифов. Название выбрано не зря — новый кластер должен помочь в разработке новых, более совершенных и точных методов распознавания и обработки естественных языков. Но главная его изюминка не в этом.

С точки зрения аппаратной архитектуры Champollion на сегодняшний день выглядит довольно обычно, являя собой кластер из 20 узлов HPE Apollo 6500 Gen 10 Plus, включающий в себя 160 ускорителей NVIDIA A100, объединённых «умной» InfiniBand-фабрикой NVIDIA Quantum-2. Каждому узлу полагается довольно много памяти — 4 Тбайт RAM + 30 Тбайт NVMe SSD. Но программная составляющая уникальна — машина будет работать под управлением стека HPE Machine Learning Development Environment.

 HPE Apollo 6500 Gen 10 Plus. Источник: HPE

HPE Apollo 6500 Gen 10 Plus. Источник: HPE

Можно сказать, что MLDE — это метасистема, созданная для разработки платформ и моделей машинного обучения. Она базируется на открытых решениях компании Determined, приобретённой HPE в 2021 году, и сохраняет с ней обратную совместимость, что позволит начать обучение какой-либо модели буквально «на дому», а затем воспользоваться более серьёзными ресурсами.

 Архитектура Machine Learning Development Environment. Источник: HPE

Архитектура Machine Learning Development Environment. Источник: HPE

Такое стандартизированное «поточное производство» моделей машинного обучения, совместимое с популярным инструментарием, вроде TensorFlow и PyTorch, упростит и ускорит все проекты, связанные с данной областью вычислений. Помимо обработки языковых данных и моделей ИИ нового поколения кластер будет использоваться в науке и промышленности.

Размещается суперкомпьютер в ЦОД HPE Center of Excellence, который расположен в городе Гренобль, Франция. Вначале доступ к нему получат только избранные пользователи, но впоследствии HPE планирует предоставить более широкий доступ к ресурсам Champollion. Система является вкладом HPE в инициативу «AI for Humanity», провозглашенную президентом Франции Эммануэлем Макроном в 2018 году с целью развития индустрии и увеличения темпов экономического роста.

Постоянный URL: http://servernews.ru/1066971
30.05.2022 [19:30], Игорь Осколков

Анонсирован Venado, ещё один суперкомпьютер на базе Arm-чипов NVIDIA Grace и Grace Hopper

На ISC 2022 NVIDIA рассказала о развитии своей экосистемы HPC-продуктов, которые помимо ускорителей и традиционных сетевых решений теперь включают собственные Arm-чип серии Grace и DPU. В частности, компания совместно с HPE и Лос-Аламосской национальной лабораторией (LANL) анонсировала Arm-суперкомпьютер Venado.

Venado станет второй после анонсированной ещё в прошлом году швейцарской системой ALPS на базе Arm-чипов NVIDIA Grace и первой подобной в США. Причём это будет гибридная машина, сочетающая кластер из узлов, включающих только CPU, и кластер с ускорителями. Разработчики совместно создадут программный стек, позволяющий бесшовно переносить нагрузки между обоими типами узлов. Конкретные характеристики суперкомпьютера пока не раскрываются, но уже сейчас говорится о пиковой ИИ-производительности в 10 Эфлопс (вычисления смешанной точности).

 Источник: NVIDIA

Источник: NVIDIA

Суперкомпьютер Venado (как и ALPS) будет построен на платформе HPE Cray EX, которая становится всё более универсальной — сегодня было объявлено о сотрудничестве HPE с разработчиком европейских HPC-процессоров SiPearl, который только вчера объявил об аналогичном соглашении с NVIDIA. Но HPE теперь не единственный поставщик подобных систем. На ISC 2022 было объявлено о том, что HPC-системы на базе Grace будут также поставлять Atos, Dell Technologies, GIGABYTE, Inspur, Lenovo и Supermicro. Часть из них предложит собственные платформы, часть — решения на базе недавно обновлённой HGX-платформы для OEM-вендоров.

 Узел ABOF (Фото: LANL)

Узел ABOF (Фото: LANL)

Venado — не единственный совместный проект NVIDIA и LANL. Ранее разработчики рассказали о работе над вычислительным хранилищем ABOF (Accelerated Box of Flash), объединяющем NVMe SSD и DPU BlueField-2. На последних возложено обслуживания файловой системы ZFS, а также задачи по компрессии данных, поддержке их целостности и т.д. Но это не единственная функция, которую можно возложить на DPU, о чём NVIDIA говорила неоднократно. DPU позволяют не только ускорить ряд операций, но и задействовать облачный подход при использовании суперкомпьютеров.

 Источник: NVIDIA

Источник: NVIDIA

Именно этого добивается, например, в Техасском центре передовых вычислений (TACC, Texas Advanced Computing Center) для суперкомпьютера Lonestar6. Специалисты из Университета штата Огайо (Ohio State University), Университета Дарема (Durham University) и Мюнхенского технического университета занимаются ускорением работы MPI с помощью DPU, а Университетский колледж Лондона — над повышением эффективности планировщика задач. И это далеко не все проекты.

Постоянный URL: http://servernews.ru/1066960
29.05.2022 [20:15], Игорь Осколков

Европейские Arm-процессоры SiPearl получат поддержку ускорителей и DPU NVIDIA

SiPearl, европейский разработчик высокопроизводительные и энергоэффективных процессоров для суперкомпьютеров, в том числе экзафлопсного класса, и NVIDIA объявили о сотрудничестве, в рамках которого предложат заказчикам совместные решения, включающие HPC-продукты и сетевые компоненты NVIDIA и CPU SiPearl (первым станет Rhea). Сотрудничество направленно на объединение портфолио аппаратных и программных решений обеих компаний, а также на совместную работу в области разработки продуктов и развития бизнеса.

 Источник: NVIDIA

Источник: NVIDIA

NVIDIA и SiPearl создадут прокси-платформу для переноса и анализа рабочих нагрузок, которая позволит наилучшим образом задействовать сильные стороны продуктов обеих компаний, например, HBM-память в процессорах SiPearl и массивно-параллельную архитектуру ускорителей NVIDIA. Кроме того, планируется совместная работа со сторонними европейскими исследовательскими институтами над открытыми инструментами для моделирования SoC и NoC. Компании намерены добиться полной совместимости на уровне «железа», а также совместно развивать программную экосистему для HPC-решений на базе платформы Arm.

 Источник: SiPearl

Источник: SiPearl

Ранее аналогичное соглашение о сотрудничестве было заключено между SiPearl и Intel. И в том и в другом случае SiPearl, штат которой, к слову, недавно вырос до более чем ста сотрудников, говорит о возможности предоставить европейским заказчикам наиболее оптимальное решение для их задач. Несмотря на то, что Европа стремится стать независимой от США в области высокопроизводительных вычислений (HPC), на первом этапе этого, судя по всему, исключительно своими силами обойтись будет нельзя.

Постоянный URL: http://servernews.ru/1066902
26.05.2022 [20:52], Алексей Степин

NVIDIA и Ayar Labs вместе создадут технологии фотонного интерконнекта для HPC и ИИ-систем будущего

Ayar Labs — один из пионеров в области разработки и внедрения гибридных электронно-оптических технологий, на её счету создание реального фотонного трансивера TeraPHY. Также компания получила $130 млн инвестиций на развитие коммерческой фотоники.

В список главных инвесторов Ayar входит NVIDIA, и сейчас обе компании заявили о сотрудничестве, целью которого станет разработка систем фотонного интерконнекта. Они должны стать основой для ИИ и HPC-инфраструктуры будущего, как сочетающие в себе высокую пропускную способность, низкую латентность и сверхнизкий уровень энергопотребления. При этом переход подсистем I/O на фотонику позволит использовать более длинные кабели без потери производительности, а значит, упростит и удешевит компоновку ЦОД.

 Источник: Ayar Labs

Источник: Ayar Labs

Как отметил ведущий архитектор ЦОД-отдела NVIDIA, Роб Обер (Rob Ober), за прошедшее десятилетие производительность, достигнутая решениями компании в области искусственного интеллекта, возросла в миллион раз, но следующий миллион потребует отказа от медной инфраструктуры, которая уже не сможет справиться с возрастающей сложностью и энергопотреблением таких систем.

 Гибридный оптоэлектронный трансивер уже воплощён в кремнии. Источник: Ayar Labs

Гибридный оптоэлектронный трансивер уже воплощён в кремнии. Источник: Ayar Labs

Предсказывается, что уже к 2023 году сложность моделей машинного обучения достигнет отметки 100 трлн связей, что в 600 раз больше рекордного показателя 2021 года, и эта цифра уже выходит за рамки возможностей современных технологий. Именно для преодоления этого барьера NVIDIA и заключила стратегический альянс с Ayar Labs — её разработки в области фотоники позволят поднять удельную пропускную способность I/O-подсистем в 1000 раз, но уровень энергопотребления при этом, напротив, сократится в 10 раз.

Конкретные сроки в анонсе, опубликованном Ayar Labs, не оговариваются, но промежуточные плоды нового союза, скорее всего, увидят свет в следующем году. Основания для такого оптимизма есть, так как рабочий прототип оптического трансивера на 1024 Тбит/с уже существует в кремнии, хотя и использует не слишком тонкий 45-нм техпроцесс.

Постоянный URL: http://servernews.ru/1066754
Система Orphus