Материалы по тегу: nvidia

15.10.2020 [23:59], Владимир Мироненко

NVIDIA и EuroHPC построят четыре суперкомпьютера, включая мощную систему Leonardo

Совместное предприятие «EuroHPC JU» (European High Performance Computing Joint Undertaking) со штаб-квартирой в Люксембурге, представляющее интересы 32 стран Европы, в июне 2019 года выбрало восемь суперкомпьютерных центров по всему Европейскому Союзу в качестве мест для размещения первых восьми суперкомпьютерных систем EuroHPC.

Компания NVIDIA объявила в четверг, что её продукты будут обеспечивать функционирование по меньшей мере четырёх из них: Leonardo, который будет эксплуатироваться консорциумом CINECA в Италии; Meluxina (LuxConnect, Люксембург); EURO IT4I в Национальном суперкомпьютерном центре IT4Innovations в Чешской Республике; и Vega, размещённом в Институте информатики (IZUM) в Словении.

Все четыре системы будут использовать графические процессоры NVIDIA Ampere и сеть на базе NVIDIA HDR InfiniBand. Компания HPE построит суперкомпьютер EURO IT4I, в строительстве остальных в качестве основного подрядчика выступит Atos. У MeluXina будет 800 графических процессоров NVIDIA A100, у EURO IT4I — 560 штук NVIDIA A100, а у Vega — 240 графических процессоров NVIDIA A100. Ожидается, что Meluxina обеспечит пиковую производительность в пределах 10 Пфлопс, EURO IT4I — 15,2 Пфлопс и Vega — 6,8 Пфлопс, что позволит всем трём попасть в рейтинг TOP-500. 

Настоящим гигантом на их фоне выглядит суперкомпьютерная система CINECA Leonardo, которая, как ожидается, будет иметь пиковую производительность более 200 Пфлопс. Её стоимость составит до 240 млн евро. Половину суммы выделит EuroHPC, вторую половину — Министерство просвещения, университетов и научных исследований Италии. Leonardo — один из трёх запланированных к созданию EuroHPC JU суперкомпьютеров преэкзафлопсного класса.

Leonardo будет содержать около 14 000 новейших графических процессоров NVIDIA A100, распределённых между примерно 3500 узлами Atos Sequana, каждый из которых будет оснащён четырьмя A100 и одним процессором Intel (по всей видимости, 10-нм Sapphire Rapids Xeon Scalable), установленным на основной плате NVIDIA HGX. Узлы с водяным охлаждением будут использовать сеть NVIDIA Mellanox HDR InfiniBand 200 Гбит/с, которая, по словам CINECA, поддерживается за счёт интеллектуального ускорения вычислений в сети, обеспечивающего низкую задержку и высокую пропускную способность данных.

Ожидается, что другие системы, созданные Atos, будут использовать очень похожие конфигурации, за исключением очевидных расхождений в масштабе, в то время, как система, созданная HPE, будет основана на конфигурации HPE Apollo 6500.

При условии своевременного строительства центра обработки данных, развертывание Leonardo предполагается начать в 2021 году с вводом в эксплуатацию в 2022 году. Он будет использоваться CINECA для самых разных исследований, включая разработку лекарств, исследование космоса, моделирование погоды, материаловедение и климатическое моделирование.

Постоянный URL: http://servernews.ru/1023061
12.10.2020 [20:29], Юрий Поздеев

113,1 Гбайт/с и 5 млн IOPS: новый рекорд пропускной способности NVIDIA GPUDirect Storage c WekaIO

Мы уже писали о файловой системе WekaIO, которая может передавать огромные объемы информации буквально за секунды, используя GPUDirect Storage от NVIDIA. Как сообщает Blocks&Files, на новых системах NVIDIA DGX-2 этот производительный тандем может «прокачать» терабайт данных менее чем за девять секунд, работая со скоростью 113,1 Гбайт/с.

GPUDirect Storage (GDS) позволяет системе хранения отправлять данные непосредственно на графический процессор, не используя для этого стандартный стек ввода-вывода операционной системы хост-сервера. GDS обеспечивает прямой доступ к памяти (DMA) и передает данные из памяти графического ускорителя к накопителям NVMe.

Microsoft Research провела тестирование обновленного программного обеспечения WekaIO 3.8, с подключением через Infiniband к DGX-2, используя GPUDirect Storage. При замерах была зафиксирована скорость передачи данных 97,9 Гбайт/с при использовании единственной точки монтирования к WekaFS. Эта скорость на данный момент является рекордной для всех одноузловых протестированных систем с использованием GDS. Результат был подтвержден с помощью утилиты NVIDIA GDSIO, работавшей более 10 минут, и получением стабильной производительности в течении всего измерения.

Источник: Blocks&Files

Источник: Blocks&Files

Но и таких скоростей тестировщикам показалось мало, и они собрали новый тестовый стенд с десятью двухпортовыми сетевыми адаптерами, получив прирост в 38% — 113,13 Гбайт/с для сервера DGX-2. Тестовая система выдала 5 млн IOPS — внушительный результат.

Понятно, что это не массовое решение и стоит оно пока космических денег, однако WekaIO поставила планку скорости, к которой теперь будут стремиться конкуренты. Будем ждать, пока подобные технологии будут доступны более широкому кругу пользователей, ведь они открывают огромные возможности для обработки данных в режиме реального времени.

Постоянный URL: http://servernews.ru/1022752
06.10.2020 [00:35], Владимир Мироненко

NVIDIA намерена активно развивать экосистему Arm: от периферии до облачных дата-центров

Чипы Arm используются во множестве устройств — от мобильных телефонов и автономных транспортных средств до периферийных систем и самого быстрого суперкомпьютера в мире Fugaku в Японии. Этот широкий спектр систем поддерживают около 13 млн разработчиков. Несмотря на то, что сделка по поглощению одобрена не до конца, NVIDIA активно занялась продвижением экосистемы и предлагает сообществу разработчиков расширяющийся набор собственных инструментов.

Они включают:

  • NVIDIA AI — отраслевой стандарт для ускорения обучения ИИ и получения выводов
  • NVIDIA RAPIDS — набор программных библиотек для работы с данными и аналитикой на графических процессорах
  • NVIDIA HPC SDK — компиляторы, библиотеки и программные инструменты для высокопроизводительных вычислений
  • NVIDIA RTX — графические драйверы, обеспечивающие трассировку лучей и возможности ИИ

На протяжении многих лет NVIDIA использует архитектуру Arm в своих SoC Jetson для периферийных вычислений и автономных машин, а в последнее время — в сетевых продуктах, таких как процессоры обработки данных BlueField. BlueField позволяют ускорить и обеспечить безопасность работы сети и хранилищ для облачных, встроенных и корпоративных приложений при поддержке партнёров и независимых поставщиков программного обеспечения.

Передача этих ресурсов компании Arm расширяет выбор клиентов и возможности для партнёров Arm и NVIDIA в четырёх основных секторах: высокопроизводительные вычислительные системы (HPC), облако/ЦОД, периферийный ИИ/робототехника, ПК.

Arm увеличивает возможности своих процессорных технологий с помощью масштабируемых векторных расширений Scalable Vector Extensions (SVE), чтобы удовлетворить потребности крупнейших, самых мощных систем в мире. Инженеры NVIDIA уже работают над расширением поддержки SVE в Fujitsu A64FX, на котором основан суперкомпьютер Fugaku.

NVIDIA сотрудничает с Arm и OEM-партнерами по целому ряду направлений с целью применения облака для игр. Например, в партнёрстве с Ampere Computing расширила свою серверную платформу Mt. Jade для облачных игр. Системы на базе Ampere Altra включают две 80-ядерные SoC на базе Arm, четыре графических процессора NVIDIA T4 и DPU NVIDIA Mellanox BlueField-2.

Вместе они могут одновременно обслуживать 128 игровых пользователей, сеансы потоковой передачи для сервисов Android в облаке, популярных среди растущего числа пользователей смартфонов 5G в Китае. Помимо игр, поставщики облачных услуг используют серверы на базе Arm для машинного обучения, хранения данных и других приложений, ускоряемых графическими процессорами.

Периферия корпоративной сети — следующий крупный рубеж в области вычислений. Платформа NVIDIA EGX edge AI будет поддерживать все основные архитектуры процессоров, включая Arm. Также следует отметить, что ПК с Windows и хромбуки ряда поставщиков уже работают на процессорах Arm, и вскоре появятся новые потребительские платформы.

Набор инструментов CUDA для Arm привносит в экосистему Arm вычислительные возможности NVIDIA с ускорением на GPU и возможности искусственного интеллекта. С помощью CUDA разработчики получают доступ к TensorRT для вывода глубокого обучения, DeepStream для видеоаналитики и многому другому.

Постоянный URL: http://servernews.ru/1022249
05.10.2020 [22:10], Юрий Поздеев

NVIDIA BlueField-2X DPU: «умный» сетевой адаптер с CPU, GPU и RAM

NVIDIA представила два новых решения: BlueField-2X DPU, которое объединякт на одной печатной плате процессорные ядра Arm, графический ускоритель и сетевой адаптер Mellanox, а также BlueField-2 без GPU на борту. Изначально BlueField разрабатывался Mellanox, но последняя стала частью NVIDIA, а разработки перешли по наследству. Так что же интересного и нового в этих двух решениях?

NVIDIA BlueField-2X

NVIDIA BlueField-2X

Начнем с безопасности: архитектура DPU позволяет использовать так называемый Next-Generation Firewall, поддерживает IDS/IPS, микро-сегментацию и защиту от DDOS. И всё это непосредственно в адаптере — ненужный трафик просто не попадает в систему. Естественно, традиционные опции разгрузки и программирования тоже никуда не делись: адаптер обеспечивает скорость передачи данных Ethernet и InfiniBand до 200 Гбит/с, разгружая ядра центрального процессора.

А благодаря NVMe over Fabric (NVMe-oF) Storage Direct, шифрованию, сжатию и дедупликации, NVIDIA BlueField-2 DPU позволяет создать высокопроизводительную сеть хранения данных с низкими задержками. Сегодня же, к слову, компания объявила об открытии раннего доступа разработчикам к GPUDirect Storage.

Для упрощения разработки компания выпустила пакет программного обеспечения (SDK) NVIDIA DOCA, который позволяет разработчикам создавать высокопроизводительные облачные сервисы с использованием DPU и стандартных API, включая Data Plane Development Kit (DPDK) и P4 для сетей и безопасности, а также Storage Perfomance Development Kit (SPDK) для систем хранения.

NVIDIA BlueField-2 основана на ConnectX-6 Dx с программируемыми ядрами Arm (8 ядер Cortex-A72) и двумя ядрами VLIW, дополнительно на плате установлено 8 или 16 Гбайт памяти DDR-4. BlueField-2 может оснащаться двумя портами со скоростями до 100 Гбит/с или одним портом со скоростью до 200 Гбит/с, при этом на карте присутствует выделенный порт 1 Гбит/с для управления. NVIDIA BlueField-2 выпускается в следующих форматах: HHHL, FHHL, OCP 3.0 SFF.

NVIDIA BlueField-2

NVIDIA BlueField-2

NVIDIA BlueField-2X отличается от своего младшего собрата тем, что на плате размещен графический ускоритель на базе Ampere. Это решение предназначено для рабочих нагрузок ИИ, может применяться для вычислений и видеоаналитики на периферии. Столь высокая интеграция делает новинки отличной основой для платформ периферийных вычислений, включая собственную разработку NVIDIA EGX.

По датам выхода пока информация не точная: обе карты планируется выпустить в 2021 году. Однако, этими двумя решениями планы NVIDIA не ограничиваются: объявлены следующие поколения карт BlueField-3 и BlueField-4, которые выйдут до 2023 года. Подобные решения должны существенно изменить подходы к проектированию инфраструктуры центров обработки данных.

Постоянный URL: http://servernews.ru/1022241
05.10.2020 [19:34], Юрий Поздеев

NVIDIA DGX SuperPOD for Enterprise: суперкомпьютер «под ключ»

NVIDIA анонсировала инфраструктуру искусственного интеллекта «под ключ» NVIDIA DGX SuperPOD для корпоративных заказчиков. Решение представляет собой кластер от 20 до 140 узлов NVIDIA DGX A100, соединенных между собой NVIDIA Mellanox HDR InfiniBand. Производительность решения впечатляет — от 100 до 700 Пфлопс.

Новое решение от NVIDIA интересно прежде всего быстротой развертывания и простотой установки: не нужно проектировать систему и вспомогательную инфраструктуру, система сразу готова к использованию. NVIDIA обещает сроки поставок от нескольких недель, что очень быстро по меркам подобных решений.

Решения на базе NVIDIA DGX очень популярны и до конца 2020 года будут поставлены в следующие проекты:

  • NAVER: ведущая поисковая система в Корее, вместе с японской LINE создала бренд технологий ИИ NAVER CLOVA. В систему войдут 140 узлов DGX A100, которые будут использоваться для исследования и разработки моделей естественного разговорного языка для голосовых служб;
  • Университет Линчепинга в Швеции: проект BerzeLiUs, который будет состоять из 60 DGX A100. BerzeLiUs планируется использовать для исследований ИИ, в рамках сотрудничества университета и промышленности, которые финансируются Фондом Кнута и Алисы Валленберг;
  • C-DAC: Центр развития передовых вычислений при Министерстве электроники и информационных технологий Индии, в проекте которого будет использоваться кластер из 42 NVIDIA DGX A100. Система поможет решать общенациональные проблемы в области здравоохранения, образования, энергетики, кибербезопасности, космоса, автомобилестроения и сельского хозяйства;
  • Cambridge-1: 80-узловой DGX SuperPOD с производительностью 400 Пфлопс, который будет развернут в Кембридже. Система будет использоваться для совместных исследований в области ИИ, медицине, промышленности и стартапах.

Самый мощный на текущий момент кластер из 280 NVIDIA DGX A100 носит имя NVIDIA Selene и уже отметился в рейтинге TOP500, получив высшие оценки еще в одном рейтинге MLPerf.

Постоянный URL: http://servernews.ru/1022231
05.10.2020 [18:32], Юрий Поздеев

NVIDIA EGX: решение для периферийных вычислений на базе DPU

NVIDIA объявила о выпуске новой ИИ-платформы NVIDIA EGX для периферийных вычислений. Новое решение может применяться в производстве, сельском хозяйстве, логистике, телекоммуникациях и СМИ для быстрого и эффективного развертывания систем ИИ.

Платформа EGX объединяет возможности GPU с архитектурой NVIDIA Ampere и BlueField-2 DPU на одной карте PCIe, что позволяет создать достаточно компактное и производительное решение. DPU BlueField-2 включает в себя ядра Arm, которые можно использовать для ускорения работы с данными GPU и других задач.

Кроме аппаратной новинки, NVIDIA представила обновленный стек программного обеспечения для EGX, доступный на NVIDIA NGC и в отдельном каталоге ПО, где дополнительно предлагаются предварительно настроенные инструменты ИИ для разных отраслевых решений. Данные платформы приложений поддерживаются ведущими поставщиками ПО для ИИ, такими как Deep North, Everseen и Whiteboard Coordinator.

NVIDIA сотрудничает с ведущими производителями ОС и гипервизоров, включая Canonical, Cloudera, Red Hat, SUSE и VMware, чтобы обеспечить поддержку и оптимизацию нового ПО NVIDIA, которое может работать как на «голом железе», так и в виртуальной среде.

NVIDIA делает ставку на развертывание инструментов анализа ИИ на периферии, непосредственно внутри офисов, фабрик, складов, вышек сотовой связи, школ, магазинов и банков. Это должно сделать подобные технологии более доступными для широкого круга потребителей.

Также NVIDIA анонсировала программу раннего доступа NVIDIA Fleet Command, представляющую собой гибридную облачную платформу с возможностью обработки в данных в реальном времени, которая будет предоставляться по схеме «ПО как услуга» (SaaS). Fleet Command позволит упростить управление серверами, расположенными на множестве объектов, снизит нагрузку на ИТ-отделы за счет проактивного мониторинга и удобной системы управления с графической консолью.

Системы NVIDIA EGX доступны от многих сертифицированных производителей серверов: ASUS, Atos, Dell Technologies, Fujitsu, GIGABYTE, H2C, Inspur, Lenovo, Quanta и Supermicro.

Постоянный URL: http://servernews.ru/1022223
05.10.2020 [18:15], Илья Коваль

NVIDIA представила серверный ускоритель A40 с поддержкой виртуализации

На конференции GTC 2020 компания NVIDIA анонсировала два новых ускорителя: RTX A6000 и A40. Оба являются практически идентичными копиями, но отличаются исполнением — A40 представляет собой привычную полноразмерную двухслотовую карту для серверов с пассивным охлаждением и энергопотреблением 300 Вт.

A40 базируется на 8-нм чипе GA102 (10752 CUDA-ядра, 336 Tensor-ядер и 84 RT-ядра), дополненным 48 Гбайт памяти GDDR6 ECC и 384-бит шиной. Наличие NVLink3 позволяет объединить две карты, получив 96 Гбайт общей RAM. Для подключения к хостовой системе используется PCIe 4.0 x16. Увы, частот памяти и ядра, а также уровень производительности компания пока не приводит.

Новинка ориентирована на 3D/CAM и другие системы моделирования и визуализации в виртуализированных окружениях — как и у старшего собрата в A40 есть поддержка до 7 vGPU с объёмом памяти от 1 до 48 Гбайт. А вот поддержки MIG, судя по всему, пока нет. Тем не менее, прочие функциональные блоки никуда не делись, так что карту можно использовать для вычислений и машинного обучения. Также есть один блок кодирования и два блока декодирования видео, которые поддерживают в том числе и AV1.

Из любопытных особенностей отметим, что для питания используется CPU-коннектор ESP (4+4), а не восьмиконтактный PCIe. Кроме того, карта имеет три видеовыхода DisplayPort 1.4, которые по умолчанию отключены — в сервере они всё равно не нужны. Их можно принудительно включить, но тогда будет недоступна функция vGPU. Также в A40 имеется отдельный крипточип CEC 1712 для Secure Boot и прочих функций безопасности, а сама она соответствует NEBS Level 3, что даёт возможность сертифицировать устройства с ней для использования в промышленных (и прочих неблагоприятных) условиях.

Поставки новинки начнутся в первом квартале следующего года. Впрочем, как и прежде, она будет ориентирована на OEM-поставщиков оборудования, поэтому увидим мы её скорее в составе готовых продуктов и облаках, а не на полках магазинов.

Постоянный URL: http://servernews.ru/1022222
02.10.2020 [20:25], Алексей Степин

NVIDIA Virtual Compute Server упростит использование vGPU для A100

В мае этого года NVIDIA представила миру новую архитектуру Ampere и первенца на её основе, чип A100. Одной из возможностей новинки является улучшенная виртуализация — один ускоритель можно разбить несколько разделов, что может быть полезно в массе сценариев. Можно наоборот, объединить несколько GPU в рамках одной ВМ. Свежий релиз NVIDIA Virtual Compute Server (vCS) упрощает работу с этими функциями.

Виртуализация — явление не новое, но полноценные виртуальные рабочие места с поддержкой различных ускорителей стали появляться сравнительно недавно. Задач и сценариев, где можно использовать виртуальный графический процессор в качестве вычислительного ресурса, немало — это и автоматизированное проектирование (CAD/CAM), и обработка «тяжёлого» фото- и видеоконтента, и обработка массивов медицинских данных, и бизнес-аналитика, и многое другое. Сложность и ресурсоёмкость задач постоянно растёт, а особенно востребованной технология vGPU становится сейчас, когда день ото дня увеличивается количество удалённых рабочих мест.

NVIDIA A100, исполнение NVLink

NVIDIA A100, исполнение NVLink

Такие места либо не всегда возможно снабдить ускорителями класса Tesla, либо мощности, развиваемой одной-двумя платами, может оказаться недостаточно, поэтому NVIDIA продолжает активно продвигать решение по виртуализации ГП под названием Virtual Compute Server (vCS). Такой подход позволяет при необходимости легко наращивать мощность вычислительного пула, обеспечивая при этом удобные средства управления и контроля.

Последняя архитектура NVIDIA под кодовым названием Ampere особенно хорошо проявляет себя в задачах машинного обучения и аналитики больших объёмов данных. Причина этому — наличие в составе новых графических процессоров блоков целочисленных вычислений (INT32) и блоков тензорных вычислений третьего поколения. Теперь вся эта мощь может использоваться и в рамках vCS.

Использование vCS не несёт серьёзных накладных расходов

Использование NVIDIA vCS не несёт серьёзных накладных расходов

Отныне ЦОД, использующие стандартные гипервизорные платформы вроде VMware vSphere или KVM, могут использовать все преимущества ускорителей A100, причём сентябрьское обновление ПО NVIDIA получило ряд полезных нововведений. Среди них — поддержка множественных инстансов: каждый ускоритель теперь может быть разделен на изолированные разделы (Multi-Instance GPU, MIG), запускающие разные задачи разных пользователей. Таких разделов может быть до 7, и каждый будет работать в собственной виртуальной машине.

Появилась гетерогенность: вышеупомянутые инстансы могут иметь разную «величину». Также реализована поддержка GPUDirect RDMA, прямого доступа сетевых устройств к памяти GPU в обход CPU и системной памяти, что позволит разгрузить центральные процессоры серверов виртуализации. Сертифицированные серверы такого класса, оснащаемые новейшими ускорителями A100, уже доступны от партнёров NVIDIA. А на конференции GPU Technology Conference, которая стартует 5 октября, NVIDIA собирается рассказать о технологии Virtual Compute Server более подробно.

Первая версия продукта NVIDIA появилась ещё год назад под именем vComputeServer, однако его впоследствии пришлось поменять, так как оказалось, что торговая марка «vCompute» давно принадлежит компании Virtual Compute. Последняя две недели назад подала иск к NVIDIA в связи с тем, что такая схожесть имён мешает бизнесу компании — в Google ссылки на её сервисы теперь даже не попадают на первую страницу поисковой выдачи. Virtual Compute просит суд запретить NVIDIA использовать любые похожие имена, уничтожить все материалы с их упоминанием, а также компенсировать ущерб.

Постоянный URL: http://servernews.ru/1022080
29.09.2020 [12:11], Владимир Мироненко

NEC изготовит суперкомпьютер Earth Simulator для супермодели Земли

Японское агентство геолого-морских наук и технологий (Japan Agency for Marine-Earth Science and Technology, JAMSTEC) заключило контракт с компанией NEC на поставку суперкомпьютера Earth Simulator четвёртого поколения, предназначенного для решения сложных задач в области наук о жизни на планете с помощью обработки больших объёмов данных об окружающей среде.

Запуск нового суперкомпьютера запланирован на март. Он будет основан на платформе SX-Aurora TSUBASA с векторными ускорителями от NEC и графических процессорах NVIDIA A100 с тензорными ядрами, каждый из которых имеет собственное выделенное подключение NVIDIA Mellanox HDR InfiniBand 200 Гбит/с.

Это обеспечит суперкомпьютеру максимальную теоретическую производительность 19,5 петафлопса, благодаря чему ему гарантировано место в верхней части рейтинга суперкомпьютеров TOP500. Earth Simulator 3, запущенный в 2015 году, имел производительность в пределах 1,3 петафлопса, что превышало показатели Earth Simulators 1 и 2, запущенных в 2002 и 2009 годах соответственно. Earth Simulator четвертого поколения будет обеспечивать более чем 15-кратную производительность по сравнению с предшественником, сохраняя при этом тот же уровень энергопотребления и занимая примерно половину площади.

Благодаря мультиархитектурному дизайну суперкомпьютерную систему можно будет использовать для различных исследовательских и опытно-конструкторских проектов в области наук о Земле. В частности, она будет функционировать как платформа для эффективного численного анализа и систематизации информации, сопоставляя данные, относящиеся к глобальной среде.

Её работа будет охватывать морские ресурсы, землетрясения и вулканическую активность, благодаря чему ученые получат более глубокое понимание причинно-следственных связей в таких областях, как сдвижение земной коры и землетрясения. Earth Simulator будет использоваться для прогнозирования и смягчения последствий стихийных бедствий, потенциально сводя к минимуму человеческие жертвы и ущерб в случае стихийного бедствия, такого как землетрясение и цунами, обрушившиеся на Японию в 2011 году.

Earth Simulator будет применять крупномасштабное моделирование на высокой скорости и уровне, недостижимом для предыдущих поколений суперкомпьютеров Earth Simulator. Также предполагается, что суперкомпьютер сыграет важную роль в помощи правительствам в развитии устойчивой социально-экономической системы.

Постоянный URL: http://servernews.ru/1021717
14.09.2020 [10:14], Юрий Поздеев

NVIDIA и Arm создадут исследовательский центр в Кембридже

По мнению NVIDIA искусственный интеллект — самая мощная технологическая сила нашего времени. Это следующая ступень автоматизации, когда программное обеспечение пишет программное обеспечение. Хотя ИИ зародился в центрах обработки данных, он быстро переходит на периферию — в магазины, склады, больницы, аэропорты, где интеллектуальные датчики, подключенные к компьютерам с ИИ, могут ускорить и оптимизировать рутинные операции.

Со временем появятся триллионы небольших автономных компьютеров с ИИ, подключенных к мощным облачным центрам обработки данных во всех уголках мира.

После новостей о покупке NVIDIA компании ARM, вполне логичной стала новость о том, что на базе этих двух компаний будет создан открытый исследовательский центр в Кембридже, где когда-то жили такие выдающиеся ученые, как Иссаак Ньютон и Алан Тьюринг, в честь которых названы некоторые технологии NVIDIA. Именно в Кембридж приедут ведущие ученые и инженеры со всего мира, чтобы развивать новые технологии ИИ.

Центр в Кембридже будет включать:

  • Суперкомпьютер на базе Arm/NVIDIA: ожидается, что это будет один из самых мощных суперкомпьютеров ИИ в мире, сочетая в себе самые передовые процессоры Arm и новейшие графические ускорители NVIDIA, соединенные DPU NVIDIA Mellanox (пример суперкомпьютера Fugaku на базе Arm доказывает, что это возможно).
  • Исследовательские стипендии и партнерства: в исследовательском центре NVIDIA будет расширять сотрудничество с академическими кругами и промышленностью для проведения исследований, охватывающих все передовые разработки в различных областях.
  • Обучение искусственному интеллекту: образовательное подразделение NVIDIA, Институт DEEP LEARNING AI, обучило более 250 000 студентов фундаментальным и прикладным дисциплинам, связанным с ИИ. Подобный институт будет создан на базе Кембриджа, что позволит увеличить количество студентов.
  • Акселератор для стартапов: большинство передовой разработки в области ИИ выполняется стартапами. NVIDIA Inception, программа акселератора стартапов, насчитывает более 6000 участников, из которых более 400 находятся в Великобритании. NVIDIA продолжит свои инвестиции в этой области, помогая развиваться новым «единорогам».
  • Отраслевое сотрудничество: исследовательский центр NVIDIA AI станет открытым центром отраслевого сотрудничества с промышленными предприятиями самого разного профиля.

Поставленные цели очень амбициозны, но осуществимы. Будем следить за успехами нового исследовательского центра в Кембридже.

Постоянный URL: http://servernews.ru/1020518
Система Orphus