Материалы по тегу: nvidia

24.05.2024 [13:29], Сергей Карасёв

Облачный провайдер Scaleway расширил охват до 52 стран и закупил ещё тысячу NVIDIA H100

Французский облачный провайдер Scaleway, по сообщению ресурса Datacenter Dynamics, значительно расширил зону охвата. Компания теперь предоставляет свой сервис Dedibox Virtual Private Server (VPS) в 65 городах на территории 52 стран.

По заявлениям Scaleway, Dedibox VPS даёт компаниям гибкость в развёртывании виртуальной инфраструктуры. Доступны различные конфигурации, а стоимость начинается примерно с €5/мес. Услуга охватывает Северную Америку, Южную Америку, Европу, Ближний Восток, Африку, Азию и Океанию.

 Источник изображения: Scaleway

Источник изображения: Scaleway

Кроме того, провайдер объявил о приобретении более 1000 дополнительных ускорителей NVIDIA H100, которые будут использованы для расширения вычислительных мощностей в дата-центре Iliad DC5 в Большом Париже. Scaleway использует Ethernet-платформу Spectrum-X, разработанную для облачных провайдеров.

Scaleway также запустила новую услугу под названием GPU Cluster On Demand. Она позволяет клиентам зарезервировать необходимое количество вычислительных кластеров на базе GPU — от нескольких штук до нескольких тысяч. Таким образом, можно гибко масштабировать ресурсы при реализации различных проектов в области ИИ и НРС.

Наконец, Scaleway объявила о подписании соглашения о предоставлении ускорителей H100 компании H из Парижа. Этот стартап сформирован командой бывших руководителей Google DeepMind. Компания занимается разработкой мультиагентных моделей и фундаментальных моделей поведения.

Постоянный URL: http://www.servernews.ru/1105343
24.05.2024 [13:17], Сергей Карасёв

Microsoft ежемесячно развёртывает по пять ИИ-суперкомпьютеров

Microsoft на фоне стремительного развития ИИ активно расширяет свой вычислительный потенциал: каждый месяц корпорация развёртывает эквивалент пяти суперкомпьютеров Eagle. Об этом, как сообщает ресурс Datacenter Dynamics, заявил технический директор облачной платформы Azure Марк Руссинович (Mark Russinovich).

Комплекс Microsoft Azure Eagle в нынешнем рейтинге TOP500 занимает третье место с FP64-производительностью 561,2 Пфлопс — это самый мощный в мире облачный суперкомпьютер. В системе задействованы 14 400 ускорителей NVIDIA H100, а также интерконнект NVIDIA InfiniBand NDR. «Сегодня мы развёртываем эквивалент пяти таких суперкомпьютеров каждый месяц. Наша экосистема ИИ теперь на несколько порядков больше и меняется каждый день и каждый час», — сказал Руссинович на конференции Microsoft Build.

Таким образом, ежемесячно Microsoft вводит в эксплуатацию вычислительные мощности, сопоставимые с теми, которые могут обеспечить 72 000 ускорителей Н100. В общей сложности это 2,8 Эфлопс ресурсов, которые распределены по расширяющейся сети дата-центров корпорации. Руссинович отметил, что общая протяжённость соединений InfiniBand в этих ЦОД такова, что ими можно было бы как минимум пять раз опоясать Землю. То есть, это не менее 200 тыс. км.

 Источник изображения: Microsoft

Источник изображения: Microsoft

О стремительном расширении вычислительных мощностей также говорит технический директор Microsoft Кевин Скотт (Kevin Scott). Он не стал приводить конкретные цифры, но дал наглядное представление. Так, ИИ-суперкомпьютер, который корпорация в 2020 году создала для OpenAI GPT-3, Скотт сравнил с акулой. Система следующего поколения, разработанная в 2022-м для обучения GPT-4, — это косатка, которая в два раза длиннее и в три раза тяжелее больших белых акул. Нынешняя система Microsoft сравнивается с синим китом: он более чем в два раза длиннее и примерно в 25 раз тяжелее косатки.

В настоящее время Microsoft и OpenAI обсуждают проект строительства масштабного кампуса ЦОД для решения самых сложных и ресурсоёмких задач в области ИИ. Проект под названием Stargate стоимостью около $100 млрд предполагает создание ряда объектов, суммарная мощность которых может достигать 5 ГВт. Компания действительно стремительно наращивает ёмкость своих ЦОД, добавляя порядка 200 МВт ежемесячно.

Постоянный URL: http://www.servernews.ru/1105333
23.05.2024 [21:00], Владимир Мироненко

Чистая прибыль NVIDIA по итогам квартала взлетела более чем в семь раз

NVIDIA объявила финансовые результаты за I квартал 2025 финансового года, завершившийся 28 апреля 2024 года. После объявления итогов, которые превзошли прогнозы аналитиков Уолл-стрит, акции компании выросли в цене в ходе расширенных торгов на 7 %, впервые превысив отметку в $1000.

Выручка компании выросла на 262 % до $26,04 млрд, что значительно превышает консенсус-прогноз аналитиков, опрошенных LSEG, в размере $24,65 млрд. Скорректированная прибыль на акцию (Non-GAAP) превзошла прошлогодний показатель на 461%, составив $6,12, что также выше консенсус-прогноза LSEG, равного $5,59 на акцию. Чистая прибыль (GAAP) выросла год к году на 628 %, достигнув $14,881 млрд или $5,98 на акцию.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В текущем, II квартале 2025 года NVIDIA ожидает получить выручку в размере $28,0 млрд ± 2 %, что выше прогноза аналитиков Уолл-стрит в размере $26,61 млрд. Консенсус-прогноз аналитиков, опрошенных LSEG, по скорректированной прибыли на акцию (Non-GAAP) в этом квартале равен $5,95. NVIDIA проведёт форвардное дробление акций в соотношении 10:1, которое пройдёт после закрытия торгов 7 июля. Это сделает акции компании доступными для более широкого круга розничных инвесторов.

Большую часть выручки компании принесло подразделение по выпуску продуктов для ЦОД, увеличившее выручку год к году на 427 % до $22,56 млрд, чему способствовал растущий спрос на ИИ-ускорители. При этом поставки продукции для серверов увеличились год к году на 478 % до $19,39 млрд, а продажи сетевых решений — на 242 % до $3,17 млрд. В сегменте профессиональной визуализации продажи выросли на 45 % до $427 млн, в автомобильном секторе рост выручки год к году составил 11 %, до $329 млн.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам финансового директора Колетт Кресс (Colette Kress), рост показателей подразделения по выпуску решений для ЦОД был обусловлен высоким спросом на ускорители H100, которые в настоящее время являются самыми мощными на рынке и на них приходится около 40 % продаж в этом сегменте. «Большим событием в этом квартале стал анонс Meta большой языковой модели Llama 3, для которой потребовалось 24 тыс. ИИ-ускорителей H100», — сообщила Кресс.

Аналитик Third Bridge Лукас Ке (Lucas Keh) утверждает, что спрос на ускорители NVIDIA H100 настолько велик, что производитель чипов едва успевает за ним. Генеральный директор компании Дженсен Хуанг (Jensen Huang) заявил, что ожидает ещё большего роста благодаря выходу к концу года ускорителей Blackwell следующего поколения. По его словам, эти ускорители начнут поступать в ЦОД к IV кварталу. Компания намерена ежегодно представлять новую архитектуру ускорителей.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

NVIDIA также отметила высокий спрос на её сетевые компоненты, которые становятся столь же важными, как и ИИ-ускорители, поскольку кластеры из десятков тысяч чипов требуют эффективного интерконнекта. Рост продаж, связанных с сетевыми технологиями, в первую очередь был обусловлен увеличением реализации продуктов InfiniBand.

Постоянный URL: http://www.servernews.ru/1105318
22.05.2024 [14:09], Сергей Карасёв

Dell представила ИИ-сервер PowerEdge XE9680L с ускорителями NVIDIA B200 и СЖО

Компания Dell анонсировала сервер PowerEdge XE9680L, предназначенный для наиболее требовательных больших языковых моделей (LLM) и крупномасштабных сред ИИ, где плотность размещения ускорителей на стойку имеет решающее значение. Новинка станет доступна во II половине 2024 года.

Сервер выполнен в форм-факторе 4U. Он может комплектоваться восемью ускорителями NVIDIA HGX B200 (Blackwell). Задействована система прямого жидкостного охлаждения (DLC). Доступны 12 слотов PCIe 5.0 полной высоты и половинной длины для установки сетевых карт и иных адаптеров/контроллеров.

«Сервер использует эффективное интеллектуальное охлаждение DLC как для CPU, так и для GPU. Эта революционная технология позволяет создать более плотную конфигурацию 4U, максимизируя вычислительную мощность при сохранении тепловой эффективности», — заявляет производитель.

 Источник изображения: Dell

Источник изображения: Dell

Отмечается, что PowerEdge XE9680L обеспечивает возможность масштабирования до 72 ускорителей Blackwell в расчёте на стойку 52U или до 64 ускорителей на стойку 48U. Прочие характеристики новинки будут обнародованы ближе к началу продаж. В ассортименте Dell уже есть 6U-сервер PowerEdge XE9680. Эта система использует процессоры Intel Xeon Sapphire Rapids. Она поддерживает установку восьми ускорителей NVIDIA H100/A100, а также AMD Instinct MI300X и Intel Gaudi3.

Постоянный URL: http://www.servernews.ru/1105185
21.05.2024 [20:01], Владимир Мироненко

NetApp представила новые All-Flash СХД AFF A-Series для ИИ-приложений и других требовательных задач

Компания NetApp представила новые системы хранения данных FAS (AFF) A-Series, предназначенные для обработки требовательных ИТ-задач, таких как приложения генеративного ИИ, среды VMware и корпоративные базы данных.

По словам NetApp, в качестве унифицированного решения для хранения данных новые системы подходят для любого типа данных, приложений или облаков, обеспечивая удвоенную производительность по сравнению с существующими решениями A-Series (A70 по сравнению с A400, A90 по сравнению с A800 и A1K по сравнению с A900) — до 40 млн IOPS и 1 Тбайт/с при 99,9999 % доступности данных. Поставки систем AFF A-Series начнут в конце июня. Они также будут доступны по подписке NetApp Keystone.

Новые системы All-Flash предназначены для рабочих нагрузок нового поколения с различными потребностями:

  • AFF A70 — интегрированная платформа среднего класса, оптимизированная для достижения идеального баланса между ценой и производительностью.
  • AFF A90 — интегрированная платформа высокого класса для критически важных рабочих задач.
  • AFF A1K — модульная платформа высшего класса, предназначенная для самых требовательных нагрузок.
 Источник изображений: NetApp

Источник изображений: NetApp

Системы A70 и A90 имеют одинаковый 4U-шасси с 48 слотами для NVMe SSD и диапазон сырой «ёмкости» от 68 Тбайт до 3,7 Пбайт. A70 и A90 встроенный контроллер и полки для дисков, тогда как A1K является модульным решением с отдельным 2U-контроллером и 2U-шасси с 24 слотами для накопителей. Новинки получили более современные интерфейсы 200GbE и FC64. Основной систем являются процессоры Intel Xeon последнего поколения с DDR5 и PCIe 5.0.

Благодаря поддержке протоколов блочного, файлового и объектного доступа, а также интеграции с AWS, Google Cloud и Microsoft Azure, системы A-Series позволят компаниям консолидировать несколько рабочих нагрузок. По данным производителя, новые системы обеспечивают на 50 % меньшую стоимость IO-операций, на 55 % меньше затрат на единицу пропускной способности и на 45 % меньше затрат на единицу плотности.

NetApp сообщила, что новые СХД обладают лучшим в отрасли показателем эффективной ёмкости. Все новинки могут масштабироваться до 24 узлов, а максимальная эффективная ёмкость может достигать 185 Пбайт. Компрессия и дедупликация работают в фоновом режиме и используют возможности Intel QuickAssist (QAT). По словам компании, приложения баз данных благодаря использованию новых СХД работают на 44 % быстрее, а общая эффективность хранения данных увеличивается на 71 %.

Системы NetApp AFF серии A обеспечивают многоуровневую защиту и обнаружение программ-вымогателей в режиме реального времени для предотвращения атак вредоносных программ с точностью более 99 %, гарантию восстановления и поддерживают создание неизменяемых резервных копий. Кроме того, новые системы будут обеспечивать возможность разгрузки шифрования для IPsec или TLS 1.3. Эта функция будет включена в будущих выпусках ПО ONTAP, чтобы обеспечить надёжное сквозное шифрование данных без влияния на производительность.

Также было представлено совместное решение NetApp и Lenovo для конвергентной инфраструктуры с системами AFF A-Series, предназначенное для оптимизации внедрения и управления корпоративными рабочими нагрузками генеративного ИИ, включая запуск настраиваемых чат-ботов, инструментов Copilot и других приложений.

 Источник изображения: Lenovo

Источник изображения: Lenovo

Новая версия NetApp AIPod от Lenovo сочетает в себе возможности AIPod с серверами Lenovo ThinkSystem SR675 V3 на базе процессоров AMD и ускорителей NVIDIA L40S. Фактически речь идёт об интеграции платформы NVIDIA OVX с СХД NetApp. Также совместное решение включает в себя сетевую платформу NVIDIA Spectrum-X.

Постоянный URL: http://www.servernews.ru/1105127
15.05.2024 [14:18], Руслан Авдеев

PUE у вас неправильный: NVIDIA призывает пересмотреть методы оценки энергоэффективности ЦОД и суперкомпьютеров

Операторам дата-центров и суперкомпьютеров не хватает инструментов для корректного измерения энергоэффективности их оборудования и оценки прогресса на пути к экоустойчивым вычислениям. Как утверждает NVIDIA, нужна нова система оценки показателей при использовании оборудования в реальных задачах.

Для оценки эффективности ЦОД существует как минимум около трёх десятков стандартов, некоторые уделяют внимание весьма специфическим критериям вроде расхода воды или уровню безопасности. Сегодня чаще всего используется показатель PUE (power usage effectiveness), т.е. отношение энергопотребления всего объекта к потреблению собственно IT-инфраструктуры. В последние годы многие операторы достигли практически идеальных значений PUE, поскольку, например, на преобразование энергии и охлаждение нужно совсем мало энергии.

В эпоху роста облачных сервисов оценка PUE показала довольно высокую эффективность, но в эру ИИ-вычислений этот индекс уже не вполне соответствует запросам отрасли ЦОД — оборудование заметно изменилось. NVIDIA справедливо отмечает, что PUE не учитывает эффективность инфраструктуры в реальных нагрузках. С таким же успехом можно измерять расход автомобилем бензина без учёта того, как далеко он может проехать без дозаправки. При этом среднемировой показатель PUE дата-центров остаётся неизменным уже несколько лет, а улучшать его всё дороже.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Что касается энергопотребления, разное оборудование при одинаковых затратах может давать самые разные результаты. Другими словами, если современные ускорители потребляют больше энергии, это не значит, что они менее эффективны, поскольку они дают несопоставимо лучший результат в сравнении со старыми решениями. NVIDIA неоднократно приводила подобные сравнения и между своими GPU с обычными CPU, а теперь предлагает распространить этот подход на ЦОД целиком, что справедливо, учитывая стремление NVIDIA сделать минимальной единицей развёртывания целую стойку.

Как считают в NVIDIA, оценивать качество ЦОД можно только с учётом того, сколько энергии тратится для получения результата. Так, ЦОД для ИИ могут полагаться на MLPerf-бенчмарки, суперкомпьютеры для научных исследований могут требовать измерения других показателей, а коммерческие дата-центры для стриминговых сервисов — третьих. В идеале бенчмарки должны измерять прогресс в ускоренных вычислениях с использованием специализированных сопроцессоров, ПО и методик. Например, в параллельных вычислениях GPU намного энергоэффективнее обычных процессоров

Не так давно эксперты Стэнфордского университета отметии, что с 2003 года производительность ускорителей выросла приблизительно в 7 тыс. раз, а соотношение цены и производительности стало в 5,6 тыс. раз лучше. А с учётом того, что современные ЦОД достигли PUE на уровне приблизительно 1,2, подобная метрика практически исчерпала себя, теперь стоит ориентироваться на другие показатели, релевантные актуальным проблемам.

Хотя напрямую сравнить некоторые аспекты невозможно, сегментировав деятельность ЦОД на типы рабочих нагрузок, возможно, удалось бы получить некоторые результаты. В частности, операторам ЦОД нужен пакет бенчмарков, измеряющих показатели при самых распространённых рабочих ИИ-нагрузках. Например, неплохой метрикой может стать Дж/токен. Впрочем, NVIDIA грех жаловаться на недостойные оценки — в последнем рейтинге Green500 именно её системы заняли лидерские позиции.

Постоянный URL: http://www.servernews.ru/1104833
13.05.2024 [11:12], Сергей Карасёв

Supermicro представила ИИ-серверы на базе Intel Gaudi3 и AMD Instinct MI300X

Компания Supermicro анонсировала новые серверы для задач ИИ и НРС. Дебютировали системы высокой плотности с жидкостным охлаждением, а также устройства, оборудованные высокопроизводительными ускорителями AMD, Intel и NVIDIA.

 Источник изображений: Supermicro

Источник изображений: Supermicro

В частности, представлены серверы SYS-421GE-TNHR2-LCC и AS-4125GS-TNHR2-LCC в форм-факторе 4U, оснащённые СЖО. Первая из этих моделей рассчитана на установку двух процессоров Intel Xeon Emerald Rapids или Xeon Sapphire Rapids (до 385 Вт), а также 32 модулей DDR5-5600. Второй сервер поддерживает два чипа AMD EPYC 9004 Genoa с показателем TDP до 400 Вт и 24 модуля DDR5-4800.

Обе новинки могут быть оборудованы восемью ускорителями NVIDIA H100 (SXM). В одной стойке могут размещаться до восьми серверов, что в сумме даст 64 ускорителя. При этом общая заявленная производительность такого кластера на операциях FP16 превышает 126 Пфлопс. Серверы оборудованы восемью фронтальными отсеками для SFF-накопителей NVMe. Питание обеспечивают четыре блока мощностью 5250 Вт с сертификатом Titanium. Слоты расширения выполнены по схеме 8 × PCIe 5.0 x16 LP и 2 × PCIe 5.0 x16 FHHL.

На ISC 2024 компания Supermicro также демонстрирует сервер типоразмера 8U, оборудованный ускорителями Intel Gaudi3. Это одна из первых систем такого рода. Кроме того, представлена система AS-8125GS-TNMR2 формата 8U, рассчитанная на восемь ускорителей AMD Instinct MI300X. Этот сервер может комплектоваться двумя процессорами EPYC 9004 с TDP до 400 Вт, 24 модулями оперативной памяти DDR5-4800, фронтальными накопителями SFF (16 × NVMe и 2 × SATA), двумя модулями M.2 NVMe. Установлены шесть блоков питания на 3000 Вт с сертификатом Titanium.

Наконец, Supermicro готовит серверы формата 4U с жидкостным охлаждением, которые могут оснащаться восемью ускорителями NVIDIA H100 и H200. Компания демонстрирует на конференции ISC 2024 и другие системы для приложений ИИ, а также задач НРС.

Постоянный URL: http://www.servernews.ru/1104679
13.05.2024 [09:00], Сергей Карасёв

Более 200 Эфлопс для ИИ: NVIDIA представила новые НРС-системы на суперчипах Grace Hopper

Компания NVIDIA рассказала о новых высокопроизводительных комплексах на основе суперчипов Grace Hopper для задач ИИ и НРС. Отмечается, что суммарная производительность этих систем превышает 200 Эфлопс. Суперкомпьютеры предназначены для решения самых разных задач — от исследований в области изменений климата до сложных научных проектов.

Одним из таких НРС-комплексов является EXA1 — HE, который является совместным проектом Eviden (дочерняя структура Atos) и Комиссариата по атомной и альтернативным видам энергии Франции (СЕА). Система использует 477 вычислительных узлов на базе Grace Hopper, а пиковое быстродействие достигает 104 Пфлопс.

Ещё одной системой стал суперкомпьютер Alps в Швейцарском национальном компьютерном центре (CSCS). Он использует в общей сложности 10 тыс. суперчипов Grace Hopper. Заявленная производительность на операциях ИИ достигает 10 Эфлопс, и это самый быстрый ИИ-суперкомпьбтер в Европе. Утверждается, что по энергоэффективности Alps в 10 раз превосходит систему предыдущего поколения Piz Daint.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

В свою очередь, комплекс Helios, созданный компанией НРЕ для Академического компьютерного центра Cyfronet Научно-технического университета AGH в Кракове (Польша), содержит 440 суперчипов NVIDIA GH200 Grace Hopper. Пиковое быстродействие на ИИ-операциях достигает 1,8 Эфлопс.

В список систем на платформе Grace Hopper также входит Jupiter — первый европейский суперкомпьютер экзафлопсного класса. Комплекс расположится в Юлихском исследовательском центре (FZJ) в Германии. Кроме того, в список вошёл комплекс DeltaAI на основе GH200 Grace Hopper, созданием которого занимается Национальный центр суперкомпьютерных приложений (NCSA) при Университете Иллинойса в Урбане-Шампейне (США).

В числе прочих систем названы суперкомпьютер Miyabi в Объединённом центре передовых высокопроизводительных вычислений в Японии (JCAHPC), Isambard-AI в Бристольском университете в Великобритании (5280 × GH200), а также суперкомпьютер в Техасском центре передовых вычислений при Техасском университете в Остине (США), комплекс Venado в Лос-Аламосской национальной лаборатории США (LANL) и суперкомпьютер Recursion BioHive-2 (504 × H100).

Постоянный URL: http://www.servernews.ru/1104649
13.05.2024 [09:00], Сергей Карасёв

NVIDIA представила гибридные квантовые системы на платформе CUDA-Q

Компания NVIDIA сообщила о том, что её платформа CUDA-Q будет использоваться в суперкомпьютерных центрах по всему миру. Она поможет ускорить исследования в области квантовых вычислений, что в перспективе позволит решать наиболее сложные научные задачи.

Технология CUDA-Q предназначена для интеграции CPU, GPU и квантовых процессоров (QPU) и разработки приложений для них. Она даёт возможность выполнять сложные симуляции квантовых схем. О намерении использовать CUDA-Q в составе своих НРС-систем объявили организации в Германии, Японии и Польше.

В частности, Юлихский суперкомпьютерный центр в Германии (JSC) намерен использовать квантовое решение производства IQM Quantum Computers в качестве дополнения к Jupiter — первому европейскому суперкомпьютеру экзафлопсного класса. Этот комплекс будет смонтирован в Юлихском исследовательском центре (FZJ). Суперкомпьютер Jupiter получит приблизительно 24 тыс. гибридных суперчипов NVIDIA GH200 Grace Hopper.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Ещё одной гибридной системой, объединяющей классические и квантовые технологии, станет комплексе ABCI-Q, который расположится в суперкомпьютерном центре ABCI (AI Bridging Cloud Infrastructure) Национального института передовых промышленных наук и технологий Японии (AIST). В состав суперкомпьютера войдут QPU разработки QuEra, а также более 2000 ускорителей NVIDIA H100. Ввод ABCI-Q в эксплуатацию состоится в начале 2025 года. Применять систему планируется при проведении исследований в области ИИ, энергетики, биологии и пр.

Вместе с тем Познаньский центр суперкомпьютерных и сетевых технологий (PSNC) в Польше приобрёл две квантовые вычислительные системы британской компании ORCA Computing. Они интегрированы в существующую HPC-инфраструктуру PSNC, которая в числе прочего использует изделия NVIDIA Hopper. Узлы на базе QPU помогут в решении задач в области химии, биологии и машинного обучения.

Постоянный URL: http://www.servernews.ru/1104650
12.05.2024 [21:57], Сергей Карасёв

ИИ федерального значения: правительственные учреждения США получат 17-Пфлопс суперкомпьютер на базе NVIDIA DGX SuperPOD H100

Компания NVIDIA сообщила о том, что её система DGX SuperPOD ляжет в основу нового вычислительного комплекса для задач ИИ, который будет использоваться различными правительственными учреждениями США для проведения исследований в области климатологии, здравоохранения и кибербезопасности.

Внедрением суперкомпьютера занимается MITRE — американская некоммерческая организация, специализирующаяся в области системной инженерии. Она ведёт разработки и исследования в интересах госорганов США, включая Министерство обороны (DoD), Федеральное управление гражданской авиации (FAA) и пр.

Система DGX SuperPOD станет основой вычислительной платформы MITRE Federal AI Sandbox, доступ к ресурсам которой будет предоставляться различным организациям на федеральном уровне. Государственные учреждения смогут сообща использовать суперкомпьютер для обучения больших языковых моделей (LLM), развёртывания генеративных приложений и других современных ИИ-решений.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В состав MITRE Federal AI Sandbox войдут 32 системы NVIDIA DGX H100, а общее количество ускорителей NVIDIA H100 составит 256 штук. Производительность на операциях ИИ будет достигать примерно 1 Эфлопс. Быстродействие FP64 — приблизительно 17 Пфлопс. Ввод суперкомпьютера в эксплуатацию состоится позднее в текущем году.

«Развёртывание MITRE DGX SuperPOD поможет ускорить реализацию инициатив федерального правительства США в области ИИ. Технологии ИИ обладают огромным потенциалом для улучшения государственных услуг в гражданской области и решения серьёзных проблем, в том числе в сфере кибербезопасности», — сказал Энтони Роббинс (Anthony Robbins), вице-президент NVIDIA.

Постоянный URL: http://www.servernews.ru/1104678

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus