Материалы по тегу: cray

03.11.2020 [18:00], Сергей Карасёв

CoolIT и HPE продолжат совместное развитие СЖО для суперкомпьютеров и серверов

Компания CoolIT Systems объявила о расширении сотрудничества с Hewlett Packard Enterprise (HPE) в сфере построения систем высокопроизводительных вычислений с эффективным охлаждением. Речь, в частности, идёт об использовании передовых средств отвода тепла на основе СЖО.

CoolIT является разработчиком систем прямого жидкостного охлаждения DLC, или Direct Liquid Cooling. Она позволяет отводить тепло от центральных процессоров, регуляторов напряжения и памяти. Применение данного решения даёт возможность повысить плотность размещения оборудования в стойках. А это обеспечивает экономию средств на площадях, необходимых для развёртывания центров обработки данных и систем высокопроизводительных вычислений. К тому же повышается энергетическая эффективность.

Сообщается, что в рамках сотрудничества системы охлаждения CoolIT DLC будут применяться в суперкомпьютерах HPE Cray EX, а также в некоторых аппаратных комплексах c HPE Apollo 20. Партнёры добавляют, что технология охлаждения DLC уже реализована в платформах HPE Cray EX для Администрации по национальной ядерной безопасности Министерства энергетики США, австралийского суперкомпьютерного центра Pawsey, суперкомпьютера EuroHPC JU LUMI и пр.

Постоянный URL: http://servernews.ru/1024437
21.10.2020 [12:18], Владимир Мироненко

HPE построит в Финляндии суперкомпьютер LUMI производительностью 550 Пфлопс

Компания Hewlett Packard Enterprise (HPE) объявила сегодня о заключении контракта стоимостью более 160 миллионов долларов США на создание суперкомпьютера LUMI в Финляндии.

Финансирование создания LUMI будет осуществляться в рамках панъевропейского проекта по разработке современных суперкомпьютеров EuroHPC. Новая система получит теоретическую пиковую производительность более 550 Пфлопс. Это превосходит возможности суперкомпьютера Fugaku в Центре вычислительных наук RIKEN, который достиг производительности в 415,5 Пфлопс в июне 2020 года.

HPE сообщила, что LUMI будет установлен в Финском научном центре ИТ в Каяани. Он будет основан на архитектуре HPE Cray EX с процессорами AMD EPYC и высокопроизводительными графическими картами AMD Instinct. Также суперкомпьютер будет использовать систему хранения HPE Cray ClusterStor E1000 и интерконнект HPE Slingshot плюс возможности жидкостного охлаждения для минимизации потребления электроэнергии и воды.

LUMI будет питаться от гидроэлектроэнергии, поставляемой государственной шведской компанией Vattenfall. Как было объявлено ранее, часть тепла, производимого LUMI, будет использоваться поставщиком коммунальных услуг Loiste Lämpö для отопления домов в Каяани.

Предполагается, что LUMI будет запущен в эксплуатацию в середине 2021 года. Его вычислительными возможностями смогут воспользоваться десять европейских стран в рамках недавно сформированного консорциума, в который вошли Бельгия, Чешская Республика, Дания, Эстония, Финляндия, Исландия, Норвегия, Польша, Швеция и Швейцария.

LUMI — вторая суперкомпьютерная система, которую HPE построит по контракту с EuroHPC, вслед за суперкомпьютером Euro_I4TI для Национального суперкомпьютерного центра IT4Innovations в Остраве.

Постоянный URL: http://servernews.ru/1023462
21.10.2020 [12:12], Владимир Мироненко

В Лос-Аламосской национальной лаборатории завершили установку суперкомпьютера Chicoma на платформе HPE Cray EX

Лос-Аламосская национальная лаборатория завершила установку высокопроизводительной вычислительной платформы следующего поколения Chicoma на базе новой суперкомпьютерной архитектуры HPE Cray EX компании Hewlett Packard Enterprise, предназначенной для решения сложных научных задач.

«Поскольку обширные социальные и экономические последствия COVID-19 продолжают оказывать влияние на страну, ученые Лос-Аламоса активно участвуют в ряде важных исследований, начиная от разработки терапевтических средств и заканчивая эпидемиологическим моделированием, — отметила Ирен Куалтерс (Irene Qualters), заместитель директора лаборатории по моделированию и вычислениям в Лос-Аламосе. — Высокопроизводительные вычисления играют решающую роль, позволяя ученым моделировать сложные явления, связанные с эволюцией и распространением вирусов».

Chicoma является одним из первых развертываний суперкомпьютера HPE Cray EX, разработанного для выполнения современных массивных конвергентных задач моделирования, симуляции, ИИ и аналитики. Он оснащён процессорами AMD EPYC 7H12 с в общей сложности более 73 000 ядер, имеет на борту 300 Тбайт системной памяти, а также недавно разработанные высокопроизводительные коммутаторы HPE Slingshot с усовершенствованными функциями адаптивной маршрутизации, контроля перегрузки и детальной настройки качества обслуживания.

«Национальная лаборатория Лос-Аламоса тесно сотрудничает с исследователями в рамках консорциума COVID-19 HPC Computing Consortium для выполнения высокопроизводительных вычислений, а также с местными исследователями, чтобы использовать вычислительные возможности лаборатории для предотвращения распространения COVID-19. Этот новейший ресурс высокопроизводительных вычислений станет значительным дополнением к этому начинанию», — сообщила Куалтерс.

Новая суперкомпьютерная система будет использоваться для решения ряда исследовательских проблем, связанных с COVID-19. В первую очередь это будет эпидемиологическое моделирование схем контактов и сценариев вмешательства, а также биоинформатические исследования развития гена SARS-CoV-2 и воздействия COVID-19 на структуру и функцию 3D-хромосомы человека.

Постоянный URL: http://servernews.ru/1023455
01.10.2020 [14:27], Владимир Мироненко

165-Пфлопс cуперкомпьютер Crossroads будет полагаться только на Intel Xeon Sapphire Rapids

Hewlett Packard Enterprise (HPE) объявила о подписании контракта с правительством США на создание нового суперкомпьютера для Национального управления по ядерной безопасности (NNSA) Министерства энергетики США. Новая компьютерная система будет обеспечивать моделирование и симуляцию ядерного оружия с высоким 3D-разрешением, чтобы гарантировать надёжность и безопасность ядерных запасов. Стоимость контракта составляет $105 млн.

HPE также является предпочтительным поставщиком дополнительных систем для поддержки других задач Министерства энергетики, включая предстоящие эксафлопсные системы: Aurora в Аргоннской национальной лаборатории, Frontier в Национальной лаборатории Ок-Ридж и El Capitan в Ливерморской национальной лаборатории им. Э. Лоуренса.

Новый суперкомпьютерная система NNSA, получившая название Crossroads, превосходит существующую систему Trinity компании Cray по производительности в четыре раза — примерно 165 Пфлос FP64. Новая компьютерная система будет поставлена весной 2022 года и размещена в Национальной лаборатории Лос-Аламоса. Она будет использоваться тремя национальными лабораториями NNSA: Ливерморской национальной лабораторией Лоуренса, Национальной лабораторией Лос-Аламоса и Сандийскими национальными лабораториями в течение 2022–2026 гг.

Суперкомпьютер HPE Cray EX, который станет основой Crossroads, будет оснащен следующими решениями HPC нового поколения:

  • Intel Xeon под кодовым названием Sapphire Rapids с технологией Intel Deep Learning Boost нового поколения (с Advanced Matrix Extensions) и усовершенствованной архитектурой памяти.
  • Усовершенствованное жидкостное охлаждение для повышения общей эффективности использования электроэнергии и воды, применяемых для работы системы.
  • Полностью интегрированный набор программного обеспечения, предназначенный для высокопроизводительных вычислений с использованием среды программирования HPE Cray, для повышения производительности программистов, масштабируемости приложений и производительности.
  • HPE Slingshot — интерконнект для суперкомпьютеров HPE Cray, предназначенный специально для высокопроизводительных вычислений и позволяющий выполнять различные задачи, связанные с симуляцией, моделированием, ИИ и проведением анализа в одной системе.

Любопытно, что машина Crossroads будет использовать только CPU и не будет дополнена какими-либо ускорителями. Aurora будет включать Intel Xeon Sapphire Rapids и ускорители Xe, а El Capitan и Frontier будут базироваться на AMD EPYC и Radeon Instinct следующего поколения. Наконец, ещё одна, пятая по счёту крупная машина HPE Cray Ex Perlmutter будет включать ускорители NVIDIA A100 и процессоры AMD EPYC Milan. Правда, её поставка будет разбита на две части. К концу этого года будут установлены узлы с 6 тыс. ускорителями NVIDIA, а 3 тыс. узлов с новыми CPU будут поставлены уже в середине 2021 года.

Постоянный URL: http://servernews.ru/1021965
03.08.2020 [20:44], Илья Коваль

HPE анонсировала серию суперкомпьютеров Cray EX экзафлопсного класса

HPE официально представила новые суперкомпьютеры под дочерним брендом Cray: суперкомпьютер HPE Cray EX с жидкостным охлаждением и суперкомпьютер HPE Cray на базе привычной системы 19” шасси HPE Apollo 2000 Gen10 Plus с воздушным охлаждением. Суперкомпьютер HPE Cray EX в базовой конфигурации предлагает узлы с восемью процессорами AMD EPYC Rome 7002, но, в целом, поддерживает установку CPU и GPU мощностью более 500 Вт. А 2U-шасси «обычного» Cray вмещают до 4 узлов на базе всё тех же EPYC Rome.

Стойка Cray EX вмещает до 64 узлов и 512 процессоров, а для Cray используется стандартная стойка 42U, вмещающая до 20 шасси HPE Apollo 2000 десятого поколения и 80 процессоров соответственно. Так как HPE не забросила концепцию Cray Shasta, в будущем стоит ожидать появления узлов с GPU, FPGA, ИИ-ускорителями, ARM-процессорами и другими блоками — от гетерогенных вычислений компания не отказывается. Общими для всех суперкомпьютеров HPE, в независимости от конкретного исполнения шасси, являются несколько компонентов: интерконнект HPE Slingshot, СХД ClusterStor и программный стек HPE Cray Software Stack.

Последний отчасти будет доступен и для обычных серверов HPE. Он включает системы управления суперкомпьютером, защищённую ОС Cray OS с низким джиттером и набор HPE Cray Programming Environment, упрощающий разработку HPC-приложений. Отличительной чертой является активное использование контейнеров, что упрощает развёртывание и управление нагрузками, позволяет более полно использовать ресурсы машины и при необходимости легко переносить задачи между машинами и/или в облако.

Интерконнект HPE Slingshot предоставляет стандартные по современным мерка порты 200 Гбит/c. 64-портовые коммутатор доступные как в виде «лезвий» для Cray EX, так и в виде 2U-узлов. Использование топологии DragonFly позволяет объединить до 250 тыс. точек подключения таким образом, что сигнал между любыми двумя точками проходил не более чем через три коммутатора. Это особенно важно для сохранения низкого уровня задержек, так как именно быстрый интерконнект и отличает суперкомпьютер от обычного кластера серверов.

Наконец, для хранения HPE предлагает СХД серии CluterStor E1000, которая в варианте all-flash предлагает производительность на уровне 1,6 Тбайт/с и 50 млн IOPS на стойку. Основана она, кстати, тоже на процессорах AMD EPYC Rome. Благодаря большому количеству линий PCI-E 4.0 они позволяют объединить быстрые SSD и быстрые же сетевые адаптеры. Ну а всё вместе — вычислительные узлы, интерконнект, СХД и программный стек — это позволит создавать суперкомпьютеры экзафлопсного класса.

Таким образом, после объединения и интеграции линеек оборудования поглощение Cray компанией HPE можно считать полностью завершённым. Вместе с технологиями Cray HPE получила и контракты. Наиболее важными являются три машины экзафлопсного класса. Две из них используют решения AMD (CPU + GPU) — El Capitan (> 2 Эфлопс, 2023 год) и Frontier (1,5 Эфплос, 2021 год) — и ещё одна, Aurora (> 1 Эфлопс, 2021 год), базируется на ещё не вышедших CPU и GPU Intel. Благодаря столь удачной и своевременной покупке HPE заметно укрепила свои позиции на рынке HPC.

Постоянный URL: http://servernews.ru/1017335
15.06.2020 [18:05], Владимир Мироненко

Технический директор Cray Стив Скотт перешёл в Microsoft

Стив Скотт (Steve Scott), работавший в Cray техническим директором, перешёл Microsoft на должность вице-президента по аппаратным архитектурам. До Cray Стив Скотт был техническим директором по HPC в новом владельце производителя суперкомпьютеров, HPE. Ранее он также работал в Google и занимался в NVIDIA процессорами Tesla.

О новом назначении Стива Скотта стало известно из сообщения главного менеджера команды Microsoft Azure HPC & Big Compute Эвана Бернесса (Evan Burness). Скотт также стал членом технического совета корпорации (Technical Fellow).

Скотт долгое время проработал в Cray, переходя на некоторое время в другие компании. С 1992 года он работал в Cray Research, и затем три года в поглотившей её в 1996 году компании Silicon Graphics. После поглощения Cray Research компанией Tera Computer и её переименования в Cray Inc. Скотт работал в ней до 2011 года. После этого он ушёл на два года в NVIDIA, затем чуть более года работал в Google и пять лет назад вернулся в Cray в качестве технического директора. В течение последних девяти месяцев он находился в штате HPE после приобретения последней компании Cray за $1,3 млрд.

В последние годы бизнес Cray начал сокращаться, а потери начали расти. Ещё одной большой проблемой для компании было то, что потенциальные клиенты начали переходить в облако. С 2017 года Microsoft предлагает сервисы Cray в облаке, а также расширяет собственные предложения HPC.

Несмотря на потери и уход Скотта, у Cray в составе HPE сохраняются неплохие перспективы. В частности, новые суперкомпьютерные системы Aurora, Frontier и El Capitan будут использовать архитектуру Cray Shasta.

Постоянный URL: http://servernews.ru/1013456
06.05.2020 [13:38], Алексей Разин

Cуперкомпьютер Perlmutter получит 6 тысяч GPU NVIDIA и AMD EPYC Milan

Суперкомпьютерная платформа Cray Shasta была представлена ещё в конце 2018 года, но в вычислительном центре NERSC в Беркли суперкомпьютер Perlmutter начнёт монтироваться только в конце текущего года. Помимо прочего, он интересен способностью объединить процессоры AMD Milan и графические процессоры NVIDIA Ampere.

Соответствующий контракт Национальный энергетический научно-исследовательский вычислительный центр (NERSC) заключил с Cray на этой неделе. По условиям контракта, монтаж системы Perlmutter, чей уровень быстродействия приблизится к эксафлопсу, будет проводиться в две фазы.

В следующем полугодии заказчик получит 12 стоек с узлами на основе графических процессоров NVIDIA следующего поколения, а также уникальную подсистему хранения данных на базе твердотельной памяти совокупным объёмом 35 петабайт, способную передавать информацию со скоростью более 5 Тбайт/с. К середине 2021 года будет поставлено 12 стоек с процессорами AMD EPYC семейства Milan.

Источник изображения: NERSC

Источник изображения: NERSC

В принципе, один процессор AMD Milan пропишется и в каждом вычислительном узле, сочетающем четыре графических процессора NVIDIA следующего поколения и 256 Гбайт памяти. В общей сложности, суперкомпьютер Perlmutter будет использовать более шести тысяч графических процессоров NVIDIA следующего поколения. Их условное обозначение не раскрывается, но принято считать, что речь идёт об Ampere с памятью типа HBM2.

Источник изображения: Twitter, Retired Engineer

Источник изображения: Twitter, Retired Engineer

Каждый узел «первой фазы» будет использовать по четыре канала интерконнекта Cray Slingshot, который обладает пропускной способностью 200 Гбит/с. Один «лезвийный» сервер разместит по два узла на базе GPU, либо по четыре узла на базе центральных процессоров AMD EPYC. В последнем случае пара процессоров будет соседствовать с 512 Гбайт памяти. Количество узлов на основе AMD EPYC в суперкомпьютере Perlmutter сможет превысить три тысячи штук.

Действующий суперкомпьютер Cori в NERSC используется более чем семью тысячами учёных для расчётов в сфере энергетики, материаловедения, физики, химии, биологии и предсказания климатических изменений. Perlmutter окажется в три или четыре раза производительнее Cori.

Постоянный URL: http://servernews.ru/1010254
04.03.2020 [21:00], Алексей Степин

Два экзафлопса, El Capitan! — Cray создаст суперкомпьютер на базе AMD EPYC Zen4 и Radeon Instinct

Старые суперкомпьютеры уходят на покой, как ветеран GPU-вычислений Titan, но им на смену идут ещё более мощные и совершенные системы. Не столь давно по меркам ИТ-индустрии петафлопс казался огромной цифрой, а буквально сейчас начато покорение очередной вершины — экзафлопсной. Если точнее, то уже двухэкзафлопсной.  

Ливерморская национальная лаборатория имени Э. Лоуренса (LLNL) совместно с Cray и HPE объявила о начале работ по проекту El Capitan. Этот суперкомпьютер обещает стать если не самой быстрой машиной в мире, то уж точно одной из самых быстрых. Для LLNL это важный шаг, потому что лаборатория впервые за многие годы отказывается от решений IBM

Грядущий суперкомпьютер El Capitan будет обладать более привычной для нового десятилетия гетерогенной архитектурой на платформе Cray Shasta, сочетающей в себе процессоры x86 и ускорители на базе GPU. Конкретно в El Capitan будут применены новейшие процессоры AMD EPYC Genoa, четвёртого поколения Zen. Дополнять их будут ускорители Radeon Instinct, также с новой архитектурой, памятью HBM и поддержкой вычислений смешанной точности. К аждый ЦП будет связан с четырьмя ускорителями посредством шины AMD Infinity Fabric третьего поколения. 

Что важно, новая шина предложит когерентность и унифицированный доступ к памяти CPU и GPU — это не только сыграет на руку производительности, но и упростит процесс программирования. В качестве основной платформы будет использоваться ROCm. Разработчики хотят сделать новую машину как можно более универсальной, способной работать и с классическими расчётными нагрузками, и с ИИ или, скорее, уже когнитивными системами. Кроме того, изменится и подход к управлению задачами — больший упор будет сделан на контейнеры.

Для связи узлов между собой будет использоваться интерконнект Cray Slingshot, а для хранения данных будет использован комплекс ClusterStor. В рамках подготовки к новой эпохе суперкомпьютинга LLNL уже обновила свою ленточную библиотеку для холодных и архивных данных, получив почти 300 Пбайт пространства

В итоге от El Capitan ожидают шестнадцатикратного превосходства над Sierra (второе место в нынешнем списке TOP500), а в абсолютных значениях новый суперкомпьютер должен развивать свыше двух экзафлопс. Конструкция узлов Shasta спроектирована с заделом на модернизацию и рассчитана на установку вычислителей с TDP вплоть до 1 кВт. Благодаря унифицированной архитектуре система получит серьёзный запас прочности: по предварительным прогнозам, срок службы El Capitan составит не менее 10 лет. 

Точные характеристики нового суперкомпьютера — число узлов, процессоров, ускорителей, потребляемая мощность — будут объявлены позже. Ввод в эксплуатацию намечен на 2023 год.

Постоянный URL: http://servernews.ru/1005162
02.03.2020 [16:31], Алексей Степин

Прощание с Титаном: как уходят суперкомпьютеры

Обычные компьютеры устаревают — и то же самое касается и суперкомпьютеров. Правда, процесс вывода из эксплуатации в последнем случае гораздо сложнее, хотя бы в силу масштаба. Пришла пора отправляться на покой и заслуженному ветерану Titan, машине, которая за годы своего существования в Национальной лаборатории Ок-Ридж (ORNL) выполнила 2,8 млн заданий для учёных со всего земного шара.

Национальная лаборатория Ок-Ридж

Национальная лаборатория Ок-Ридж

Полностью система называлась Cray XK7 Titan. Она занимала 200 серверных шкафов и имела гибридную архитектуру. В этом смысле Titan стал первым суперкомпьютером в мире, сочетавшем в себе в себе 16-ядерные процессоры AMD Opteron 6274 и ускорители NVIDIA Tesla K20. Общий объём оперативной памяти составлял 700 Тбайт, а дискового хранилища — 40 Пбайт. Titan стал первым суперкомпьютером в мире, перешагнувшим планку производительности 10 Пфлопс, а на пике своего могущества развивал 27 Пфлопс.

Зал, где располагался Titan

Зал, где располагался Titan

Семь лет Titan служил верой и правдой науке, а многие сотрудники лаборатории OLCF даже успели к нему привязаться, так что день отключения был для них грустным событием. Демонтаж потребовал серьёзного совместного планирования со стороны ORNL, Cray и Regency Technologies — не так-то просто убрать 200 стоек с вычислительным оборудованием, занимающим 836 квадратных метров, а ведь есть ещё кабельная инфраструктура и системы охлаждения, в которых, между прочим, находилось 4,5 тонны хладагента R134a.

Прощание с ветераном GPGPU

Прощание с ветераном GPGPU

Только на слив охлаждающей жидкости пришлось затратить три дня, после чего, наконец, можно было начинать демонтаж. Первым делом были отключены все цепи питания, затем заблокированы контуры охлаждения в помещении (ведь во втором контуре Titan циркулировала вода). Следующим шагом стало отключение подпольной кабельной инфраструктуры, как оптической, так и медной. Наконец, со шкафов сняли «шляпы» — теплообменники систем охлаждения. Начался вывоз самих шкафов.

Процесс демонтажа в ускоренном времени

В течение 23 дней 8 сотрудников Cray загрузили 195 тонн оборудования на 140 палет в 15 трейлеров — и Titan отправился в последний путь, занимающий почти 1000 миль. В Даллас, штат Техас, где расположены перерабатывающие предприятия Regency, используемые Cray в своей программе Take-Back. Там была начата разборка самих шкафов и других крупных компонентов системы с последующей сортировкой материалов.

AMD Opteron 6274: 16 ядер Bulldozer/Interlagos, 2,2 ГГц, 115 Ватт TDP

AMD Opteron 6274: 16 ядер Bulldozer/Interlagos, 2,2 ГГц, 115 Ватт TDP

Сталь, медь и алюминий отправились обратно в металлургическое производство, пластик — в переработку. Все сложные компоненты, включая процессоры, ускорители и другие печатные платы прошли специальную обработку, дабы извлечь из них ценные металлы, такие, как золото и платина. К сожалению, единственным ценным компонентом Titan, не подвергшимся тотальному уничтожению, осталась память. По мнению Cray, процессоры и специфические ускорители NVIDIA просто не представляли рыночной ценности; впрочем, часть ускорителей отправилась в запасники суперкомпьютера XE6.

Узел Cray XK7: четыре Opteron, четыре K20

Узел Cray XK7: четыре Opteron, четыре K20. Фото AnandTech

Зачем был нужен демонтаж? Ответ на этот вопрос не так прост: даже на момент вывода из строя Titan обладал солидной мощностью и занимал 12 место в списке самых мощных суперкомпьютеров планеты. Но стоимость его эксплуатации оказалась слишком высокой. В отличие от более современных систем, машина использовала три разных системы охлаждения, включая кондиционирование воздуха.

Уровень энергопотребления также был слишком высоким — в среднем от 4 до 6 мегаватт, чего достаточно для питания более 3000 домов. Мало кто может позволить себе такие счета за электричество. В итоге переработка в соответствии со стандартом Responsible Recycling (R2) стала лучшим решением, поскольку простое захоронение электроники, тем более в таких масштабах, недопустимо. Впрочем, в Индии, например, одну из демонтированных машин Cray когда-то в буквальном смысле закопали в землю. 

Эволюция суперкомпьютеров ORNL

Эволюция суперкомпьютеров ORNL

В настоящее время помещение, где располагался герой нашей заметки, проходит ремонт и модернизацию — в нём будет смонтирован новый суперкомпьютер Frontier. Подвесной потолок будет удалён, поскольку потребуется монтаж новой системы электропитания. Фальшпол будет поднят и усилен, под ним пройдут трубы новой системы охлаждения. Закончить работы предполагается к весне 2021 года.

В новой системе Frontier по-прежнему будут использоваться процессоры AMD, на этот раз, заказные модели EPYC, а вот место ускорителей NVIDIA займут специализированные AMD Radeon Instinct. В итоге производительность системы обещает превысить 1,5 экзафлопса и Frontier станет крупнейшим в истории контрактом Cray.

Постоянный URL: http://servernews.ru/1004978
27.02.2020 [00:21], Андрей Созинов

Метеорологи США получат два 12-Пфлопс суперкомпьютера с AMD EPYC Rome

Национальное управление океанических и атмосферных исследований США (National Oceanic and Atmospheric Administration, NOAA), которое занимается метеорологическими и геодезическими исследованиями и прогнозами, объявило о планах построить два новых суперкомпьютера для прогнозирования погоды на базе процессоров AMD EPYC.

Сообщается, что суперкомпьютеры вместе будут располагать 2560 двухпроцессорными узлами Cray, в которых будут использоваться 64-ядерные процессоры AMD EPYC 7742 поколения Rome.

То есть в результате две системы будут располагать 327 680 ядрами с архитектурой Zen 2. Между собой кластеры будет соединяться интерконнектом Cray Slingshot.

Каждый из суперкомпьютеров будут обладать 1,3 Пбайт оперативной памяти, а для хранения данных будут использоваться системы Cray ClusterStor объёмом 26 Пбайт для каждого суперкопьютера. Отметим, что система хранения данных будет состоять из твердотельных накопителей, на которые придётся 614 Тбайт, и двух систем из жёстких дисков по 12,5 Пбайт каждая.

Пиковая теоретическая производительность каждого из суперкомпьютеров составит 12 Пфлопс. Эти вычислительные ресурсы будут направлены на отслеживание и предсказывание ураганов и температурных аномалий, а также на другие погодные исследования и прогнозы. Заработают новые системы только к 2022 году и имеют все шансы попасть в рейтинг TOP500, хотя и вряд ли окажутся в лидерах. В последней редакции рейтинга они заняли бы примерно 25 место.

Новые суперкомпьютеры заменят восемь имеющихся систем NOAA. В итоге, после установки новых суперкомпьютеров на AMD общая максимальная теоретическая производительность всех вычислительных систем NOAA составит примерно 40 Пфлопс. 

На другом берегу Атлантического океана метеорологам тоже живётся неплохо. В ECMWF будет установлен, как утверждается, самый мощный в мире метеорологический суперкомпьютер производства Atos на базе AMD EPYC 7H12. Великобритания выделила $1,6 млрд на машину для аналогичных задач. Она, конечно, тоже названа самой мощной в мире.

Постоянный URL: http://servernews.ru/1004661
Система Orphus