Материалы по тегу: cray

06.05.2020 [13:38], Алексей Разин

Cуперкомпьютер Perlmutter получит 6 тысяч GPU NVIDIA и AMD EPYC Milan

Суперкомпьютерная платформа Cray Shasta была представлена ещё в конце 2018 года, но в вычислительном центре NERSC в Беркли суперкомпьютер Perlmutter начнёт монтироваться только в конце текущего года. Помимо прочего, он интересен способностью объединить процессоры AMD Milan и графические процессоры NVIDIA Ampere.

Соответствующий контракт Национальный энергетический научно-исследовательский вычислительный центр (NERSC) заключил с Cray на этой неделе. По условиям контракта, монтаж системы Perlmutter, чей уровень быстродействия приблизится к эксафлопсу, будет проводиться в две фазы.

В следующем полугодии заказчик получит 12 стоек с узлами на основе графических процессоров NVIDIA следующего поколения, а также уникальную подсистему хранения данных на базе твердотельной памяти совокупным объёмом 35 петабайт, способную передавать информацию со скоростью более 5 Тбайт/с. К середине 2021 года будет поставлено 12 стоек с процессорами AMD EPYC семейства Milan.

Источник изображения: NERSC

Источник изображения: NERSC

В принципе, один процессор AMD Milan пропишется и в каждом вычислительном узле, сочетающем четыре графических процессора NVIDIA следующего поколения и 256 Гбайт памяти. В общей сложности, суперкомпьютер Perlmutter будет использовать более шести тысяч графических процессоров NVIDIA следующего поколения. Их условное обозначение не раскрывается, но принято считать, что речь идёт об Ampere с памятью типа HBM2.

Источник изображения: Twitter, Retired Engineer

Источник изображения: Twitter, Retired Engineer

Каждый узел «первой фазы» будет использовать по четыре канала интерконнекта Cray Slingshot, который обладает пропускной способностью 200 Гбит/с. Один «лезвийный» сервер разместит по два узла на базе GPU, либо по четыре узла на базе центральных процессоров AMD EPYC. В последнем случае пара процессоров будет соседствовать с 512 Гбайт памяти. Количество узлов на основе AMD EPYC в суперкомпьютере Perlmutter сможет превысить три тысячи штук.

Действующий суперкомпьютер Cori в NERSC используется более чем семью тысячами учёных для расчётов в сфере энергетики, материаловедения, физики, химии, биологии и предсказания климатических изменений. Perlmutter окажется в три или четыре раза производительнее Cori.

Постоянный URL: http://servernews.ru/1010254
04.03.2020 [21:00], Алексей Степин

Два экзафлопса, El Capitan! — Cray создаст суперкомпьютер на базе AMD EPYC Zen4 и Radeon Instinct

Старые суперкомпьютеры уходят на покой, как ветеран GPU-вычислений Titan, но им на смену идут ещё более мощные и совершенные системы. Не столь давно по меркам ИТ-индустрии петафлопс казался огромной цифрой, а буквально сейчас начато покорение очередной вершины — экзафлопсной. Если точнее, то уже двухэкзафлопсной.  

Ливерморская национальная лаборатория имени Э. Лоуренса (LLNL) совместно с Cray и HPE объявила о начале работ по проекту El Capitan. Этот суперкомпьютер обещает стать если не самой быстрой машиной в мире, то уж точно одной из самых быстрых. Для LLNL это важный шаг, потому что лаборатория впервые за многие годы отказывается от решений IBM

Грядущий суперкомпьютер El Capitan будет обладать более привычной для нового десятилетия гетерогенной архитектурой на платформе Cray Shasta, сочетающей в себе процессоры x86 и ускорители на базе GPU. Конкретно в El Capitan будут применены новейшие процессоры AMD EPYC Genoa, четвёртого поколения Zen. Дополнять их будут ускорители Radeon Instinct, также с новой архитектурой, памятью HBM и поддержкой вычислений смешанной точности. К аждый ЦП будет связан с четырьмя ускорителями посредством шины AMD Infinity Fabric третьего поколения. 

Что важно, новая шина предложит когерентность и унифицированный доступ к памяти CPU и GPU — это не только сыграет на руку производительности, но и упростит процесс программирования. В качестве основной платформы будет использоваться ROCm. Разработчики хотят сделать новую машину как можно более универсальной, способной работать и с классическими расчётными нагрузками, и с ИИ или, скорее, уже когнитивными системами. Кроме того, изменится и подход к управлению задачами — больший упор будет сделан на контейнеры.

Для связи узлов между собой будет использоваться интерконнект Cray Slingshot, а для хранения данных будет использован комплекс ClusterStor. В рамках подготовки к новой эпохе суперкомпьютинга LLNL уже обновила свою ленточную библиотеку для холодных и архивных данных, получив почти 300 Пбайт пространства

В итоге от El Capitan ожидают шестнадцатикратного превосходства над Sierra (второе место в нынешнем списке TOP500), а в абсолютных значениях новый суперкомпьютер должен развивать свыше двух экзафлопс. Конструкция узлов Shasta спроектирована с заделом на модернизацию и рассчитана на установку вычислителей с TDP вплоть до 1 кВт. Благодаря унифицированной архитектуре система получит серьёзный запас прочности: по предварительным прогнозам, срок службы El Capitan составит не менее 10 лет. 

Точные характеристики нового суперкомпьютера — число узлов, процессоров, ускорителей, потребляемая мощность — будут объявлены позже. Ввод в эксплуатацию намечен на 2023 год.

Постоянный URL: http://servernews.ru/1005162
02.03.2020 [16:31], Алексей Степин

Прощание с Титаном: как уходят суперкомпьютеры

Обычные компьютеры устаревают — и то же самое касается и суперкомпьютеров. Правда, процесс вывода из эксплуатации в последнем случае гораздо сложнее, хотя бы в силу масштаба. Пришла пора отправляться на покой и заслуженному ветерану Titan, машине, которая за годы своего существования в Национальной лаборатории Ок-Ридж (ORNL) выполнила 2,8 млн заданий для учёных со всего земного шара.

Национальная лаборатория Ок-Ридж

Национальная лаборатория Ок-Ридж

Полностью система называлась Cray XK7 Titan. Она занимала 200 серверных шкафов и имела гибридную архитектуру. В этом смысле Titan стал первым суперкомпьютером в мире, сочетавшем в себе в себе 16-ядерные процессоры AMD Opteron 6274 и ускорители NVIDIA Tesla K20. Общий объём оперативной памяти составлял 700 Тбайт, а дискового хранилища — 40 Пбайт. Titan стал первым суперкомпьютером в мире, перешагнувшим планку производительности 10 Пфлопс, а на пике своего могущества развивал 27 Пфлопс.

Зал, где располагался Titan

Зал, где располагался Titan

Семь лет Titan служил верой и правдой науке, а многие сотрудники лаборатории OLCF даже успели к нему привязаться, так что день отключения был для них грустным событием. Демонтаж потребовал серьёзного совместного планирования со стороны ORNL, Cray и Regency Technologies — не так-то просто убрать 200 стоек с вычислительным оборудованием, занимающим 836 квадратных метров, а ведь есть ещё кабельная инфраструктура и системы охлаждения, в которых, между прочим, находилось 4,5 тонны хладагента R134a.

Прощание с ветераном GPGPU

Прощание с ветераном GPGPU

Только на слив охлаждающей жидкости пришлось затратить три дня, после чего, наконец, можно было начинать демонтаж. Первым делом были отключены все цепи питания, затем заблокированы контуры охлаждения в помещении (ведь во втором контуре Titan циркулировала вода). Следующим шагом стало отключение подпольной кабельной инфраструктуры, как оптической, так и медной. Наконец, со шкафов сняли «шляпы» — теплообменники систем охлаждения. Начался вывоз самих шкафов.

Процесс демонтажа в ускоренном времени

В течение 23 дней 8 сотрудников Cray загрузили 195 тонн оборудования на 140 палет в 15 трейлеров — и Titan отправился в последний путь, занимающий почти 1000 миль. В Даллас, штат Техас, где расположены перерабатывающие предприятия Regency, используемые Cray в своей программе Take-Back. Там была начата разборка самих шкафов и других крупных компонентов системы с последующей сортировкой материалов.

AMD Opteron 6274: 16 ядер Bulldozer/Interlagos, 2,2 ГГц, 115 Ватт TDP

AMD Opteron 6274: 16 ядер Bulldozer/Interlagos, 2,2 ГГц, 115 Ватт TDP

Сталь, медь и алюминий отправились обратно в металлургическое производство, пластик — в переработку. Все сложные компоненты, включая процессоры, ускорители и другие печатные платы прошли специальную обработку, дабы извлечь из них ценные металлы, такие, как золото и платина. К сожалению, единственным ценным компонентом Titan, не подвергшимся тотальному уничтожению, осталась память. По мнению Cray, процессоры и специфические ускорители NVIDIA просто не представляли рыночной ценности; впрочем, часть ускорителей отправилась в запасники суперкомпьютера XE6.

Узел Cray XK7: четыре Opteron, четыре K20

Узел Cray XK7: четыре Opteron, четыре K20. Фото AnandTech

Зачем был нужен демонтаж? Ответ на этот вопрос не так прост: даже на момент вывода из строя Titan обладал солидной мощностью и занимал 12 место в списке самых мощных суперкомпьютеров планеты. Но стоимость его эксплуатации оказалась слишком высокой. В отличие от более современных систем, машина использовала три разных системы охлаждения, включая кондиционирование воздуха.

Уровень энергопотребления также был слишком высоким — в среднем от 4 до 6 мегаватт, чего достаточно для питания более 3000 домов. Мало кто может позволить себе такие счета за электричество. В итоге переработка в соответствии со стандартом Responsible Recycling (R2) стала лучшим решением, поскольку простое захоронение электроники, тем более в таких масштабах, недопустимо. Впрочем, в Индии, например, одну из демонтированных машин Cray когда-то в буквальном смысле закопали в землю. 

Эволюция суперкомпьютеров ORNL

Эволюция суперкомпьютеров ORNL

В настоящее время помещение, где располагался герой нашей заметки, проходит ремонт и модернизацию — в нём будет смонтирован новый суперкомпьютер Frontier. Подвесной потолок будет удалён, поскольку потребуется монтаж новой системы электропитания. Фальшпол будет поднят и усилен, под ним пройдут трубы новой системы охлаждения. Закончить работы предполагается к весне 2021 года.

В новой системе Frontier по-прежнему будут использоваться процессоры AMD, на этот раз, заказные модели EPYC, а вот место ускорителей NVIDIA займут специализированные AMD Radeon Instinct. В итоге производительность системы обещает превысить 1,5 экзафлопса и Frontier станет крупнейшим в истории контрактом Cray.

Постоянный URL: http://servernews.ru/1004978
27.02.2020 [00:21], Андрей Созинов

Метеорологи США получат два 12-Пфлопс суперкомпьютера с AMD EPYC Rome

Национальное управление океанических и атмосферных исследований США (National Oceanic and Atmospheric Administration, NOAA), которое занимается метеорологическими и геодезическими исследованиями и прогнозами, объявило о планах построить два новых суперкомпьютера для прогнозирования погоды на базе процессоров AMD EPYC.

Сообщается, что суперкомпьютеры вместе будут располагать 2560 двухпроцессорными узлами Cray, в которых будут использоваться 64-ядерные процессоры AMD EPYC 7742 поколения Rome.

То есть в результате две системы будут располагать 327 680 ядрами с архитектурой Zen 2. Между собой кластеры будет соединяться интерконнектом Cray Slingshot.

Каждый из суперкомпьютеров будут обладать 1,3 Пбайт оперативной памяти, а для хранения данных будут использоваться системы Cray ClusterStor объёмом 26 Пбайт для каждого суперкопьютера. Отметим, что система хранения данных будет состоять из твердотельных накопителей, на которые придётся 614 Тбайт, и двух систем из жёстких дисков по 12,5 Пбайт каждая.

Пиковая теоретическая производительность каждого из суперкомпьютеров составит 12 Пфлопс. Эти вычислительные ресурсы будут направлены на отслеживание и предсказывание ураганов и температурных аномалий, а также на другие погодные исследования и прогнозы. Заработают новые системы только к 2022 году и имеют все шансы попасть в рейтинг TOP500, хотя и вряд ли окажутся в лидерах. В последней редакции рейтинга они заняли бы примерно 25 место.

Новые суперкомпьютеры заменят восемь имеющихся систем NOAA. В итоге, после установки новых суперкомпьютеров на AMD общая максимальная теоретическая производительность всех вычислительных систем NOAA составит примерно 40 Пфлопс. 

На другом берегу Атлантического океана метеорологам тоже живётся неплохо. В ECMWF будет установлен, как утверждается, самый мощный в мире метеорологический суперкомпьютер производства Atos на базе AMD EPYC 7H12. Великобритания выделила $1,6 млрд на машину для аналогичных задач. Она, конечно, тоже названа самой мощной в мире.

Постоянный URL: http://servernews.ru/1004661
17.02.2020 [22:17], Алексей Степин

Isambard 2 станет крупнейшим в Европе ARM-суперкомпьютером

У национальной метеорологической службы Великобритании Met Office сегодня явно удачный день. Ранее правительство страны объявило о выделении £1,2 млрд на обновление суперкомпьютерного парка, а вслед за этим было заявлено о том, что новый суперкомпьютер Isambard 2 поможет британским метеорологам в разработке более детальных погодных моделей.

Новая система, строительство которой проспонсировано Engineering and Physical Sciences Research Council (EPSRC), интересна тем, что станет крупнейшим в европейском регионе вычислительным комплексом на базе процессорной архитектуры ARM.

Суперкомпьютеры серии Isambard носят имя британского инженера Изамбарда Кингдома Брюнеляь

Суперкомпьютеры серии Isambard носят имя британского инженера Изамбарда Кингдома Брюнеля

Суперкомпьютер Isambard, построенный университетским альянсом GW4, Cray и Met Office и введённый в строй в 2018 году, стал первой такого рода системой на базе архитектуры ARM, доказавшей, что она может тягаться с решениями на базе x86, будучи при этом дешевле. Основой Isambard стали процессоры Cavium ThunderX2.

Новая машина хотя и будет базироваться на архитектуре ARM, но представлять её будут более совершенные процессоры Fujitsu A64FX. Ничего удивительного в этом нет — ранее Cray (теперь уже HPE) уже объявляла о сотрудничестве с Fujitsu в сфере разработки суперкомпьютеров нового поколения.

Вычислительный узел на базе A64FX

Вычислительный узел на базе A64FX

Стоимость нового проекта оценивается в £6,5 миллионов. Isambard 2 будет построен в Эксетере, столице графства Девоншир — там же, где функционирует его предшественник. Количество процессорных ядер будет наращено до 21,504, а общее количество вычислительных узлов достигнет 336. За счёт более высокой эффективности A64FX (в частности, благодаря наличию 32 Гбайт HBM2 у каждого процессора), прирост производительности должен быть более чем двукратным.

Архитектура ARM уже доказала, что может помогать науке в решении серьёзных проблем: система Isambard успешно используется не только для погодного моделирования, но и для поиска методов лечения остеопороза и болезни Паркинсона. Второе поколение ARM-суперкомпьютеров продолжит эту традицию и, похоже, именно ARM станет архитектурой, открывшей путь к суперкомпьютерам экзафлопсного класса.

Постоянный URL: http://servernews.ru/1003893
24.01.2020 [12:30], Сергей Карасёв

Видео дня: монтаж ИИ-суперкомпьютера Big Red 200

Индианский университет (США) опубликовал видеоролик, демонстрирующий строительство высокопроизводительного вычислительного комплекса под названием Big Red 200. 

Названный суперкомпьютер использует платформу Cray Shasta, о которой можно узнать в нашем материале. В составе комплекса задействованы процессоры AMD EPYC второго поколения и ускорители NVIDIA V100.

Система Big Red 200 использует интерконнект Cray Slingshot и программное обеспечение Cray Urika AI Suite for Shasta с функциями искусственного интеллекта (ИИ). В текущей конфигурации суперкомпьютер демонстрирует производительность на уровне 5,9 Пфлопс — квадриллиона операций с плавающей запятой в секунду.

Мощности Big Red 200 планируется направить на реализацию различных проектов в области ИИ. Это, в частности, исследования в сферах кибербезопасности, медицины, науки об окружающей среде и пр.

Представленное видео создания Big Red 200 снято в режиме Time-lapse. Ролик продолжительностью около двух минут демонстрирует все этапы монтажа суперкомпьютера — от доставки модулей и подключения необходимых кабелей до финальной сборки и установки декоративных панелей. Вот как выглядит этот процесс: 

Постоянный URL: http://servernews.ru/1002162
13.11.2019 [18:51], Алексей Степин

Cray и Fujitsu создадут суперкомпьютеры на базе ARM-процессоров A64FX

Выбор основы для суперкомпьютера в наши дни весьма широк. Несмотря на популярность архитектуры x86, существуют процессоры c архитектурой POWER и весьма быстрыми темпами набирающие популярность ARM; ожидается появление и решений на базе RISC-V.

Компании Fujitsu и Cray заключили соглашение о разработке новых коммерческих систем класса HPC на базе процессоров A64FX с архитектурой ARMv8.2. 

Машина, разрабатываемая совместно Cray и Fujitsu, будет отнесена к серии Cray CS500. Она должна дебютировать на рынке в середине следующего года. Это не первые ARM-системы производства Cray, ранее компания добавила в серию XC50 узлы на базе Marvell ThunderX2. Надо полагать, что и от ThunderX3 и X4 Cray тоже отказываться не будет. 

Эти чипы разработаны в стенах Fujitsu, они же будут основой нового японского суперкомпьютера Fugaku, который будет установлен в Институте физико-химических исследований (RIKEN) в 2021 году. Они получат поддержку 512-битных векторных инструкций SVE. Имеется в A64FX и оптимизация целочисленных вычислений. Описываемый процессор имеет 48 основных ядер и 4 вспомогательных, размещены они будут в четырёх кластерах по 12 + 1 ядру. Топология соединений — кольцевая.

Каждый из 13-ядерных кластеров получит кеш L2 объёмом 8 Мбайт и будет обращаться к своему модулю HBM2 ёмкостью 8 Гбайт с суммарной пропускной способностью 1 Тбайт/с. По сути, эти модули заменят не только кеши L3 и L4, существенно превзойдя их по объёму, но и оперативную память, ведь каждый процессор автоматически получит по 32 Гбайт HBM2.

Прототип вычислительного модуля Fujitsu на базе A64FX

Прототип вычислительного модуля Fujitsu на базе A64FX

Для межпроцессорного соединения планируется использовать шину Torus Fusion (Tofu); предусмотрено две линии со скоростью 28 Гбит/с каждая. Имеется также контроллер PCIe 3.0, он предоставляет 16 линий. Процессоры A64FX выпускаются на мощностях TSMC с использованием 7-нм технологических норм. Сообщается, что количество транзисторов на кристалле составляет 8,7 млрд.

Технические характеристики новых систем Fujitsu на базе A64FX

Технические характеристики новых систем Fujitsu на базе A64FX

Сама Fujitsu уже анонсировала новые системы на базе A64FX: PRIMEHPC FX1000 и PRIMEHPC FX700. Первое решение использует шасси с жидкостным охлаждением и может содержать до 384 вычислительных узлов, каждый из которых оснащён одним процессором A64FX с частотой 2,2 ГГц. Для межузловой связи используется Tofu Interconnect D, работает система под управлением RHEL 8. Пиковая производительность составляет примерно 3,4 Тфлопс в режиме FP64.

Так выглядит шасси Fujitsu PRIMEHPC FX1000

Так выглядит шасси Fujitsu PRIMEHPC FX1000

Модель PRIMEHPC FX700 стоит классом ниже, конструкция у неё более простая. Основой служит стандартное шасси высотой 2U, вмещающее до 8 вычислительных узлов на базе A64FX. Тактовая частота процессоров понижена до 1,8 ‒ 2,0 ГГц, а межузловая связь построена на базе InfiniBand EDR. Охлаждение воздушное. Поставки новых HPC-систем Fujitsu начнутся уже в марте 2020 года. А представить их официально компания собирается на конференции SC19.

Японским клиентам сделано некоторое послабление: доступны конфигурации с числом узлов от 48 в старшей модели и всего от 2 узлов в младшей, в то время как западным заказчикам придётся вести счёт от 192 и 128 узлов соответственно. Fujitsu пока не сообщает о заключении контрактов на новые системы, за исключением уже имеющихся обязательств по Fugaku, а вот Cray уже имеет четырёх заказчиков на будущие суперкомпьютеры.

Постоянный URL: http://servernews.ru/997596
30.10.2019 [20:13], Алексей Степин

Новая СХД Cray ClusterStor E1000: до 1,6 Тбайт/с и 50 млн IOPS

Компания Cray, известная своими суперкомпьютерами, представила новую платформу хранения данных, ClusterStor E1000. Она предназначена для самых мощных конвергентных вычислительных систем экзафлопсного класса и спроектирована в расчёте на постоянно растущие объёмы данных и требования к скоростным показателям.

Новая платформа дополняет экосистему Cray Shasta и, как заявляют представители компании, по некоторым показателям не имеет равных в мире.

Возможные конфигурации базовой стойки ClusterStor E1000

Возможные конфигурации базовой стойки ClusterStor E1000

Cray ClusterStor E1000 конфигурируется под конкретную задачу заказчика. СХД может быть гибридной, полностью твердотельной или оснащаться только традиционными жёсткими дисками. В случае варианта all-flash максимальная производительность может достигать 1,6 Тбайт/с и 50 миллионов IOPS на стойку.

В случае HDD скоростные показатели несколько скромнее — пиковая скорость составляет 120 Гбайт/с, зато ёмкость одной стойки может достигать 10 Пбайт. Cray пока не планирует отказа от традиционных HDD, как обеспечивающих меньшую удельную стоимость хранения данных.

Контроллеры ClusterStor E1000 используют процессоры AMD Rome

Контроллеры ClusterStor E1000 используют процессоры AMD Rome

В базовой конфигурации новинка состоит из двух модулей формата 2U: модуля управления (System Management) и модуля метаданных (Metadata Unit), дополнительные модули устанавливаются в соответствии с задачами заказчика. Модуль управления оснащается одной коммуникационной платой HDR/Slingshot (200 Гбит/с) и двумя хост-адаптерами SAS с интерфейсом PCIe 4.0 (16 линий SAS 12 Гбит/с). Также доступна поддержка 100GbE и InfiniBand EDR/HDR.

В системе используются процессоры AMD EPYC Rome, которые наверняка были выбраны из-за большого числа линий PCIe 4.0 (до 128 на сокет/систему), необходимых для подключения и быстрых накопителей, и внешних сетевых интерфейсов. 

Доступные конфигурации модулей хранения данных

Доступные конфигурации модулей хранения данных

Модули хранения данных (Storage Units) могут иметь габариты от 2U до 18U и максимальную ёмкость от 507 Тбайт до 5 Пбайт. Один модуль с SSD обеспечивает производительность до 3 миллионов IOPS, у HDD-версий показатели скромнее: от 2 до 8 тысяч IOPS.

Система работает под управлением ClusterStor Data Services и использует файловую систему Lustre с открытым исходным кодом. Стоимость базовой конфигурации ClusterStor E1000 оценивается в $200 тысяч, в эту цену входит и трёхлетняя поддержка. Первые поставки Cray наметила уже на декабрь этого года, полномасштабная доступность новых систем будет достигнута во втором квартале 2020 года.

Постоянный URL: http://servernews.ru/996571
15.10.2019 [21:45], Алексей Степин

Суперкомпьютер Cray Archer2: 748544 ядра AMD EPYC Rome и 1,57 Пбайт RAM

Организация UK Research and Innovation объявила, что заключает контракт на постройку нового национального суперкомпьютера Archer2 с компанией Cray. Сообщается, что новый суперкомпьютер будет быстрее своего предшественника более чем в 11 раз.

Первый Archer базируется на дизайне Cray XC30 MPP и использует узлы с 12-ядерными процессорами Intel Xeon E5-2697 v2 (Ivy Bridge), а вот новая модель будет построена на базе новейших чипов AMD EPYC второго поколения (Rome).

При этом базовой была выбрана 64-ядерная модель с частотой 2,2 ГГц. По всей видимости, это EPYC 7742. Возможно, базовая частота процессоров будет несколько занижена с целью снижения общего уровня тепловыделения.

Лезвие (4 узла) первого поколения Archer

Лезвие (4 узла) первого поколения Archer

Archer первого поколения располагает на данный момент 118080 процессорными ядрами, а в Archer2 этот показатель достигнет 748544 ядер. Неудивительно, что предварительная оценка производительности новой машины выглядит столь оптимистично ‒ речь идёт о цифре в районе 28 петафлопс, а отдельные задачи будут исполняться быстрее в 8,7–18 раз.

Ожидается, что Archer2 станет одним из быстрейших суперкомпьютеров, базирующихся на классических процессорах общего назначения. Машина будет введена в строй 6 мая 2020 года, но в течение 30 дней после запуска она будет работать в режиме стресс-тестирования. Поскольку монтаж планируется провести в том же помещении, где сейчас работает Archer, старый суперкомпьютер UKRI прекратит свою работу 18 февраля и будет демонтирован.

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Прочие характеристики Archer2 также впечатляют. Каждый из 5848 узлов новой системы будет нести по два 64-ядерных процессора EPYC, а общий объем оперативной памяти достигнет 1,57 петабайта.

Объём файлового хранилища Lustre составит 14,5 петабайт, при этом только для буферизации будет использовано 1,1 петабайта. «Кровеносной системой» Archer2 станет сеть Cray Slingshot нового поколения со скоростью 100 Гбит/с и топологией типа dragonfly.

Разместится новый суперкомпьютер в 23 шкафах Cray Shasta Mountain с системой «прямого» жидкостного охлаждения. В качестве базового программного обеспечения будет использован набор фирменного ПО Cray, оптимизированного с учётом особенностей архитектуры AMD Rome. В основе этого набора лежит специальная версия SUSE Linux Enterprise Server с сопутствующими библиотеками и компиляторами.

Постоянный URL: http://servernews.ru/995668
26.09.2019 [18:18], Сергей Юртайкин

Cray официально присоединилась к HPE

Hewlett Packard Enterprise (HPE) объявила о закрытии сделки по приобретению производителя суперкомпьютеров Cray за $1,4 млрд или $35 в пересчёте на одну акцию проданной компании.

В HPE говорят, что эта покупка усилит портфель оборудования и программного обеспечения для высокопроизводительных вычислений (HPC), а также ускорит рост бизнеса в области искусственного интеллекта. Ранее, в 2016 году HPE купила другого известного HPC-игрока, легендарную SGI

По прогнозам HPE, объём мирового рынка HPC с учётом систем хранения данных и сервисов, имеющих отношение к такого рода вычислениям, вырастет до $35 млрд в 2021 году с $28 млрд в 2018-м.

Из пресс-релиза также следует, что слияние HPE и Cray обеспечит увеличение инфраструктуры исследований и разработок, а также экспертизы, которые необходимы для ускоренного создания новых продуктов и решений.

Ещё одним преимуществом сделки её участники называют расширение возможностей поддержки клиентов, особенно среди пользователей суперкомпьютеров.

«Объединяя Cray и HPE, мы создаем наиболее полный комплексный портфель продуктов в области вычислений, хранения данных, программного обеспечения и услуг в быстрорастущих сегментах рынка высокопроизводительных вычислений и искусственного интеллекта», — заявил президент подразделения HPE Hybrid IT Фил Дэвис (Phil Davis).

Постоянный URL: http://servernews.ru/994706
Система Orphus