Материалы по тегу: cray
03.08.2020 [20:44], Илья Коваль
HPE анонсировала серию суперкомпьютеров Cray EX экзафлопсного классаHPE официально представила новые суперкомпьютеры под дочерним брендом Cray: суперкомпьютер HPE Cray EX с жидкостным охлаждением и суперкомпьютер HPE Cray на базе привычной системы 19” шасси HPE Apollo 2000 Gen10 Plus с воздушным охлаждением. Суперкомпьютер HPE Cray EX в базовой конфигурации предлагает узлы с восемью процессорами AMD EPYC Rome 7002, но, в целом, поддерживает установку CPU и GPU мощностью более 500 Вт. А 2U-шасси «обычного» Cray вмещают до 4 узлов на базе всё тех же EPYC Rome. Стойка Cray EX вмещает до 64 узлов и 512 процессоров, а для Cray используется стандартная стойка 42U, вмещающая до 20 шасси HPE Apollo 2000 десятого поколения и 80 процессоров соответственно. Так как HPE не забросила концепцию Cray Shasta, в будущем стоит ожидать появления узлов с GPU, FPGA, ИИ-ускорителями, ARM-процессорами и другими блоками — от гетерогенных вычислений компания не отказывается. Общими для всех суперкомпьютеров HPE, в независимости от конкретного исполнения шасси, являются несколько компонентов: интерконнект HPE Slingshot, СХД ClusterStor и программный стек HPE Cray Software Stack. Последний отчасти будет доступен и для обычных серверов HPE. Он включает системы управления суперкомпьютером, защищённую ОС Cray OS с низким джиттером и набор HPE Cray Programming Environment, упрощающий разработку HPC-приложений. Отличительной чертой является активное использование контейнеров, что упрощает развёртывание и управление нагрузками, позволяет более полно использовать ресурсы машины и при необходимости легко переносить задачи между машинами и/или в облако. Интерконнект HPE Slingshot предоставляет стандартные по современным мерка порты 200 Гбит/c. 64-портовые коммутатор доступные как в виде «лезвий» для Cray EX, так и в виде 2U-узлов. Использование топологии DragonFly позволяет объединить до 250 тыс. точек подключения таким образом, что сигнал между любыми двумя точками проходил не более чем через три коммутатора. Это особенно важно для сохранения низкого уровня задержек, так как именно быстрый интерконнект и отличает суперкомпьютер от обычного кластера серверов. Наконец, для хранения HPE предлагает СХД серии CluterStor E1000, которая в варианте all-flash предлагает производительность на уровне 1,6 Тбайт/с и 50 млн IOPS на стойку. Основана она, кстати, тоже на процессорах AMD EPYC Rome. Благодаря большому количеству линий PCI-E 4.0 они позволяют объединить быстрые SSD и быстрые же сетевые адаптеры. Ну а всё вместе — вычислительные узлы, интерконнект, СХД и программный стек — это позволит создавать суперкомпьютеры экзафлопсного класса. ![]() Таким образом, после объединения и интеграции линеек оборудования поглощение Cray компанией HPE можно считать полностью завершённым. Вместе с технологиями Cray HPE получила и контракты. Наиболее важными являются три машины экзафлопсного класса. Две из них используют решения AMD (CPU + GPU) — El Capitan (> 2 Эфлопс, 2023 год) и Frontier (1,5 Эфплос, 2021 год) — и ещё одна, Aurora (> 1 Эфлопс, 2021 год), базируется на ещё не вышедших CPU и GPU Intel. Благодаря столь удачной и своевременной покупке HPE заметно укрепила свои позиции на рынке HPC.
15.06.2020 [18:05], Владимир Мироненко
Технический директор Cray Стив Скотт перешёл в MicrosoftСтив Скотт (Steve Scott), работавший в Cray техническим директором, перешёл Microsoft на должность вице-президента по аппаратным архитектурам. До Cray Стив Скотт был техническим директором по HPC в новом владельце производителя суперкомпьютеров, HPE. Ранее он также работал в Google и занимался в NVIDIA процессорами Tesla. О новом назначении Стива Скотта стало известно из сообщения главного менеджера команды Microsoft Azure HPC & Big Compute Эвана Бернесса (Evan Burness). Скотт также стал членом технического совета корпорации (Technical Fellow). ![]() Скотт долгое время проработал в Cray, переходя на некоторое время в другие компании. С 1992 года он работал в Cray Research, и затем три года в поглотившей её в 1996 году компании Silicon Graphics. После поглощения Cray Research компанией Tera Computer и её переименования в Cray Inc. Скотт работал в ней до 2011 года. После этого он ушёл на два года в NVIDIA, затем чуть более года работал в Google и пять лет назад вернулся в Cray в качестве технического директора. В течение последних девяти месяцев он находился в штате HPE после приобретения последней компании Cray за $1,3 млрд. В последние годы бизнес Cray начал сокращаться, а потери начали расти. Ещё одной большой проблемой для компании было то, что потенциальные клиенты начали переходить в облако. С 2017 года Microsoft предлагает сервисы Cray в облаке, а также расширяет собственные предложения HPC. Несмотря на потери и уход Скотта, у Cray в составе HPE сохраняются неплохие перспективы. В частности, новые суперкомпьютерные системы Aurora, Frontier и El Capitan будут использовать архитектуру Cray Shasta.
06.05.2020 [13:38], Алексей Разин
Cуперкомпьютер Perlmutter получит 6 тысяч GPU NVIDIA и AMD EPYC MilanСуперкомпьютерная платформа Cray Shasta была представлена ещё в конце 2018 года, но в вычислительном центре NERSC в Беркли суперкомпьютер Perlmutter начнёт монтироваться только в конце текущего года. Помимо прочего, он интересен способностью объединить процессоры AMD Milan и графические процессоры NVIDIA Ampere. Соответствующий контракт Национальный энергетический научно-исследовательский вычислительный центр (NERSC) заключил с Cray на этой неделе. По условиям контракта, монтаж системы Perlmutter, чей уровень быстродействия приблизится к эксафлопсу, будет проводиться в две фазы. В следующем полугодии заказчик получит 12 стоек с узлами на основе графических процессоров NVIDIA следующего поколения, а также уникальную подсистему хранения данных на базе твердотельной памяти совокупным объёмом 35 петабайт, способную передавать информацию со скоростью более 5 Тбайт/с. К середине 2021 года будет поставлено 12 стоек с процессорами AMD EPYC семейства Milan. ![]() Источник изображения: NERSC В принципе, один процессор AMD Milan пропишется и в каждом вычислительном узле, сочетающем четыре графических процессора NVIDIA следующего поколения и 256 Гбайт памяти. В общей сложности, суперкомпьютер Perlmutter будет использовать более шести тысяч графических процессоров NVIDIA следующего поколения. Их условное обозначение не раскрывается, но принято считать, что речь идёт об Ampere с памятью типа HBM2. ![]() Источник изображения: Twitter, Retired Engineer Каждый узел «первой фазы» будет использовать по четыре канала интерконнекта Cray Slingshot, который обладает пропускной способностью 200 Гбит/с. Один «лезвийный» сервер разместит по два узла на базе GPU, либо по четыре узла на базе центральных процессоров AMD EPYC. В последнем случае пара процессоров будет соседствовать с 512 Гбайт памяти. Количество узлов на основе AMD EPYC в суперкомпьютере Perlmutter сможет превысить три тысячи штук. Действующий суперкомпьютер Cori в NERSC используется более чем семью тысячами учёных для расчётов в сфере энергетики, материаловедения, физики, химии, биологии и предсказания климатических изменений. Perlmutter окажется в три или четыре раза производительнее Cori.
04.03.2020 [21:00], Алексей Степин
Два экзафлопса, El Capitan! — Cray создаст суперкомпьютер на базе AMD EPYC Zen4 и Radeon InstinctСтарые суперкомпьютеры уходят на покой, как ветеран GPU-вычислений Titan, но им на смену идут ещё более мощные и совершенные системы. Не столь давно по меркам ИТ-индустрии петафлопс казался огромной цифрой, а буквально сейчас начато покорение очередной вершины — экзафлопсной. Если точнее, то уже двухэкзафлопсной. Ливерморская национальная лаборатория имени Э. Лоуренса (LLNL) совместно с Cray и HPE объявила о начале работ по проекту El Capitan. Этот суперкомпьютер обещает стать если не самой быстрой машиной в мире, то уж точно одной из самых быстрых. Для LLNL это важный шаг, потому что лаборатория впервые за многие годы отказывается от решений IBM. Грядущий суперкомпьютер El Capitan будет обладать более привычной для нового десятилетия гетерогенной архитектурой на платформе Cray Shasta, сочетающей в себе процессоры x86 и ускорители на базе GPU. Конкретно в El Capitan будут применены новейшие процессоры AMD EPYC Genoa, четвёртого поколения Zen. Дополнять их будут ускорители Radeon Instinct, также с новой архитектурой, памятью HBM и поддержкой вычислений смешанной точности. К аждый ЦП будет связан с четырьмя ускорителями посредством шины AMD Infinity Fabric третьего поколения. Что важно, новая шина предложит когерентность и унифицированный доступ к памяти CPU и GPU — это не только сыграет на руку производительности, но и упростит процесс программирования. В качестве основной платформы будет использоваться ROCm. Разработчики хотят сделать новую машину как можно более универсальной, способной работать и с классическими расчётными нагрузками, и с ИИ или, скорее, уже когнитивными системами. Кроме того, изменится и подход к управлению задачами — больший упор будет сделан на контейнеры. Для связи узлов между собой будет использоваться интерконнект Cray Slingshot, а для хранения данных будет использован комплекс ClusterStor. В рамках подготовки к новой эпохе суперкомпьютинга LLNL уже обновила свою ленточную библиотеку для холодных и архивных данных, получив почти 300 Пбайт пространства. В итоге от El Capitan ожидают шестнадцатикратного превосходства над Sierra (второе место в нынешнем списке TOP500), а в абсолютных значениях новый суперкомпьютер должен развивать свыше двух экзафлопс. Конструкция узлов Shasta спроектирована с заделом на модернизацию и рассчитана на установку вычислителей с TDP вплоть до 1 кВт. Благодаря унифицированной архитектуре система получит серьёзный запас прочности: по предварительным прогнозам, срок службы El Capitan составит не менее 10 лет. Точные характеристики нового суперкомпьютера — число узлов, процессоров, ускорителей, потребляемая мощность — будут объявлены позже. Ввод в эксплуатацию намечен на 2023 год.
02.03.2020 [16:31], Алексей Степин
Прощание с Титаном: как уходят суперкомпьютерыОбычные компьютеры устаревают — и то же самое касается и суперкомпьютеров. Правда, процесс вывода из эксплуатации в последнем случае гораздо сложнее, хотя бы в силу масштаба. Пришла пора отправляться на покой и заслуженному ветерану Titan, машине, которая за годы своего существования в Национальной лаборатории Ок-Ридж (ORNL) выполнила 2,8 млн заданий для учёных со всего земного шара. ![]() Национальная лаборатория Ок-Ридж Полностью система называлась Cray XK7 Titan. Она занимала 200 серверных шкафов и имела гибридную архитектуру. В этом смысле Titan стал первым суперкомпьютером в мире, сочетавшем в себе в себе 16-ядерные процессоры AMD Opteron 6274 и ускорители NVIDIA Tesla K20. Общий объём оперативной памяти составлял 700 Тбайт, а дискового хранилища — 40 Пбайт. Titan стал первым суперкомпьютером в мире, перешагнувшим планку производительности 10 Пфлопс, а на пике своего могущества развивал 27 Пфлопс. ![]() Зал, где располагался Titan Семь лет Titan служил верой и правдой науке, а многие сотрудники лаборатории OLCF даже успели к нему привязаться, так что день отключения был для них грустным событием. Демонтаж потребовал серьёзного совместного планирования со стороны ORNL, Cray и Regency Technologies — не так-то просто убрать 200 стоек с вычислительным оборудованием, занимающим 836 квадратных метров, а ведь есть ещё кабельная инфраструктура и системы охлаждения, в которых, между прочим, находилось 4,5 тонны хладагента R134a. ![]() Прощание с ветераном GPGPU Только на слив охлаждающей жидкости пришлось затратить три дня, после чего, наконец, можно было начинать демонтаж. Первым делом были отключены все цепи питания, затем заблокированы контуры охлаждения в помещении (ведь во втором контуре Titan циркулировала вода). Следующим шагом стало отключение подпольной кабельной инфраструктуры, как оптической, так и медной. Наконец, со шкафов сняли «шляпы» — теплообменники систем охлаждения. Начался вывоз самих шкафов. Процесс демонтажа в ускоренном времени В течение 23 дней 8 сотрудников Cray загрузили 195 тонн оборудования на 140 палет в 15 трейлеров — и Titan отправился в последний путь, занимающий почти 1000 миль. В Даллас, штат Техас, где расположены перерабатывающие предприятия Regency, используемые Cray в своей программе Take-Back. Там была начата разборка самих шкафов и других крупных компонентов системы с последующей сортировкой материалов. ![]() AMD Opteron 6274: 16 ядер Bulldozer/Interlagos, 2,2 ГГц, 115 Ватт TDP Сталь, медь и алюминий отправились обратно в металлургическое производство, пластик — в переработку. Все сложные компоненты, включая процессоры, ускорители и другие печатные платы прошли специальную обработку, дабы извлечь из них ценные металлы, такие, как золото и платина. К сожалению, единственным ценным компонентом Titan, не подвергшимся тотальному уничтожению, осталась память. По мнению Cray, процессоры и специфические ускорители NVIDIA просто не представляли рыночной ценности; впрочем, часть ускорителей отправилась в запасники суперкомпьютера XE6. ![]() Узел Cray XK7: четыре Opteron, четыре K20. Фото AnandTech Зачем был нужен демонтаж? Ответ на этот вопрос не так прост: даже на момент вывода из строя Titan обладал солидной мощностью и занимал 12 место в списке самых мощных суперкомпьютеров планеты. Но стоимость его эксплуатации оказалась слишком высокой. В отличие от более современных систем, машина использовала три разных системы охлаждения, включая кондиционирование воздуха. Уровень энергопотребления также был слишком высоким — в среднем от 4 до 6 мегаватт, чего достаточно для питания более 3000 домов. Мало кто может позволить себе такие счета за электричество. В итоге переработка в соответствии со стандартом Responsible Recycling (R2) стала лучшим решением, поскольку простое захоронение электроники, тем более в таких масштабах, недопустимо. Впрочем, в Индии, например, одну из демонтированных машин Cray когда-то в буквальном смысле закопали в землю. ![]() Эволюция суперкомпьютеров ORNL В настоящее время помещение, где располагался герой нашей заметки, проходит ремонт и модернизацию — в нём будет смонтирован новый суперкомпьютер Frontier. Подвесной потолок будет удалён, поскольку потребуется монтаж новой системы электропитания. Фальшпол будет поднят и усилен, под ним пройдут трубы новой системы охлаждения. Закончить работы предполагается к весне 2021 года. ![]() В новой системе Frontier по-прежнему будут использоваться процессоры AMD, на этот раз, заказные модели EPYC, а вот место ускорителей NVIDIA займут специализированные AMD Radeon Instinct. В итоге производительность системы обещает превысить 1,5 экзафлопса и Frontier станет крупнейшим в истории контрактом Cray.
27.02.2020 [00:21], Андрей Созинов
Метеорологи США получат два 12-Пфлопс суперкомпьютера с AMD EPYC RomeНациональное управление океанических и атмосферных исследований США (National Oceanic and Atmospheric Administration, NOAA), которое занимается метеорологическими и геодезическими исследованиями и прогнозами, объявило о планах построить два новых суперкомпьютера для прогнозирования погоды на базе процессоров AMD EPYC. Сообщается, что суперкомпьютеры вместе будут располагать 2560 двухпроцессорными узлами Cray, в которых будут использоваться 64-ядерные процессоры AMD EPYC 7742 поколения Rome. То есть в результате две системы будут располагать 327 680 ядрами с архитектурой Zen 2. Между собой кластеры будет соединяться интерконнектом Cray Slingshot. ![]() Каждый из суперкомпьютеров будут обладать 1,3 Пбайт оперативной памяти, а для хранения данных будут использоваться системы Cray ClusterStor объёмом 26 Пбайт для каждого суперкопьютера. Отметим, что система хранения данных будет состоять из твердотельных накопителей, на которые придётся 614 Тбайт, и двух систем из жёстких дисков по 12,5 Пбайт каждая. ![]() Пиковая теоретическая производительность каждого из суперкомпьютеров составит 12 Пфлопс. Эти вычислительные ресурсы будут направлены на отслеживание и предсказывание ураганов и температурных аномалий, а также на другие погодные исследования и прогнозы. Заработают новые системы только к 2022 году и имеют все шансы попасть в рейтинг TOP500, хотя и вряд ли окажутся в лидерах. В последней редакции рейтинга они заняли бы примерно 25 место. Новые суперкомпьютеры заменят восемь имеющихся систем NOAA. В итоге, после установки новых суперкомпьютеров на AMD общая максимальная теоретическая производительность всех вычислительных систем NOAA составит примерно 40 Пфлопс. На другом берегу Атлантического океана метеорологам тоже живётся неплохо. В ECMWF будет установлен, как утверждается, самый мощный в мире метеорологический суперкомпьютер производства Atos на базе AMD EPYC 7H12. Великобритания выделила $1,6 млрд на машину для аналогичных задач. Она, конечно, тоже названа самой мощной в мире.
17.02.2020 [22:17], Алексей Степин
Isambard 2 станет крупнейшим в Европе ARM-суперкомпьютеромУ национальной метеорологической службы Великобритании Met Office сегодня явно удачный день. Ранее правительство страны объявило о выделении £1,2 млрд на обновление суперкомпьютерного парка, а вслед за этим было заявлено о том, что новый суперкомпьютер Isambard 2 поможет британским метеорологам в разработке более детальных погодных моделей. Новая система, строительство которой проспонсировано Engineering and Physical Sciences Research Council (EPSRC), интересна тем, что станет крупнейшим в европейском регионе вычислительным комплексом на базе процессорной архитектуры ARM. ![]() Суперкомпьютеры серии Isambard носят имя британского инженера Изамбарда Кингдома Брюнеля Суперкомпьютер Isambard, построенный университетским альянсом GW4, Cray и Met Office и введённый в строй в 2018 году, стал первой такого рода системой на базе архитектуры ARM, доказавшей, что она может тягаться с решениями на базе x86, будучи при этом дешевле. Основой Isambard стали процессоры Cavium ThunderX2. Новая машина хотя и будет базироваться на архитектуре ARM, но представлять её будут более совершенные процессоры Fujitsu A64FX. Ничего удивительного в этом нет — ранее Cray (теперь уже HPE) уже объявляла о сотрудничестве с Fujitsu в сфере разработки суперкомпьютеров нового поколения. ![]() Вычислительный узел на базе A64FX Стоимость нового проекта оценивается в £6,5 миллионов. Isambard 2 будет построен в Эксетере, столице графства Девоншир — там же, где функционирует его предшественник. Количество процессорных ядер будет наращено до 21,504, а общее количество вычислительных узлов достигнет 336. За счёт более высокой эффективности A64FX (в частности, благодаря наличию 32 Гбайт HBM2 у каждого процессора), прирост производительности должен быть более чем двукратным. ![]() Архитектура ARM уже доказала, что может помогать науке в решении серьёзных проблем: система Isambard успешно используется не только для погодного моделирования, но и для поиска методов лечения остеопороза и болезни Паркинсона. Второе поколение ARM-суперкомпьютеров продолжит эту традицию и, похоже, именно ARM станет архитектурой, открывшей путь к суперкомпьютерам экзафлопсного класса.
24.01.2020 [12:30], Сергей Карасёв
Видео дня: монтаж ИИ-суперкомпьютера Big Red 200Индианский университет (США) опубликовал видеоролик, демонстрирующий строительство высокопроизводительного вычислительного комплекса под названием Big Red 200. Названный суперкомпьютер использует платформу Cray Shasta, о которой можно узнать в нашем материале. В составе комплекса задействованы процессоры AMD EPYC второго поколения и ускорители NVIDIA V100. ![]() Система Big Red 200 использует интерконнект Cray Slingshot и программное обеспечение Cray Urika AI Suite for Shasta с функциями искусственного интеллекта (ИИ). В текущей конфигурации суперкомпьютер демонстрирует производительность на уровне 5,9 Пфлопс — квадриллиона операций с плавающей запятой в секунду. ![]() Мощности Big Red 200 планируется направить на реализацию различных проектов в области ИИ. Это, в частности, исследования в сферах кибербезопасности, медицины, науки об окружающей среде и пр. Представленное видео создания Big Red 200 снято в режиме Time-lapse. Ролик продолжительностью около двух минут демонстрирует все этапы монтажа суперкомпьютера — от доставки модулей и подключения необходимых кабелей до финальной сборки и установки декоративных панелей. Вот как выглядит этот процесс:
13.11.2019 [18:51], Алексей Степин
Cray и Fujitsu создадут суперкомпьютеры на базе ARM-процессоров A64FXВыбор основы для суперкомпьютера в наши дни весьма широк. Несмотря на популярность архитектуры x86, существуют процессоры c архитектурой POWER и весьма быстрыми темпами набирающие популярность ARM; ожидается появление и решений на базе RISC-V. Компании Fujitsu и Cray заключили соглашение о разработке новых коммерческих систем класса HPC на базе процессоров A64FX с архитектурой ARMv8.2. Машина, разрабатываемая совместно Cray и Fujitsu, будет отнесена к серии Cray CS500. Она должна дебютировать на рынке в середине следующего года. Это не первые ARM-системы производства Cray, ранее компания добавила в серию XC50 узлы на базе Marvell ThunderX2. Надо полагать, что и от ThunderX3 и X4 Cray тоже отказываться не будет. ![]() Эти чипы разработаны в стенах Fujitsu, они же будут основой нового японского суперкомпьютера Fugaku, который будет установлен в Институте физико-химических исследований (RIKEN) в 2021 году. Они получат поддержку 512-битных векторных инструкций SVE. Имеется в A64FX и оптимизация целочисленных вычислений. Описываемый процессор имеет 48 основных ядер и 4 вспомогательных, размещены они будут в четырёх кластерах по 12 + 1 ядру. Топология соединений — кольцевая. ![]() Каждый из 13-ядерных кластеров получит кеш L2 объёмом 8 Мбайт и будет обращаться к своему модулю HBM2 ёмкостью 8 Гбайт с суммарной пропускной способностью 1 Тбайт/с. По сути, эти модули заменят не только кеши L3 и L4, существенно превзойдя их по объёму, но и оперативную память, ведь каждый процессор автоматически получит по 32 Гбайт HBM2. ![]() Прототип вычислительного модуля Fujitsu на базе A64FX Для межпроцессорного соединения планируется использовать шину Torus Fusion (Tofu); предусмотрено две линии со скоростью 28 Гбит/с каждая. Имеется также контроллер PCIe 3.0, он предоставляет 16 линий. Процессоры A64FX выпускаются на мощностях TSMC с использованием 7-нм технологических норм. Сообщается, что количество транзисторов на кристалле составляет 8,7 млрд. ![]() Технические характеристики новых систем Fujitsu на базе A64FX Сама Fujitsu уже анонсировала новые системы на базе A64FX: PRIMEHPC FX1000 и PRIMEHPC FX700. Первое решение использует шасси с жидкостным охлаждением и может содержать до 384 вычислительных узлов, каждый из которых оснащён одним процессором A64FX с частотой 2,2 ГГц. Для межузловой связи используется Tofu Interconnect D, работает система под управлением RHEL 8. Пиковая производительность составляет примерно 3,4 Тфлопс в режиме FP64. ![]() Так выглядит шасси Fujitsu PRIMEHPC FX1000 Модель PRIMEHPC FX700 стоит классом ниже, конструкция у неё более простая. Основой служит стандартное шасси высотой 2U, вмещающее до 8 вычислительных узлов на базе A64FX. Тактовая частота процессоров понижена до 1,8 ‒ 2,0 ГГц, а межузловая связь построена на базе InfiniBand EDR. Охлаждение воздушное. Поставки новых HPC-систем Fujitsu начнутся уже в марте 2020 года. А представить их официально компания собирается на конференции SC19. Японским клиентам сделано некоторое послабление: доступны конфигурации с числом узлов от 48 в старшей модели и всего от 2 узлов в младшей, в то время как западным заказчикам придётся вести счёт от 192 и 128 узлов соответственно. Fujitsu пока не сообщает о заключении контрактов на новые системы, за исключением уже имеющихся обязательств по Fugaku, а вот Cray уже имеет четырёх заказчиков на будущие суперкомпьютеры.
30.10.2019 [20:13], Алексей Степин
Новая СХД Cray ClusterStor E1000: до 1,6 Тбайт/с и 50 млн IOPSКомпания Cray, известная своими суперкомпьютерами, представила новую платформу хранения данных, ClusterStor E1000. Она предназначена для самых мощных конвергентных вычислительных систем экзафлопсного класса и спроектирована в расчёте на постоянно растущие объёмы данных и требования к скоростным показателям. Новая платформа дополняет экосистему Cray Shasta и, как заявляют представители компании, по некоторым показателям не имеет равных в мире. ![]() Возможные конфигурации базовой стойки ClusterStor E1000 Cray ClusterStor E1000 конфигурируется под конкретную задачу заказчика. СХД может быть гибридной, полностью твердотельной или оснащаться только традиционными жёсткими дисками. В случае варианта all-flash максимальная производительность может достигать 1,6 Тбайт/с и 50 миллионов IOPS на стойку. ![]() В случае HDD скоростные показатели несколько скромнее — пиковая скорость составляет 120 Гбайт/с, зато ёмкость одной стойки может достигать 10 Пбайт. Cray пока не планирует отказа от традиционных HDD, как обеспечивающих меньшую удельную стоимость хранения данных. ![]() Контроллеры ClusterStor E1000 используют процессоры AMD Rome В базовой конфигурации новинка состоит из двух модулей формата 2U: модуля управления (System Management) и модуля метаданных (Metadata Unit), дополнительные модули устанавливаются в соответствии с задачами заказчика. Модуль управления оснащается одной коммуникационной платой HDR/Slingshot (200 Гбит/с) и двумя хост-адаптерами SAS с интерфейсом PCIe 4.0 (16 линий SAS 12 Гбит/с). Также доступна поддержка 100GbE и InfiniBand EDR/HDR. В системе используются процессоры AMD EPYC Rome, которые наверняка были выбраны из-за большого числа линий PCIe 4.0 (до 128 на сокет/систему), необходимых для подключения и быстрых накопителей, и внешних сетевых интерфейсов. ![]() Доступные конфигурации модулей хранения данных Модули хранения данных (Storage Units) могут иметь габариты от 2U до 18U и максимальную ёмкость от 507 Тбайт до 5 Пбайт. Один модуль с SSD обеспечивает производительность до 3 миллионов IOPS, у HDD-версий показатели скромнее: от 2 до 8 тысяч IOPS. Система работает под управлением ClusterStor Data Services и использует файловую систему Lustre с открытым исходным кодом. Стоимость базовой конфигурации ClusterStor E1000 оценивается в $200 тысяч, в эту цену входит и трёхлетняя поддержка. Первые поставки Cray наметила уже на декабрь этого года, полномасштабная доступность новых систем будет достигнута во втором квартале 2020 года. |
|