Материалы по тегу: суперкомпьютер

23.11.2020 [20:00], Игорь Осколков

SC20: на экзафлопсном фронте без перемен

Ноябрьский рейтинг суперкомпьютеров TOP500 оказался ещё более скудным на новинки в сравнении с летним. Тогда в списке появилось менее сотни новых машин, сейчас — всего 44. Составители списка вновь вынуждены констатировать, что это новый антирекорд с момента выхода первого рейтинга в 1993 году. Однако перспективы не так плохи — до 2026 года мы должны увидеть от 28 до 38 систем мощностью от 1 Эфлопс, на создание которых уйдёт $10-15 млрд.

Лидером же нынешнего TOP4500 остаётся Fugaku, который с лета немного «нарастил мускулы» благодаря доукомплектации новыми узлами и, что не менее важно, за счёт программных оптимизаций. Теперь у него 7,3 млн ядер, которые выдают на-гора 442 Пфлопс реальной производительности. И он всё ещё практически в три раза быстрее второго места в списке, суперкомпьютера Summit. В более современном и комплексном бенчмарке HPCG разрыв между ними ещё заметнее: 16 Пфлопс против 2,93 Пфлопс. А в специализированном HPL-AI и вовсе разгромный — 2 Эфлопс против 0,55 Эфлопс.

Однако и «цена» за такую производительность немаленькая — почти 30 МВт! По показателю Гфлопс/Вт Fugaku чуть лучше того же Summit, а в Green500 он опустился на 10 место. И вот, что интересно — в первой десятке сейчас сплошь системы на базе AMD EPYC 7002 с NVIDIA A100 (верхняя часть списка) и IBM POWER или Intel Xeon с NVIDIA V100 (нижняя), если не учитывать специализированную машину Preferred Networks MN-3. Да и в целом по TOP500 более четверти машин (136) используют ускорители NVIDIA или в редких случаях другие акселераторы. Новых MI100 пока в списке нет.

Зато AMD, процессорами EPYC которой теперь оснащена 21 машина (19 из них Rome), теперь представлена в 12 из 44 новых участников списка. Из них 9 — с 64-ядерными CPU. И это очень сильно контрастирует с наиболее массовыми конфигурациями от 16 до 24 ядер на сокет, которые суммарно занимают почти 60% списка. Что любопытно, среди этих 21 машин шесть имеют ускорители NVIDIA A100, причём одна половина в составе DGX A100 и с 64-ядерными CPU, а вторая — с 24-ядерными. Ещё 14 машин не имеют никаких ускорителей, и 11 из них тоже базируются на 64-ядерных EPYC.

Так что можно аккуратно сказать, что решения AMD интересны и в качестве основы для систем с ускорителями (и тут необязательно использовать старшие SKU), и в составе CPU-only машин. Тем не менее, 90% нынешнего списка остаётся за Intel. Половина новых участников списка всё так же используют Intel Xeon Cascade Lake, а остальные — либо более старые поколения Intel, либо более экзотичные архитектуры. Ладно, A64FX уже не такой экзотичный, а вот пара машин с NEC SX-Aurora Vector Engine Type10AE в качестве основных процессоров на фоне остальных выделяется.

Загадывать наперёд смысла нет, но всё же интересно, что будет дальше делать IBM после реструктуризации, и особенно интересно — что сделает NVIDIA с Arm. Fujitsu A64FX, который лежит в основе Fugaku, всё же довольно нетипичный чип во всех отношениях, а Marvell, только-только получив новые процессоры ThunderX3, похоже, отказывается от серверных CPU. Из альтернатив, готовых составить компанию A100 прямо сейчас, остаётся, по-видимому, только Arm-платформы Ampere. Для A100 же от нынешних EPYC нужны, пожалуй, именно линии PCIe 4.0, которые требуются и самим акселераторам, и сетевым адаптерам, чтобы упростить масштабирование кластера. И вот с интерконнектом и вообще с сетями у NVIDIA после покупки Mellanox всё неплохо.

Особенно интересны в этом контексте DPU, которые потенциально могут значительно снизить потребность в обычных CPU, но насколько это будет применимо именно в HPC, ещё вопрос. Да, половина списка TOP500 опирается на Ethernet, однако совокупная мощность всех систем с InfiniBand составляет 40% от суммарной мощности всех суперкомпьютеров списка. Ещё столько же приходится на проприетарные и кастомные интерконнекты вкупе с Omni-Path (есть даже одна машина с OPA от Cornelis Networks). Следующий шаг NVIDIA уже объявлен — адаптеры, DPU и коммутаторы следующего поколения NDR InfiniBand с базовой скоростью 400 Гбит/с появятся в ближайшие пару лет. Правда, со стороны хоста им опять понадобится или много линий PCIe 4.0, или вовсе PCIe 5.0.

Прямо сейчас такой порядок скоростей на узел есть только у Fugaku. Любопытно, что из всех известных на данный момент проектов экзафлопсных машин, по данным Hyperion Research, только для одной китайской в планах явно указывается использование 400G-интерконнекта «домашней выделки». Причём эта система NUDT Tiahne-3 будет полагаться на некий Arm-чип (вероятно, развитие Phytium), но с учётом последних событий — санкций на современные техпроцессы и неразбериху в китайском офисе Arm — пока не очень понятно, как это всё будет реализовано и когда. Всего у Китая есть три проекта машин экзафлопсного класса.

Евросоюз тоже рассчитывает получить три таких машины в 2022-2023 году, и одна из них будет базироваться на Arm-процессорах собственной разработки SiPearl Rhea. А пока в рамках проекта EuroHPC, который испытывал проблемы с финансированием, будут построены сразу несколько суперкомпьютеров в разных регионах, включая весьма мощные. Великобритания, покинувшая проект в связи с Brexit’ом, по оценкам, будет вынуждена выложить от 0,7 до 1,2 млн фунтов, чтобы получить на рубеже 2022-2023 г.г. собственный экзафлопсный компьютер.

Наконец, в США пока разрабатываются три главных экзафлопсных системы: Aurora, Frontier и El Capitan. Первая из-за пересмотра проекта и ряда проблем Intel задержится примерно на год, так что вторая в конце 2021 года станет первой такой системой в США. В её основу лягут AMD EPYC на базе Zen3, которые должны показать в начале следующего года, и ускорители на базе архитектуры AMD CDNA. Из особенностей отмечается высокая плотность — 300 кВт на стойку, что требует СЖО — и суммарное потребление на уровне 40 МВт. Примерно того же стоит ждать и от суперкомпьютера El Capitan, который будет основан на следующем поколении CPU и GPU AMD и заработает в 2023 году.

Есть и ещё одна система с производительностью около 1 Эфлопс, которая будет поэтапно введена в строй в 2020-2021 г.г. — это Perlmutter на базе AMD EPYC Zen3 и ускорителей NVIDIA. Интересно, вся эта «фантастическая четвёрка» будет базироваться на платформе HPE Cray EX. Последовательная покупка SGI и Cray резко укрепила позиции HPE на рынке суперкомпьютеров. По итогам 2019 года, согласно данным Hyperion Research, она занимает более 37% рынка HPC-серверов. На втором месте Dell с долей 22%, а все прочие игроки занимают менее 7% каждый.

При этом совокупный среднегодовой темп роста до 2024 года именно этого сегмента будет не так велик — 6,8% вместо ранее предсказанных 8,7%. Наибольший прирост придётся на большие во всех смыслах машины, включая экзафлопсные. Быстрее всего будет расти сегмент СХД — 8,3%. Тут в лидерах как раз Dell и IBM, а HPE и DDN на третьем и четвёртом местах соответственно. Хуже всего придётся нижнему сегменту HPC-серверов начального уровня (до $100 тыс.) — после кризиса 2008 года она так и не восстановился, а сейчас скорее пойдёт в облака.

Да и вообще HPC в облаках будет расти более чем в 2,5 раза быстрее, чем в on-premise — CAGR до 2024 года составит 17,6% против 6,7%. Впрочем, разница в объёмах рынках всё равно будет составлять более 4,3 раз в пользу on-premise. Тем не менее, облака добавят $8,8 млрд к общему объёму рынка HPC, который вырастет до более чем $47 млрд. Следует учитывать, что всё это пока что предварительные прогнозы, которые теперь будут обновляться гораздо чаще. Пандемия COVID-19, как теперь стало понятно, заметно повлияла на рынок HPC.

Общие выводы Hyperion Research, в целом, совпадают с данными доклада Intersect360, о котором мы уже писали ранее — многие проекты отложены или заморожены, и не все из них будут реализованы даже после снижения влияния пандемии на мировую экономику. Во всех случаях основным препятствием для закупок, как и прежде, останется стоимость систем. Но для on-premise также будут важны затраты на питание и охлаждение и ограничения по площади. А основными критериями при выборе новых систем помимо очевидного соотношения цена/производительность также станут безопасность, скорость работы CPU и способность работы с ИИ и Big Data.

Постоянный URL: http://servernews.ru/1026082
23.11.2020 [17:15], Сергей Карасёв

Ещё пять крупных HPC-центров выбрали СЖО CoolIT

Компания CoolIT Systems сообщила о том, что сразу несколько крупных центров высокопроизводительных вычислений (НРС) выбрали её системы прямого жидкостного охлаждения (Direct Liquid Cooling, DLC) для реализации своих проектов.

Отмечается, что в развёртывании новых НРС-комплексов участвовали такие гиганты как Intel, Dell EMC, GIGABYTE, Penguin и HPE. Системы DLC позволяют отводить тепло от центральных процессоров, регуляторов напряжения и памяти. Внедрение таких решений даёт возможность повысить плотность размещения оборудования в стойках, улучшить эффективность отвода тепла и сэкономить на площадях.

Итак, сообщается, что CoolIT Systems выступила поставщиком DLC-систем для суперкомпьютеров HLRN IV и Lise (№56 в TOP500), которые функционируют в интересах учёных Северо-Германского суперкомпьютерного альянса.

Кроме того, решения CoolIT Systems задействованы в составе вычислительных комплексов Lichtenberg II (№101 в TOP500), CARA (№306) и Magma (№95). Они используются для различных научных вычислений, авиационного моделирования и пр.

Постоянный URL: http://servernews.ru/1026025
23.11.2020 [13:20], Сергей Карасёв

Новый водоблок Motivair может отвести до 1 кВт тепла

Компания Motivair Corporation разработала специализированные модули Dynamic Cold Plates, предназначенные для использования в составе систем жидкостного охлаждения (СЖО) мощных серверных процессоров и ускорителей. Представленные изделия позволяют повысить надёжность функционирования СЖО.

В традиционных системах применяется медная пластина с микроканалами для прохождения теплоносителя. При этом важно, чтобы в составе жидкости не присутствовали частицы с диаметром более 50 микрон, говорит Motivair. В противном случае каналы могут попросту блокироваться, из-за чего будет падать эффективность отвода тепла. Это заметно повышает требование к системам фильтрации и очистки теплоносителя.

Решение Motivair Dynamic Cold Plates лишено микроканалов — вместо них используются желобки, через которые могут свободно проходить частицы, имеющие до 400 микрон в поперечнике. Такая конструкция приводит к уменьшению общей площади контакта, но это компенсируется динамическим распределением потоков жидкости в желобках. В целом, новая технология, использованная в составе Dynamic Cold Plates, обеспечивает эффективный отвод тепла при высоких нагрузках с меньшим риском загрязнения и отказа СЖО.

Изделие имеет низкопрофильный форм-фактор. Оно может применяться с центральными и графическими процессорами, чьё максимальное значение рассеиваемой тепловой энергии достигает 1000 Вт. Это актуально для нынешних и будущих суперкомпьютеров. Компания принимает участие в создании систем охлаждение трёх систем экзафлопсного класса HPE Cray EX: Aurora, Frontier и El Capitan.

Постоянный URL: http://servernews.ru/1026022
22.11.2020 [14:33], Андрей Галадей

В Microsoft Azure развернули облачный суперкомпьютер производительностью почти 5 Пфлопс

В облаке Microsoft Azure был достигнут новый рекорд масштабирования высокопроизводительных вычислений (HPC). Там удалось создать виртуальный кластер с 86 400 ядрами CPU. Для этого использовались физические серверы на базе AMD EPYC 7002 с подключением HDR InfiniBand, которые объединили в 720 виртуальных машин Azure HBv2. Это дало пиковую производительность на уровне 5 Пфлопс.

Облачный провайдер сотрудничал с Институтом передовых наук и технологий Бекмана при Иллинойском университете в Урбана-Шампейн (UIUC), чтобы проверить пределы масштабируемости Azure. В качестве рабочей нагрузки использовался инструмент для моделерирования молекулярной динамики (NAMD), разработанный в UIUC. Инструмент сыграл важную роль в исследовании COVID-19 в этом году.

«Команда обнаружила, что кластеры HBv2 не только соответствуют требованиям исследователей, но и что производительность и масштабируемость в Azure конкурируют, а в некоторых случаях превосходят возможности суперкомпьютера Frontera, занявшего 8-е место в списке Top500 за июнь 2020 года», — заявил Эван Бернесс (Evan Burness), главный специалист и программный менеджер Azure HPC.

Это позволит использовать мощности облака для будущих проектов. Проще говоря, это может позволить быстрее найти лекарство от коронавируса и других болезней. А Дэвид Харди (David Hardy), старший программист-исследователь в UIUC отметил, что благодаря библиотеке Charm++, которая позволяет распараллеливать задачи, удалось добиться хорошей производительности и масштабирования для NAMD в кластере Microsoft Azure. Причём это не потребовало переписывание исходного кода.

Напомним, что ранее в Azure показали новый рекорд производительности ввода-вывода на файловой системе BeeGFS.

Постоянный URL: http://servernews.ru/1025987
20.11.2020 [00:07], Андрей Галадей

SC20: новый HPC-стек Atos повысит эффективность и снизит энергопотребление суперкомпьютеров

Компания Atos объявила в рамках SC20 о выпуске новых программных решений для систем высокопроизводительных вычислений (High Performance Computing, HPC). Их задача состоит в оптимизации производительности и снижении потребления энергии суперкомпьютерами.

Компания отмечает, что эти программные пакеты могут применяться в линейке фирменных решений Atos BullSequana X. В перечне ПО HPC Software Suites есть Smart Data Management Suite, Smart Energy Management Suite, Smart Performance Management Suite и Smart Management Center xScale. В Atos отмечают, что этот софт позволяет снизить «прожорливость» систем за счёт гибкой настройки суперкомпьютеров, что важно в свете ожидаемого в будущем перехода на экзафлопные вычисления.

smartcitiesworld.net

smartcitiesworld.net

К примеру, Smart Management Center xScale упрощает задачи настройки, развертывания и работы кластера в целом. А Smart Energy Management Suite позволяет клиентам управлять энергопотреблением суперкомпьютеров, оптимизируя их производительность. Эта инициатива позволит, как ожидается, снизить выбросы углекислого газа, поскольку именно тепловые электростанции на данный момент вырабатывают большую часть энергии. При этом пока не приводится никаких конкретных цифр, позволяющих оценить работу такого ПО.

По словам Агнес Будо (Agnès Boudot), старшего вице-президента и руководителя подразделения HPC & Quantum в Atos, новые программные комплексы являются результатом обширного опыта компании в развертывании крупномасштабных суперкомпьютеров. Целью является предоставление энергоэффективных решений, которые будут минимально влиять на окружающую среду.

Также госпожа Будо отметила, что компания гордится тем, что этом году 30 её суперкомпьютеров вошли в TOP 500, в том числе JUWELS, один из самых энергоэффективных суперкомпьютером в мире, занимающий в Green500 третье место. Она уточнила, что программные комплексы Atos позволят пользователям раскрыть мощь своей суперкомпьютерной системы, одновременно улучшив её показатели в плане потребления энергии.

Отмечается, что это ПО уже доступно. Напомним, что это не первая «зелёная» инициатива компании. Ранее в Atos запустили сервис OneCloud, который призван ускорить переход клиентов на более экологичные облачные системы.

Постоянный URL: http://servernews.ru/1025833
19.11.2020 [13:39], Сергей Карасёв

SC20: суперкомпьютер Leonardo получит 14 000 узлов с ускорителями NVIDIA Ampere

Некоммерческий консорциум CINECA, состоящий из 69 итальянских университетов и 21 национальных исследовательских центров, представил проект нового комплекса высокопроизводительных вычислений. В основу суперкомпьютера под названием Leonardo ляжет платформа Atos BullSequana XH2000.

Архитектура Leonardo предусматривает наличие двух секций — общего назначения и с ускорителями (Booster). В состав первого войдут более 3000 узлов CPU на основе процессоров Intel. Секция Booster объединит приблизительно 14 000 GPU-узлов, каждый из которых будет содержать четыре ускорителя NVIDIA. Ожидаемая максимальная производительность составит 240 Пфлопс FP64 и 10 Эфлопс FP16.

От DDN вычислительный комплекс получит 5 Пбайт пространства на высокопроизводительных накопителях и ещё 100 Пбайт пространства для хранения данных. Говорится об использовании интерконнекта Mellanox Infiniband HDR 200 Гбит/с.

Применять Leonardo планируется для решения сложных научных и медицинских задач. Это, в частности, моделирование климата, поиск перспективных лекарственных препаратов, в том числе для борьбы с коронавирусной инфекцией, и пр.

Постоянный URL: http://servernews.ru/1025782
19.11.2020 [13:31], Владимир Мироненко

SC20: в мировом рейтинге IO500 Россию представляют три суперкомпьютера РСК

На проходящей сейчас в онлайн-режиме всемирной суперкомпьютерной конференции SC20 была представлена новая редакция мирового рейтинга IO500 самых высокопроизводительных системам хранения данных HPC-класса, в которой единственными представителями России стали три суперкомпьютерные системы производства группы компаний РСК, ведущего отечественного разработчика решений для высокопроизводительных вычислений, ЦОД, облачных платформ и систем хранения данных.

Речь идёт о суперкомпьютере  МВС-10П  ОП2 (Межведомственный суперкомпьютерный центр Российской академии наук, МСЦ РАН), впервые попавшем в рейтинг и занявшем 18-е место, суперкомпьютере «Говорун» (22-е место, Объединённый институт ядерных исследований, ОИЯИ, Дубна) и суперкомпьютере «Политехник — РСК Торнадо» (28-е место, Санкт-Петербургский политехнический университет Петра Великого, СПбПУ). В предыдущей редакции IO500 было два суперкомпьютера РСК.

Высокого результата удалось достичь благодаря применению во всех проектах технологии создания масштабируемых распределённых и компонуемых «по требованию» систем хранения данных RSC Storage on-Demand на основе NVMe-накопителей Intel SSD и Intel Optane SSD. Кроме того, в суперкомпьютере МСЦ РАН установлены новые узлы для хранения данных на базе высокоскоростных Intel SSD в форм-факторе E1.S.

МСЦ РАН — один из самых мощных российских суперкомпьютерных центров коллективного пользования в сфере науки и образования. После модернизации, проведенной специалистами РСК в течение 2020 года, пиковая производительность МВС-10П ОП2 выросла почти в два раза — на 93 %, достигнув 823,91 Тфлопс. 

Суперкомпьютер «Говорун» был создан в 2018 году при участи специалистов группы компаний РСК и корпорации Intel. В 2019 году он был модернизирован. Обновленная система обладает совокупной теоретической пиковой производительностью 860 Тфлопс двойной точности, являясь при этом гиперконвергентной программно- определяемой системой.

«Политехник – РСК Торнадо» является универсальным высокоплотным и энергоэффективным решением «РСК Торнадо» со 100 % жидкостным охлаждением на «горячей воде». После плановой модернизации, проведенной специалистами РСК в течение 2020 года, суммарная пиковая производительность вычислительных ресурсов СКЦ «Политехнический» в 2020 году выросла на 23 % и теперь составляет 1,6 Пфлопс.

Постоянный URL: http://servernews.ru/1025787
16.11.2020 [13:57], Сергей Карасёв

Fujitsu построит в Японии новый суперкомпьютер для решения ИИ-задач

Японский национальный институт передовых промышленных наук и технологий (AIST) введёт в строй новый суперкомпьютер для проведения различных исследований и разработок в сфере искусственного интеллекта (ИИ). Строительством вычислительного комплекса займётся корпорация Fujitsu.

Проект получил название AI Bridging Green Cloud Infrastructure. В состав комплекса войдут серверы следующего поколения Fujitsu Primergy GX2570, объединяющие два процессора Intel Xeon Scalable (Ice Lake) и восемь высокопроизводительных ускорителей NVIDIA A100.

Новый суперкомпьютер будет насчитывать 120 узлов. Суммарный объём основной памяти составит 97,5 Тбайт, а ёмкость файловой системы определена на уровне 11,2 Пбайт.

Пиковая производительность составит 19,3 петафлопса — квадриллиона операций с плавающей запятой в секунду — при вычислениях с двойной точностью. При вычислениях с половинной точностью этот показатель будет достигать 300 петафлопс.

Запустить систему AI Bridging Green Cloud Infrastructure планируется в 2021 году. Суперкомпьютер сможет решать сложные задачи в области аналитики данных, глубокого обучения и пр.

Постоянный URL: http://servernews.ru/1025464
16.11.2020 [13:54], Сергей Карасёв

В основу суперкомпьютера Ookami положены ARM-процессоры Fujitsu A64FX

Институт передовых компьютерных наук (IACS) Университета Стоуни-Брук (США) представил новую систему высокопроизводительных вычислений под названием Ookami. Этот комплекс использует технические решения, положенные в основу японского суперкомпьютера Fugaku, о котором можно узнать в нашем материале.

Система Ookami («волк» в переводе с японского) использует узлы HPE Apollo 80. Это система с высокой плотностью размещения компонентов: она содержит восемь однопроцессорных серверов на базе микрочипов Fujitsu A64FX с архитектурой ARM. И это одна из первых крупных систем на базе этих CPU за пределами Японии.

Stony Brook

Stony Brook

Конфигурация процессоров Fujitsu A64FX включает 48 вычислительных ядер и четыре вспомогательных ядра, которые разделены на четыре блока с внутренней кольцевой шиной. Векторыне инструкции SVE способны повысить производительность операций с плавающей запятой для активно параллелизуемых приложений (высокопроизводительные вычислительные системы и искусственный интеллект).

Суперкомпьютер Ookami также использует платформу хранения данных ClusterStor E1000. Она предназначена для самых мощных конвергентных вычислительных систем. Данная платформа позволяет использовать традиционные жёсткие диски и (или) твердотельные накопители.

Сведения о быстродействии суперкомпьютера Ookami пока, к сожалению, не раскрываются. 

Постоянный URL: http://servernews.ru/1025460
13.11.2020 [12:30], Владимир Мироненко

Supermicro развернула в LLNL суперкомпьютерный кластер Ruby для борьбы с COVID-19

Компания Super Micro Computer, Inc. (Supermicro), специализирующаяся на разработке решений в области корпоративных вычислений, хранения данных, сетевого оборудования и, с недавних пор, технологий экологически чистых вычислений, объявила о развёртывании дополнительного кластера в Ливерморской национальной лаборатории имени Э. Лоуренса (LLNL) с целью расширения существующих вычислительных возможностей, доступных для национальной безопасности, и оказания помощи в разработке лекарств против коронавируса SARS-CoV-2, вызывающего заболевание COVID-19.

В кластере под названием Ruby используются серверы Supermicro TwinPro 2U с четырьмя узлами на базе процессоров Intel Xeon Platinum второго поколения, имеющие 192 Гбайт памяти на борту. Узлы объединены интерконнектом Cornelis Networks Omni-Path. Кластер включает в общей сложности почти 85 000 ядер, максимальная производительность которых достигает примерно шести Пфлопс.

С более чем 1500 узлами в 26 стойках и 16 серверами TwinPro 2U в каждой стойке (64 узла), системы используют прямое жидкостное охлаждение (direct-to-chip). Плотно размещённые стойки в сочетании с жидкостным охлаждением позволяют значительно сократить занимаемую серверами площадь в центре обработки данных и снизить затраты на электроэнергию. Жидкостное охлаждение позволяет обеспечить экономию до 40–50 % совокупной стоимости владения за счёт сокращения использования кондиционеров и охлаждающих вентиляторов. Supermicro организовала, протестировала и обеспечила интеграцию систем на уровне стойки и предоставила укомплектованные plug-n-play-системы для LLNL.

«Усовершенствованные двухпроцессорные серверы TwinPro и Ultra 2U компании Supermicro были выбраны из-за их исключительной плотности, поддержки больших вычислительных нагрузок и гибкого подхода Building Block Solutions для серверов, так что LLNL может построить наилучшую кластерную конфигурацию с учётом её требований, — сообщил Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. — Мы признаём важность работы LLNL по поддержке исследований, связанных с разрушительной глобальной пандемией, и помощи в разработке вакцины против COVID-19».

Суперкомпьютерный кластер будет использоваться для незасекреченных исследований в поддержку миссии управления запасами Национального управления по ядерной безопасности США (NNSA), разработок LLNL, а также поиска терапевтических препаратов и антител против коронавируса.

«Ruby обеспечивает значительный вычислительный ресурс в нашей зоне открытого сотрудничества, спрос на который резко вырос из-за увеличения объёмов удалённой работы и роста внешнего сотрудничества, — сообщил Крис Клаус (Chris Clouse), исполняющий обязанности директора программы LLNL ASC. — Такой ресурс, как Ruby, предоставляет площадку для использования опыта и инструментов открытого сообщества в областях, важных для наших программных миссий».

Постоянный URL: http://servernews.ru/1025267
Система Orphus