Материалы по тегу: hardware

19.03.2024 [01:02], Сергей Карасёв

Ускорители NVIDIA H100 лягут в основу японского суперкомпьютера ABCI-Q для квантовых вычислений

Компания NVIDIA сообщила о том, что её технологии лягут в основу нового японского суперкомпьютера ABCI-Q, предназначенного для проведения исследований в области квантовых вычислений. Платформа, в частности, будет использоваться для тестирования гибридных систем, объединяющих классические и квантовые технологии.

Развёртыванием комплекса займётся корпорация Fujitsu. Машина расположится в суперкомпьютерном центре ABCI (AI Bridging Cloud Infrastructure) Национального института передовых промышленных наук и технологий Японии (AIST). Ввод ABCI-Q в эксплуатацию намечен на начало 2025 года.

В состав суперкомпьютера войдут более 500 узлов, насчитывающих в общей сложности свыше 2000 ускорителей NVIDIA H100. Говорится о применении интерконнекта NVIDIA Quantum-2 InfiniBand, а также NVIDIA CUDA Quantum — открытой платформы для интеграции и программирования CPU, GPU и квантовых процессоров (QPU). Комплекс ABCI-Q проектируется с прицелом на возможность добавления будущих аппаратных компонентов для квантовых вычислений.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Ожидается, что ABCI-Q позволит проводить высокоточное квантовое моделирование в рамках исследовательских проектов в различных отраслях. Учёные смогут тестировать приложения нового типа с целью ускорения их практического внедрения. Кроме того, специалисты смогут прорабатывать передовые алгоритмы для решения специфичных задач. NVIDIA и AIST также планируют сотрудничать при разработке промышленных приложений на базе ABCI-Q.

В целом, ABCI-Q является частью стратегии Японии в области квантовых технологий, задачей которой является создание новых возможностей для бизнеса и общества, а также получение выгоды от квантовых технологий, в том числе посредством исследований в области ИИ, энергетики и биологии.

Постоянный URL: http://www.servernews.ru/1101846
19.03.2024 [01:01], Сергей Карасёв

NVIDIA показала цифрового двойника нового дата-центра с ИИ-ускорителями Blackwell

Компания NVIDIA на конференции GTC 2024 приоткрыла завесу тайны над новым вычислительным кластером, предназначенным для решения ресурсоёмких задач в области ИИ. Полностью работоспособный дата-центр продемонстрирован в виде цифрового двойника на платформе Omniverse. Показанный кластер выполнен на платформе NVIDIA GB200 NVL72.

Отмечается, что проектирование и создание современных ЦОД — очень трудоёмкий процесс, который требует объединения усилий самых разных команд специалистов. При этом должно учитываться огромное количество факторов, от которых зависят энергетическая эффективность, производительность, возможность масштабирования и пр. Цифровые двойники дают возможность упростить и ускорить процесс.

Цифровой двойник создан на платформе Cadence Reality с применением Omniverse. Для создания цифровой копии будущего ЦОД, который заменит один из устаревших дата-центров NVIDIA, компания Kinetic Vision просканировала площадку с помощью носимого сканера NavVis VLX на основе лидара. В результате были получены высокоточные данные о физических характеристиках объекта и панорамные фотографии. Далее с помощью ПО Prevu3D была сформирована реалистичная 3D-модель ЦОД. Инженеры объединили и визуализировали несколько наборов данных САПР с высокой точностью с помощью платформы Cadence Reality.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Программные интерфейсы Omniverse Cloud обеспечили совместимость с другими инструментами, включая Patch Manager и NVIDIA Air. С помощью Patch Manager специалисты разработали физическую схему кластера и сетевой инфраструктуры, включая необходимые кабели с расчётом их длины. Кроме того, были рассчитаны воздушные потоки и параметры СЖО от таких партнёров, как Vertiv и Schneider Electric.

NVIDIA показала, что цифровые двойники позволяют проектировать, тестировать и оптимизировать ЦОД полностью в виртуальной среде. Визуализируя производительность дата-центра, команды могут изучать различные варианты компоновки и оценивать всевозможные сценарии. Таким образом, можно добиться оптимальной структуры ЦОД ещё до создания физического объекта.

Постоянный URL: http://www.servernews.ru/1101889
19.03.2024 [01:00], Игорь Осколков

NVIDIA B200, GB200 и GB200 NVL72 — новые ускорители на базе архитектуры Blackwell

NVIDIA представила сразу несколько ускорителей на базе новой архитектуры Blackwell, названной в честь американского статистика и математика Дэвида Блэквелла. На смену H100/H200, GH200 и GH200 NVL32 на базе архитектуры Hopper придут B200, GB200 и GB200 NVL72. Все они, как говорит NVIDIA, призваны демократизировать работу с большими языковыми моделями (LLM) с триллионами параметров. В частности, решения на базе Blackwell будут до 25 раз энергоэффективнее и экономичнее в сравнении с Hopper.

В разреженных FP4- и FP8-вычислениях производительность B200 достигает 20 и 10 Пфлопс соответственно. Но без толики технического маркетинга не обошлось — показанные результаты достигнуты не только благодаря аппаратным улучшениям, но и программным оптимизациям. Это ни в коей мере не умаляет их важности и полезности, но затрудняет прямое сравнение с конкурирующими решениями. В общем, появление Blackwell стоит рассматривать не как очередное поколение ускорителей, а как расширение всей экосистемы NVIDIA.

В Blackwell компания использует тайловую (чиплетную) компоновку — два тайла объединены 2,5D-упаковкой CoWoS-L и на двоих имеют 208 млрд транзисторов, изготовленных по техпроцессу TSMC 4NP. В одно целое со всех точек зрения их объединяет новый интерконнект NV-HBI с пропускной способностью 10 Тбайт/с, а дополняют их восемь стеков HBM3e-памяти ёмкостью до 192 Гбайт с агрегированной пропускной способностью до 8 Тбайт/с. Такой же объём памяти предлагает и Instinct MI300X, но с меньшей ПСП (5,3 Тбайт/с), хотя это скоро изменится. FP8-производительность в разреженных вычислениях у решения AMD составляет 5,23 Пфлопс, но зато компания не забывает и про FP64 в отличие от NVIDIA.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Одними из ключевых нововведений, отвечающих за повышение производительности, стали новые Tensor-ядра и второе поколение механизма Transformer Engine, который научился заглядывать внутрь тензоров, ещё более тонко подбирая необходимую точность вычислений, что влияет и на скорость обучения с инференсом, и на максимальный объём модели, умещающейся в памяти ускорителя.

Теперь NVIDIA намекает на то, что обучение можно делать в FP8-формате, а для инференса хватит и FP4. Всё это без потери качества. Но вообще Blackwell поддерживает FP4/FP6/FP8, INT8, BF16/FP16, TF32 и FP64. И только для последнего нет поддержки разреженных вычислений.

Дополнительно Blackwell обзавёлся движком для декомпрессии (в первую очередь LZ4, Deflate, Snappy) входящих данных со скоростью до 800 Гбайт/с, что тоже должно повысить производительность, т.к. теперь распаковкой будет заниматься не CPU и, соответственно, ускоритель не будет «голодать». Эта функция рассчитана в основном на Apache Spark и другие системы для аналитики больших данных. Также есть по семь движков NVDEC и NVJPEG.

Наконец, NVIDIA упоминает ещё две новых возможности Blackwell: шифрование данных в памяти и RAS-функции. В первом случае речь идёт о защите конфиденциальности обрабатываемых данных, что важно в целом ряде областей. Причём формирование TEE-анклава возможно в рамках группы из 128 ускорителей. MIG-доменов по-прежнему семь. В случае RAS говорится о телеметрии и предиктивной аналитике (естественно, на базе ИИ), которые помогут заранее выявить возможные сбои и снизить время простоя. Это важно, поскольку многие модели могут обучаться неделями и месяцами, так что потеря даже относительно небольшого куска данных крайне неприятна и финансово затратна.

Однако всё эти инновации не имеют смысла без возможности масштабирования, поэтому NVIDIA оснастила Blackwell не только интерфейсом PCIe 6.0 (32 линии), который играет всё меньшую роль, но и пятым поколением интерконнектом NVLink. NVLink 5 по сравнению с NVLink 4 удвоил пропускную способность до 1,8 Тбайт/с (по 900 Гбайт/с в каждую сторону), а соответствующий коммутатор NVSwitch 7.2T позволяет объединить до 576 ускорителей в одном домене. SHARP-движки с поддержкой FP8 дополнительно помогут ускорить обработку моделей, избавив ускорители от части работ по предобработке и трансформации данных. Чип коммутатора тоже изготавливается по техпроцессу TSMC N4P и содержит 50 млрд транзисторов.

Для дальнейшего масштабирования и формирования кластеров из 10 тыс. ускорителей и более, вплоть до 100 тыс. ускорителей на уровне ЦОД, NVIDIA предлагает 800G-коммутаторы Quantum-X800 InfiniBand XDR и Spectrum-X800 Ethernet, имеющие соответственно 144 и 64 порта. Узлам же полагаются DPU ConnectX-8 SuperNIC и BlueField-3. Правда, последний предлагает только 400G-порты в отличие от первого. От InfiniBand компания отказываться не собирается.

С базовыми кирпичиками разобрались, пора переходить к конструированию продуктов. Первым идёт HGX B100, в основе которой всё та же базовая плата с восемью ускорителями Blackwell, точно так же провязанных между собой NVLink 5 с агрегированной скоростью 14,4 Тбайт/с. Для связи с внешним миром предлагается пара интерфейсов PCIe 6.0 x16. HGX B100 предназначена для простой замены HGX H100, поэтому ускорители имеют TDP не более 700 Вт, что ограничивает пиковую производительность в разреженных FP4- и FP8/FP6/INT8-вычислениях до 14 и 7 Пфлопс соответственно, а для всей системы — 112 и 56 Пфлопс соответственно.

У HGX B200 показатель TDP ограничен уже 1 кВт, причём возможность воздушного охлаждения по-прежнему сохраняется. Производительность одного B200 в разреженных FP4- и FP8/FP6/INT8-вычислениях достигает уже 18 и 9 Пфлопс, а для всей системы — 144 и 72 Пфлопс соответственно. DGX B200 повторяет HGX B200 в плане производительности и является готовой системой от NVIDIA, тоже с воздушным охлаждением. В системе используются два чипа Intel Xeon Emerald Rapids. По словам NVIDIA, DGX B200 до 15 раз быстрее в задачах инференса «триллионных» моделей по сравнению с DGX-узлами прошлого поколения. 800G-интерконнект Ethernet/InfiniBand этим трём платформам не достался, только 400G.

Основным же строительным блоком сама компания явно считает гибридный суперчип GB200, объединяющий уже имеющийся у неё Arm-процессор Grace сразу с двумя ускорителями Blackwell B200. CPU-часть включает 72 ядра Neoverse V2 (по 64 Кбайт L1-кеша для данных и инструкций, L2-кеш 1 Мбайт), 144 Мбайт L3-кеша и до 480 Гбайт LPDDR5x-памяти с ПСП до 512 Гбайт/с. С двумя B200 процессор связан 900-Гбайт/с шиной NVLink-C2C — по 450 Гбайт/с на каждый ускоритель. Между собой B200 напрямую подключены уже по полноценной 1,8-Тбайт/с шине NVLink 5.

Вся эта немаленькая конструкция шириной в половину стойки имеет TDP до 2,7 кВт. 1U-узел с парой GB200 уже требует жидкостное охлаждение. FP4- и FP8/FP6/INT8-производительность (речь всё ещё о разреженных вычислениях) GB200 достигает 40 и 20 Пфлопс. И именно эти цифры NVIDIA нередко использует для сравнения новинок со старыми решениями.

18 узлов с парой GB200 (суммарно 72 шт.) и 9 узлов с парой коммутаторов NVSwitch 7.2T, которые провязывают все ускорители по схеме каждый-с-каждым (агрегированно 130 Тбайт/с), формируют суперускоритель GB200 NVL72 размером со стойку, оснащённый СЖО. Всё это даёт до 1,44 Эфлопс в FP4-вычислениях и до 720 Пфлопс в FP8, а также до 13,5 Тбайт HBM3e с агрегированной ПСП до 576 Тбайт/с. Ну а общий объём памяти составляет порядка 30 Тбайт. GB200 NVL72 одновременно является и узлом DGX GB200. Восемь DGX GB200 формируют DGX SuperPOD. Впрочем, будет доступен и SuperPOD попроще, на базе DGX B200.

Постоянный URL: http://www.servernews.ru/1101912
18.03.2024 [17:01], Руслан Авдеев

Министерство энергетики США выделило $750 млн на расширение производства водородных ячеек и электролизеров

Соединённые Штаты активно занялись созданием инфраструктуры для выпуска водородных топливных элементов. Datacenter Dynamics сообщает, что Министерство энергетики страны выделило $750 млн на 52 проекта соответствующей тематики в 24 штатах. Предполагается, что они смогут снизить себестоимость водорода и увеличить объёмы поставок.

Проекты выделены в рамках закона, подписанного в 2021 году и предполагавшего выделение на инфраструктурные проекты $1 трлн. Как сообщают в министерстве, новый план обеспечат США рост возможности производства водородных топливных ячеек в объёме до 14 ГВт/год, а также электролизеров на 10 ГВт ежегодно — этого будет достаточно для выпуска 1,3 млн тонн чистого водорода каждый год.

 Источник изображения: akitada31/pixabay.com

Источник изображения: akitada31/pixabay.com

Средства распределят по шести направлениям: производство электролизеров, цепочка поставок для электролизеров, компоненты электролизеров, выпуск топливных ячеек, цепочка поставок для топливных ячеек, утилизация. В числе прочих получателем средства стала Plug Power, выпускающая топливные элементы. Ранее компания заявляла, что гиперскейлеры начнут внедрять водородные элементы для ЦОД в конце 2025 года. Речь, вероятно, о Google, Amazon и Microsoft.

Последняя уже внедрила водородную систему Plug Power мощностью 3 МВт в 2022 году. Ранее Microsoft заявила, что объединила усилия с Caterpillar, обеспечив питание ЦОД в течение 48 часов исключительно за счёт энергии, вырабатываемой ячейками производства Ballard Power Systems. Как Caterpillar, так и Ballard тоже стали получателями субсидий Министерства энергетики. Также деньги выделены 3M, General Motors, Nuvera и Robert Bosch.

Операторы ЦОД довольно давно присматриваются к топливным элементам, видя в них альтернативу дизельным электрогенераторам в качестве резервных источников питания. Не исключается, что такие ячейки в будущем могут стать и основными источниками питания.

Постоянный URL: http://www.servernews.ru/1101890
18.03.2024 [15:37], Руслан Авдеев

Ardian закрыла сделку по покупке Verne у D9, пообещав вложиться в увеличение ёмкости ЦОД

Инвестиционная компания Ardian завершила сделку по покупке европейского оператора ЦОД Verne у британской инфраструктурной группы Digital 9 Infrastructure plc (D9). По информации Datacenter Dynamics, инвестор намерен поддержать расширение Verne, вложив до $1,2 млрд для реализации «амбициозного плана роста» на рынке ЦОД на севере Европы.

Принадлежащая Triple Point компания D9 анонсировала продажу Verne новому собственнику ещё в ноябре 2023 года. Хотя условия сделки не разглашались, по слухам, покупка обошлась в £465 млн ($575 млн). Для сравнения, D9 приобрела Verne в 2021 году за £231 млн ($320 млн по актуальному тогда курсу).

 Источник изображения: Verne

Источник изображения: Verne

Компания управляет кампусом ЦОД потенциальной ёмкостью более 100 МВт на бывшей базе НАТО в Исландии, обеспечивая клиентов колокейшн- и HPC-сервисами. В пакет бренда Verne также включили купленных D9 операторов — финскую Ficolo и британскую Volta Data Centers. По данным Techerati, в Лондоне компания располагает ЦОД приблизительно на 10 МВт и порядка 25 МВт — в Финляндии.

Как заявляют в Ardian, компания намерена в разы увеличить ёмкость ЦОД Verne в среднесрочной перспективе. Речь идёт как о расширении уже существующих объектов, так и о строительстве новых. Приоритет будет отдаваться проектам в Исландии, Финляндии, Швеции и Норвегии, а также в других районах Северной Европы. В Verne приветствовали присоединение к платформе Ardian — оператор создавать новые экоустойчивые ЦОД, позволяя организациям-клиентам экономично масштабировать цифровую инфраструктуру, попутно снижая воздействие на окружающую среду.

Изначально D9 планировала продать миноритарную долю Verne, но на фоне роста долгов и падения курса акций владельцы настояли на полной продаже бизнеса. В Ardian утверждают, что Verne «действительно зелёный» оператор ЦОД в сравнении с конкурентами со всего мира. Новый владелец поможет топ-менеджменту приобретённого бизнеса удовлетворить растущий из-за массового внедрения ИИ спрос. На сайте компании указывается, что ЦОД в Исландии на 100 % питается энергией Солнца и геотермальных источников.

У самой D9 дела обстоят не очень гладко — планируется продажа и других активов компании, среди которых есть компания Aqua Comms (подводные кабели), британская телерадиовещательная сеть Arquiva, ирландский ШПД-оператор Elio (ранее Host Ireland), а также доля в кабеле EMIC-1, связывающем юг Европы с Индией. Также в её собственности имеется ЦОД и посадочная станция в Великобритании — SeaEdge UK1.

Постоянный URL: http://www.servernews.ru/1101880
16.03.2024 [23:19], Сергей Карасёв

Pure Storage: рост ёмкости SSD будет ограничен возможностями DRAM

Компания Pure Storage, специализирующаяся на All-Flash СХД, считает, что дальнейшее увеличение вместимости SSD будет сопряжено с рядом трудностей, продиктованных необходимостью применения DRAM. Об этом, как сообщает ресурс Blocks & Files, рассказал Шон Роузмарин (Shawn Rosemarin), вице-президент Pure по исследованиям и разработкам.

По его словам, коммерческим SSD требуется примерно 1 Гбайт DRAM на каждый 1 Тбайт флеш-памяти. Наличие DRAM необходимо для подсистемы Flash Translation Layer (FTL). По словам Роузмарина, для накопителя ёмкостью 30 Тбайт требуется 30 Гбайт DRAM, для 75 Тбайт — 75 Гбайт и т. д. Таким образом, для SSD вместимостью, например, 128 Тбайт нужно 128 Гбайт DRAM, а это уже сопоставимо с объёмом ОЗУ в сервере.

 Источник изображения: Pure Storage

Источник изображения: Pure Storage

Роузмарин отмечает, что увеличение вместимости корпоративных SSD свыше 30 Тбайт будет проблематично. Во-первых, DRAM заметно дороже NAND, что приведёт к значительному росту стоимости SSD. Во-вторых, из-за увеличения объёма DRAM возрастает энергопотребление, что не только поднимет стоимость владения, но и ухудшит надёжность накопителя. В результате по мере роста вместимости SSD заказчики могут столкнуться с серьёзным увеличением затрат.

Роузмарин заявляет, что единственный способ обойти указанные проблемы — найти более экономичную и менее энергозатратную альтернативу DRAM. Необходимые функции, по его словам, могут быть перенесены непосредственно на ПО СХД. Именно такой подход Pure реализует со своими проприетарными накопителями DFM (Direct Flash Module), последняя модификация которых имеет ёмкость 75 Тбайт. В этих устройствах отсутствует зависимость от DRAM на уровне накопителей.

Компания намерена выпустить DFM ёмкостью 150 Тбайт в 2025 году, а на 300 Тбайт — ориентировочно в 2026-м. В дальнейшие планы входит создание изделий вместимостью 600 Тбайт и 1,2 Пбайт. Аналогичного подхода придерживается и IBM в своих накопителях FlashCore Modules (FCM).

Постоянный URL: http://www.servernews.ru/1101830
16.03.2024 [21:46], Сергей Карасёв

Великобритания рассчитывает снизить стоимость ИИ-инфраструктур в 1000 раз

Агентство перспективных исследований и инноваций Великобритании (ARIA), по сообщению Datacenter Dynamics, инициировало проект стоимостью приблизительно $53,5 млн, целью которого является «переосмысление парадигмы вычислений». Учёные рассчитывают разработать новые технологии и архитектуры, которые позволят снизить стоимость ИИ-инфраструктур в 1000 раз по сравнению с сегодняшними системами.

Стремительный рост востребованности ИИ-приложений и НРС-решений приводит к резкому увеличению нагрузки на дата-центры. Это вынуждает операторов и гиперскейлеров закупать мощные дорогостоящие ускорители, которые оказываются в дефиците. Одновременно растут энергозатраты ЦОД. По оценкам, на дата-центры приходится до 1,5 % мирового потребления электроэнергии и 1 % глобальных выбросов CO2.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Компании по всему миру предпринимают различные меры по решению проблемы, включая внедрение СЖО и разработку принципиально новых сверхэффекттивных ИИ-чипов. Проект ARIA в данной сфере получил название Scaling Compute — AI at 1/1000th the cost, или «Масштабирование вычислений — ИИ за 1/1000 стоимости». Руководитель проекта Сурадж Брамхавар (Suraj Bramhavar) говорит, что на протяжении более чем 60 лет человечество «извлекало выгоду из экспоненциального увеличения вычислительной мощности при уменьшении затрат».

Но, по его словам, такой подход больше не соответствует современным реалиям — особенно в свете повсеместного внедрения ресурсоёмких приложений ИИ. Брамхавар говорит, что специализированные решения, используемые для обучения масштабных ИИ-моделей, невероятно дороги, что может иметь далеко идущие экономические, геополитические и социальные последствия. Например, генеральный директор OpenAI Сэм Альтман ранее заявлял, что обучение GPT-4 обошлось его компании более чем в $100 млн.

В рамках нового проекта ARIA будет оказывать финансовую поддержку научным коллективам и компаниям, разрабатывающим перспективные технологии, которые в дальнейшем помогут снизить стоимость ИИ-инфраструктур на порядки. Речь идёт о решениях, сочетающих высокое быстродействие, эффективность и простоту производства. «Природа предоставляет нам, по крайней мере, одно доказательство того, что фундаментально возможно выполнять сложную обработку информации с высокой эффективностью», — отмечает Брамхавар, имея в виду человеческий мозг.

Постоянный URL: http://www.servernews.ru/1101825
16.03.2024 [20:48], Сергей Карасёв

Firefly представила индустриальный модуль Core-3562JQ на платформе Rockchip с расширенными температурным диапазоном

Команда Firefly, по сообщению ресурса CNX-Software, подготовила к выпуску вычислительный модуль (SoM) Core-3562JQ на платформе Rockchip, предназначенный для построения индустриальных и коммерческих устройств. Это могут быть контроллеры, терминалы, оборудование для сферы здравоохранения и пр.

Применён процессор RK3562J, объединяющий четыре ядра Arm Cortex-A53 с частотой до 1,2 ГГц и графический ускоритель Arm Mali-G52 EE с поддержкой OpenGL ES 3.2, Vulkan 1.1, OpenCL 2.0. Блок VPU способен справляться с декодированием видео 4Kp30 H.364, H.264, VP9, а также кодированием материалов 1080p60 H.264.

 Источник изображения: Firefly

Источник изображения: Firefly

Объём оперативной памяти LPDDR4(x) может составлять 2, 4 и 8 Гбайт, вместимость флеш-модуля eMMC — 16, 32 и 64 Гбайт. Предусмотрены три 80-контактные колодки ВTВ (board-to-board). Поддерживаются видеовыходы LVDS (до 1280 × 800 точек; 60 Гц), MIPI-DSI (до 2048 × 1080 пикселей; 60 Гц) и RGB (до 2048 × 1080 точек; 60 Гц), а также входы 2 × MIPI CSI (4 линии) или 4 × MIPI CSI (2 линии) или 1 × MIPI CSI (4 линии) + 2 × MIPI CSI (2 линии).

Среди прочих интерфейсов упомянуты: S/PDIF, PDM, 2 × DAC (I2S/PCM), 100MbE и 1GbE, SDIO (Wi-Fi и Bluetooth; хранение), USB 3.0 OTG / PCIe 2.1 х1, 2 × USB 2.0, 5 × I2C, 10 × UART, 2 × CAN, 3 × SPI, 13 × ADC, 16 × PWM, 1 × SD/MMC.

Размеры составляют 60 × 36 мм, масса — 12 г. Диапазон рабочих температур простирается от -40 до +85 °C. Требуется питание 5 В, а энергопотребление не превышает 3 Вт. Разработчик подготовил образы Ubuntu, Debian и Linux Buildroot+Qt.

Постоянный URL: http://www.servernews.ru/1101836
16.03.2024 [20:37], Сергей Карасёв

Плата NVMe Base Duo позволяет наделить Raspberry Pi 5 двумя SSD формата М.2

Компания Pimoroni выпустила плату расширения NVMe Base Duo для мини-компьютера Raspberry Pi 5, дебютировавшего в сентябре 2023 года. Новый аксессуар поддерживает установку двух накопителей NVMe SSD, благодаря чему можно построить компактный файловый сервер, мультимедийный центр, обратный прокси-сервер и пр.

NVMe Base Duo содержит два коннектора для SSD формата М.2 2230/2242/2260/2280 с интерфейсом PCIe. Для подключения платы расширения к Raspberry Pi 5 служит гибкий кабель PCIe Flex, который входит в комплект поставки наряду с необходимыми крепёжными элементами и прорезиненными ножками.

 Источник изображений: Pimoroni

Источник изображений: Pimoroni

Говорится о совместимости с широким списком накопителей различных производителей, включая такие изделия, как ADATA Legend 700/800, XPG SX8200 Pro, Crucial P2/Р3, Kingston KC3000, Kioxia Exceria NVMe и Kioxia Exceria G2 NVMe, Lexar NM620/NM710, Netac NV2000/NV3000, PNY CS1030, Sabrent Rocket 4.0 и Sabrent Rocket Nano, Samsung 980/Samsung 980 Pro и Western Digital Black SN750 SE. Могут применяться решения вместимостью 250 Гбайт, 500 Гбайт и более.

Обмен данными осуществляется посредством PCIe 2.0 x1. Как утверждает Pimoroni, общая пропускная способность составляет около 450 Мбайт/с, или немногим более 220 Мбайт/с на каждый из двух SSD в случае одновременного доступа. Плату NVMe Base Duo можно закрепить над или под Raspberry Pi 5.

Стоимость аксессуара составляет £30 (приблизительно $38). За £92 (около $117) можно прибрести комплект с двумя накопителями М.2 ёмкостью 250 Гбайт каждый, а набор с парой SSD на 500 Гбайт обойдётся в £116 (≈$148).

Постоянный URL: http://www.servernews.ru/1101822
15.03.2024 [23:27], Сергей Карасёв

Миссии NASA задерживаются из-за устаревших и перегруженных суперкомпьютеров

HPC-инфраструктура NASA нуждается в серьёзной модернизации, поскольку в текущем виде не в состоянии удовлетворить потребности организаций в составе национального управления по аэронавтике и исследованию космического пространства США. К такому выводу, как сообщает The Register, пришло в ходе аудита Управление генерального инспектора.

Отмечается, что НРС-инфраструктура NASA морально устарела и не в состоянии эффективно поддерживать современные рабочие нагрузки. Например, в Центре передовых суперкомпьютеров NASA задействованы 18 тыс. CPU и только 48 ускорителей на базе GPU.

 Источник изображения: NASA

Источник изображения: NASA

Кроме того, текущих вычислительных мощностей не хватает для всех потребителей. Поэтому некоторые отделы и научные центры NASA вынуждены закупать собственное оборудование и формировать локальную НРС-инфраструктуру. В частности, одна только команда Space Launch System ежегодно тратит на эти цели $250 тыс. вместо того, чтобы подключаться к централизованной системе. Фактически каждое структурное подразделение NASA, за исключением Центра космических полетов Годдарда и Космического центра Стенниса, имеет собственную независимую вычислительную инфраструктуру.

Ещё одной причиной развёртывания локальных мощностей является путаница вокруг облачных ресурсов и политики NASA, из-за которой возникают сложности с планированием и оценкой финансовых затрат. Аудит также показал, что есть вопросы к безопасности суперкомпьютерного парка NASA. Например, нет должного мониторинга некоторых систем, доступ к которым имеют иностранные пользователи.

В целом, наблюдающаяся картина приводит к задержкам в реализации космических миссий и дополнительным расходам. Для устранения недостатков руководству NASA рекомендовано провести комплексную реформу НРС-сектора, включающую инвентаризацию активов, выявление технологических пробелов и киберрисков. Необходимо также разработать стратегию по улучшению распределения имеющихся вычислительных мощностей.

Постоянный URL: http://www.servernews.ru/1101790
Система Orphus