Материалы по тегу: сжо

24.06.2020 [17:42], Алексей Степин

Новые HPC-решения РСК на ISC 2020: узлы Tornado, универсальная СЖО и SDS Lustre

Компания, а вернее, группа компаний РСК (RSC) — ведущий российский производитель суперкомпьютерных систем, чьи решения активно используются в борьбе с COVID-19. К примеру, не столь давно кластер суперкомпьютерного центра Российской академии наук «МВС-10П ОП» был модернизирован и получил новые вычислительные узлы на базе Xeon Scalable второго поколения.

Мимо такого мероприятия, как конференция ISC High Performance 2020 столь серьезный производитель пройти не мог и приурочил к проходящему ныне мероприятию анонс своих новых решений — как аппаратных модулей для создания систем класса HPC, так и программных новинок.

Разработкой и созданием суперкомпьютеров РСК занимается давно и присутствует на рынке с 2009 года, на её счету ряд инновационных решений. Плотность вычислений продолжает расти, растут потребляемые мощности, и отвечая на требования рынка, РСК уделяет самое пристальное внимание вопросам энергоэффективности, надёжности и простоты управления.

В рамках программно-определяемой платформы нового поколения компания представила на ISC 2020 свои новые разработки: вычислительные и гиперконвергентные узлы RSC Tornado, новые системы питания и программный комплекс RSC BasIS.

Компания экспериментировала с такой экзотикой, как процессоры Intel Xeon 9200, являющиеся, по сути, двумя Xeon 8200 под одной крышкой. Они были показаны на прошлой конференции SC19. Эта разработка Intel весьма специфична, так что современные вычислительные модули RSC Tornado Compute Node базируются на хорошо зарекомендовавших себя процессорах Xeon Scalable второго поколения с теплопакетами до 205 Ватт. Это либо серия Xeon Platinum 8200, либо Gold 6200; о более интересных Xeon Scalable третьего поколения (Cooper Lake) речи пока не идёт — они были представлены Intel совсем недавно.

Каждый модуль оснащается двумя процессорами, четырьмя планками Optane DCPMM общим объёмом до 2 Тбайт, двумя накопителями NVMe на базе Optane, а также двумя более медленными NVMe-накопителями Intel P4511 E1.S объёмом 4 Тбайт. «Малая» сетевая подсистема представлена двумя портами 10GbE, «большая» — портом Intel OmniPath 100 Гбит/с, InfiniBand EDR/HDR, либо портом 100GbE на усмотрение заказчика. Габариты модуля хорошо видны на слайде, где для сравнения размещён обычный карандаш.

В системе 100% жидкостного охлаждения как и прежде используется «горячий теплоноситель», это позволяет достичь высокой энергоэффективности — коэффициент PUE для новых модулей RSC Tornado не превышает 1,04. Вычислительная стойка с новыми модулями развивает до 0,7 Пфлопс, располагая 2,4 Пбайт пространства для хранения данных и скоростью их передачи в районе 2 Тбайт/с.

Гиперконвергентные модули RSC Tornado Hyper-Converged Node выполнены в том же стиле, но оптимизированы с учётом максимизации объёмов хранения данных. Благодаря использованию «линеечных» SSD каждый такой модуль может вмещать до 24 Тбайт в 12 NVMe-накопителях E1.S с «горячей заменой». Доступна поддержка Intel Memory Drive Technology (IMDT) с памятью ёмкостью до 4,2 Тбайт.

В качестве процессоров здесь также используются Xeon Scalable второго поколения. Сетевая часть даже более гибкая, нежели у вышеописанных вычислительных модулей: высокоскоростных интерфейсов Omni-Path, InfiniBand или Ethernet может быть два. RSC Tornado Hyper-Converged Node дают до 0,345 Пфлопс на стойку, но при этом объём хранимых данных достигает 3,6 Пбайт при скоростях передачи данных до 1,5 Тбайт/с.

В рамках единой системы охлаждаются гиперконвергентные модули так же, как и их чисто вычислительные собратья, и эффективность такого охлаждения столь же высока. Конструкция унифицированной вычислительной 42U-стойки с единой системой жидкостного охлаждения, занимающей всего 0,64 м2, позволяет установить любые узлы РСК количеством до 153 шт. Блоки питания выполнены в том же форм-факторе, что и остальные узлы.

Даже 3,6 Пбайт на стойку может оказаться мало, и на этот случай РСК представила новые модули хранения данных. В них устанавливается до 32 накопителей Intel E1.L в формате EDSFF, поэтому легко достигаются объёмы порядка 1 Пбайт на узел. В пересчёте на стойку это дает до 42 Пбайт, производительность таких «дисковых модулей» может достигать 0,8 Тбайт/с. Для ускорения работы используются модули Intel Optane DCPMM.

РСК активно продвигает использование жидкостного охлаждения. Наряду с «горячим теплоносителем» в новых модульных системах компания впервые предлагает готовые модули модернизации для стандартных серверов, что позволяет их перевести на использование жидких теплоносителей. Новые водоблоки полностью совместимы с существующими креплениями и легко заменяют воздушные радиаторы.

Каждый водоблок РСК может отвести до 400 Ватт тепла. Системы жидкостного охлаждения разработки РСК позволяют удалить за пределы сервера до 70% всего выделяемого тепла, что даёт возможность отключить системные вентиляторы и снизить за счёт этого энергопотребление. Надёжность гарантирует и тот факт, что теплоносители, применяемые РСК в этих системах, электрически инертны и в случае утечки не повредят оборудование.

Комплекс охлаждения РСК состоит из водоблоков, модуля распределения теплоносителя (крепится к стандартной стойке), насосного модуля. На входе стойка потребляет жидкость с температурой от 45 до 55 градусов Цельсия, на выход идёт среда с температурой 55 градусов. Теплообменник в насосном блоке передаёт тепло (50 градусов) на внешний контур кондиционирования. На вход же от внешнего контура приходит носитель с температурой в районе 23 ‒ 45 градусов.

По сравнению с традиционными воздушными комплексами охлаждения говорится о снижении стоимости эксплуатации на величину до 70%. За счёт уменьшения количества вентиляторов в серверах и кондиционерах обеспечивается дополнительная экономия электроэнергии, а пространство в ЦОД используется более эффективно: там, где раньше можно было рассеивать до 12 киловатт тепла, теперь рассеивается до 50 кВт. Кроме того, имеется возможность использования выделяемого тепла для других целей, например, для отопления соседних помещений.

О непревзойденной эффективности речи не идёт, но 50 кВт на стойку — это выше, нежели у аналогичных открытых решений (36 кВт на стойку) или решений, используемых Большой Семёркой облачных провайдеров. Погружные системы и системы прямого контакта могут давать от 150 до 400 кВт на стойку, но либо стоят существенно дороже и требуют специального оборудования, либо гораздо сложнее в эксплуатации и обслуживании при сравнимом показателе PUE.

С совместимостью у новых систем распределения теплоносителя РСК всё хорошо: они могут работать как с водоблоками собственной разработки, так и с решениями Asetek и CoolIT, а также с любыми стоечными серверами стандартной конфигурации.

В программной части группа РСК представила новый программно-определяемый комплекс BasIS. Он может работать как на платформах самой РСК, так и на любом стандартном аппаратном обеспечении. Большое внимание уделено как эффективности нового ПО, так и удобству и простоте управления. Система BasIS легко масштабируется по мере наращивания количества вычислительных узлов.

Пространство для хранения данных пользователя выделяется динамически, в режиме «storage on demand». Основой является широко распространённая в мире высокопроизводительных вычислений открытая распределённая файловая система Lustre, впервые представленная ещё в 2003 году. «Lustre on demand» используется, например, в суперкомпьютере РСК, установленном в Объединённом институте ядерных исследований в Дубне.

Можно сказать, что группа РСК очень хорошо понимает требования к HPC-системам сегодняшнего дня и предлагает современные, универсальные и качественно спроектированные решения, как в аппаратной, так и в программной части.

Постоянный URL: http://servernews.ru/1014165
28.05.2020 [13:37], Владимир Мироненко

Плавучий ЦОД Nautilus стал ближе к реальности: получен $100 млн кредит от Orion Energy Partners

Компания Nautilus Data Technologies, специализирующаяся на строительстве плавающих ЦОД, получила кредит от инвестиционной компании Orion Energy Partners для завершения текущих проектов, включая дата-центр мощностью 6 МВт на барже, находящийся в порту Стоктон (штат Калифорния).

Nautilus планирует строить ЦОД на баржах, пришвартованных в порту и охлаждаемых водой. Кредитная линия в размере $100 млн позволит покрыть расходы на завершение проектов.

В частности, компания намерена завершить строительство ЦОД в Стоктоне и запустить его в конце 2020 года. В ЦОД на барже будет установлена фирменная система охлаждения компании с теплообменниками, которая использует воду, окружающую объект. Nautilus утверждает, что её метод охлаждения позволяет в пять раз увеличить удельную мощность на стойку и при этом ЦОД будет менее требователен к ресурсам, чем дата-центры конкурентов.

Это самый крупный кредит, который был предоставлен Nautilus. Гендиректор компании Джеймс Л. Коннотон (James L. Connaughton) сообщил: «Orion Energy предоставляет Nautilus капитал на приемлемых условиях для завершения ввода в эксплуатацию нашего центра обработки данных Stockton I, стратегически расположенного в Северной Калифорнии в порту Стоктон».

В свою очередь, Геррит Николас (Gerrit Nicholas), управляющий партнёр Orion Energy, выразил мнение, что «Nautilus имеет все возможности для того, чтобы установить стандарт для предоставления своим клиентам природосберегающих и надёжных сервисов ЦОД».

С момента основания в 2015 году Nautilus разрабатывает ЦОД на баржах в США и Ирландии. Идея строительства ЦОД на водоёмах была встречена критикой. В прошлом году ирландский дата-центр компании в Лимерике стоимостью 35 млн евро наконец получил «зелёный свет» на эксплуатацию после того, как в 2019 году была отклонена жалоба группы компаний-клиентов порта Лимерик. Ожидается, что дата-центр будет запущен в следующем году и станет первым коммерческим ЦОД на воде.

Постоянный URL: http://servernews.ru/1012050
19.05.2020 [01:19], Алексей Степин

Asperitas пересматривает подход к погружному охлаждению и осваивает европейские ЦОД

Жидкостное охлаждение давно не является чем-то новым для дата-центров, хотя и массовым его назваться нельзя. В данной сфере конкурируют между собой две концепции: «классическая» и погружная. Компания Asperitas, дебютировавшая на ISC 2017 с необычной системой охлаждения с неким вазелиновым маслом в качестве теплоносителя, считает, что за погружной конструкцией будущее.

Теперь компания предлагает новые, доступные решения для ЦОД высокой плотности.

В анонсе, опубликованном Asperitas, говорится, что индустрия претерпевает существенные изменения: новые поколения процессоров и ускорителей генерируют всё больше тепла и потребляют всё больше энергии, затрачиваемой и на охлаждение. На первое место выходят вопросы стоимости и энергетической эффективности.

Новая погружная система Asperitas Immersed Computing должна обеспечить снижение стоимости установки и эксплуатации на величину от 30% до 45%. При этом она на 80% компактнее систем аналогичной мощности и потребляет вдвое меньше энергии. К тому же она обеспечивает до 99% повторного использования выделенного серверами тепла, поскольку даёт на выходе пригодную для ряда целей горячую воду с температурой 55 градусов Цельсия.

В новой серии Immersed Computing представлено две разновидности СЖО ёмкостью 450 и 550 литров — для серверов шириной 15″ (AIC24-15) и 21″ (AIC24-21) соответственно. Новинки рассчитаны на установку 24 1U-серверов, что и отражено в номере модели.

В данных системах охлаждения Asperitas обеспечена повышенная надёжность за счёт отказа от каких-либо насосов — циркуляция жидкости в погружной ванне обеспечивается естественной конвекцией теплоносителя. Такая система практически не требует серьёзного техобслуживания, но при этом является модульной и легкорасширяемой.

Asperitas считает себя лидером погружного охлаждения для платформ Open Compute Project (OCP) и её системы изначально спроектированы с учётом распространённых стандартов, принятых OEM-производителями и системными интеграторами.

Конструкция типового сервера в новых системах очень проста — в шасси нет каких-либо активных элементов и предусмотрены окна для циркуляции теплоносителя. Asperitas Immersed Computing, по сути, состоит из ванны с жидкостью-теплоносителем, креплений для серверов, самих серверов и системы мониторинга. Благодаря своей компактности, новые комплексы Asperitas отлично подходят для небольших ЦОД и мест первичной обработки данных.

18 мая Asperitas заключила соглашение с maincubes, европейским оператором ЦОД. Компании планируют предлагать клиентам maincubes размещение вычислительных мощностей в дата-центре Amsterdam AMS01, охлаждать которые будут новые погружные комплексы Asperitas. Данный ЦОД известен тем, что в нём располагается важная европейская часть проекта OCP, Open Compute Project Experience Center.

Клиентам AMS01, таким как коммерческие компании, провайдеры облачных услуг и телеком-операторы, будет предложен полный комплект услуг на базе новой технологии охлаждения Asperitas. Как отмечено в анонсе, данная разработка особенно хорошо подходит для сценариев с высокоплотным размещением вычислительных мощностей.

В отличие от большинства погружных систем, использующих высокомолекулярные теплоносители 3M, Asperitas применяет разработанную совместно с Shell жидкость Immersion Cooling Fluid S5 X. Новый теплоноситель был создан с учётом повышенной плотности компонентов и наряду с хорошими термодинамическими характеристиками характеризуется великолепной текучестью. Этими технологиями заинтересовалась также Dell Technologies, недавно объявившая о начале ОЕМ-партнерства с Asperitas.

Постоянный URL: http://servernews.ru/1011245
01.04.2020 [22:58], Владимир Мироненко

Google держит в секрете расход воды на охлаждение ЦОД, и этому есть причина

Компания Google, входящая в холдинг Alphabet Inc., стремится расширить сеть ЦОД, чтобы обеспечить потребности в онлайн-поиске, веб-рекламе и облачных сервисах. В течение многих лет компания хвасталась, что эти огромные дата-центры являются энергоэффективными и экологически чистыми. Но за это приходится платить высокую цену, которую Google пытается сохранить в тайне.

Эти объекты используют миллионы кубометров воды — иногда в засушливых районах, которые пытаются сберечь её ограниченные запасы.

«Центры обработки данных разворачиваются и строятся повсюду. ЦОД должны быть построены таким образом, чтобы гарантировать, что они не забирают критически важные ресурсы у жителей, испытывающих дефицит воды», — заявил Гари Кук, директор по глобальным климатическим кампаниям в группе по защите окружающей среды Stand.earth.

Google считает, что использование воды является коммерческой тайной, скрывая информацию об этом даже от органов власти. Но в ходе её юридических баталий с местными коммунальными службами и группами охраны природы иногда просачивается некоторая информация об этом.

По данным Bloomberg, только в 2019 году Google понадобилось более 2,3 млрд галлонов (8,7 млн куб. м) воды для своих ЦОД в трёх штатах, согласно общедоступным записям, опубликованным в Интернете, и юридическим документам. Сейчас у Google имеется 21 ЦОД в США. После вложения $13 млрд в строительство офисов и ЦОД в 2019 году, компания планирует инвестировать ещё $10 млрд в дальнейшее развёртывание дата-центров. Так что потребность Google в воде для охлаждения ЦОД будет расти и дальше.

В частности, Google запросила у администрации Ред-Оука (штат Техас) до 1,46 млрд галлонов воды (5,5 млн куб. м) в год для нового ЦОД к 2021 году, согласно юридической заявке. Округ Эллис, который включает в себя Ред-Оук и около 20 других городов, в этом году будет нуждаться в почти 15 миллиардах галлонов для всех нужд, от ирригации до бытового использования, согласно данным Texas Water Development Board.

Города, испытывающие дефицит воды, вынуждены идти на компромисс между поддержанием жизнедеятельности и экономическим развитием, и владеющая крупными финансовыми ресурсами Google этим пользуется. В последние годы Google уделяет больше внимания использованию воды в своих испарительных охладителях для ЦОД, полагаясь на оборотную или морскую воду там, где удаётся избежать использования питьевой воды. Хотя это не всегда и не везде возможно.

Постоянный URL: http://servernews.ru/1007327
26.02.2020 [16:37], Алексей Степин

Серверная СЖО ZutaCore способна отвести 900+ Ватт тепла

Современные серверные процессоры обладают высоким уровнем тепловыделения — так, AMD EPYC 7H12 имеет теплопакет 280 Ватт, у Xeon 9200 он ещё выше и достигает 400 Ватт. Охлаждение столь горячих чипов является непростой задачей, особенно в условиях повышения плотности размещения компонентов.

Альянс компаний Rittal и ZutaCore создан именно с целью решения этой проблемы. Эти разработчики предлагают уникальную двухфазную жидкостную систему охлаждения, пригодную для использования совместно с чипами с теплопакетом 900 Ватт и более.

В отличие от традиционных СЖО, разработка ZutaCore под названием HyperCool2 представляет собой испарительную систему прямого контакта. В качестве теплоносителя используется жидкость 3M Novec 7000. Она имеет температуру кипения всего 34 градуса при стандартном давлении и обладает свойствами диэлектрика, то есть безопасна для электронных компонентов. Это гарантирует отсутствие проблем в случае утечки теплоносителя.

В первом контуре используется только этот теплоноситель, второй контур может быть водяным или воздушным, в зависимости от требований заказчика.

Как считают аналитики, рынок жидкостного охлаждения ЦОД и серверных весьма перспективен. Если в прошлом году его объём составил $1,9 миллиарда, то к 2024 году эта цифра обещает вырасти до $3,2 миллиардов. Это неудивительно, особенно ввиду того, что разработчики различных процессоров и сопроцессоров представляют всё более мощные чипы, а упаковка мощностей в ЦОД становится всё более плотной. На этом фоне появление новых интересных решений вполне закономерно — к примеру, можно вспомнить весьма любопытную систему Chilldyne Cool-Flo с «отрицательным давлением».

Что касается Rittal и ZutaCore, то союзники планируют представить решения с новой СЖО на мероприятии 2020 OCP Global Summit, которое пройдёт с 4 по 5 марта в Сан-Хосе.

Постоянный URL: http://servernews.ru/1004614
17.01.2020 [22:12], Геннадий Детинич

Asetek начнёт продавать «мусорное» тепло от ЦОД городской теплосети Ольборга

Датская компания Asetek, известный производитель СЖО для ПК, серверов и ЦОД, помимо всего прочего занимается и проблемами утилизации «мусорного» тепла при охлаждении ЦОД.

Вскоре Asetek начнёт эксперимент по продаже излишков тепла централизованной теплосети города в Дании, что, как утверждается, станет первым в мире доступным решением подобного рода.

На этой неделе компания Asetek сообщила, что с 3 февраля она начнёт продавать тепло городской теплосети города Ольборга. Теплоноситель будет подаваться с небольшого центра по обработке данных, принадлежащего Asetek. Необычность проекта заключается в том, что компания реализовала его без необходимости использования дорогостоящих тепловых насосов.

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Например, похожий проект компании Facebook потребовал 135 млн крон инвестиций (около $20 млн) на закупку тепловых насосов для нагрева воды от ЦОД Facebook в городе Оденсе для нагрева отработанной воды с 25–30 °C до 60 °C, необходимых для подачи в городскую теплосеть. Такой подход сложно назвать доступным. ЦОД Яндекса в городе Мянтсяля (Финляндия) также использует станции донагрева воды перед отдачей во внешнюю сеть. 

Небольшой ЦОД Asetek в Ольборге сразу будет подавать разогретый до примерно 60 °C носитель прямо в теплосеть города. Также для соединения магистрали теплоотвода ЦОД и теплоцентрали города не потребовалось сложных строительно-монтажных работ: только неглубокая траншея и теплоизолированные трубы.

Протстые работы по подключению к городской теплоцентрали (Asetek)

Простые работы по подключению к городской теплоцентрали (Asetek)

По уверениям Asetek, данный проект готов к переносу на более мощные ЦОД. Для Дании это больное место. Эта страна находится на переднем крае борьбы с углеродным следом, но массовое возведение ЦОД на её территории крупнейшими мировыми ИТ-гигантами портит всю картину. К 2030 году прогнозируется, что 17 % электроэнергии в Дании будут потреблять центры по обработке данных. Утилизировать выработанное этими ЦОД тепло стало вызовом для правительства этой страны.

По подсчётам Asetek, разработанная компанией система прямой передачи тепла от ЦОД в городские теплосети позволит на 25 % снизить потребление энергии и будет на 70–80 % использовать выработанное ЦОД тепло. Если кто-то думает, что это лишнее, достаточно сказать, что углеродный след от ЦОД уже превышает углеродный след от авиаперевозок во всём мире. Отдельный привет девочке-экоактивистке, которая не летает самолётами, но использует Facebook и Инстаграм.

Постоянный URL: http://servernews.ru/1001701
15.01.2020 [11:44], Алексей Степин

GIGABYTE и Incooling разработают серверы с СЖО на основе фазового перехода

Вычислительная плотность в ЦОД растёт и продолжит расти в обозримом будущем. Вместе с ней растёт и уровень тепловыделения. Производители серверов и разработчики ЦОД всё чаще приходят к выводу о необходимости использования более эффективных методов охлаждения.

Одним из наиболее доступных является переход на использование жидкостного охлаждения. В этой сфере решил попробовать себя известный производитель аппаратных компонентов, компания GIGABYTE.

Источник вдохновения нового проекта: трековые детекторы LHC с фазовой системой охлаждения

Источник вдохновения нового проекта: трековые детекторы LHC с фазовой системой охлаждения

GIGABYTE объявила о начале сотрудничества с разработчиком и производителем технологий жидкостного охлаждения, компанией Incooling. Целью совместной деятельности является разработка нового класса двухфазных серверных систем жидкостного охлаждения. В качестве тестовой платформы будет использоваться GIGABYTE R161, допускающая разгон процессоров. Эти платформы используются там, где на счету каждый мегагерц, например, в системах высокочастотной торговли.

Принцип действия разработки Incooling

Принцип действия разработки Incooling

Технология, предлагаемая Incooling, позволяет снизить температуру комплектующих до существенно более низкой отметки, нежели та, на которой находится температура воздуха в помещении ЦОД. Достигается это с помощью системы охлаждения, основанной на эффекте фазового перехода.

Такая система чем-то напоминает обычный современный компрессорный холодильник: в испарительных камерах, установленных на процессорах, происходит фазовый переход нагнетаемого туда хладагента, после чего получившаяся газово-жидкостная смесь отдаёт тепло в конденсаторе.

GIGABYTE уже использовала эффект перехода фазы в погружной системе, продемонстрированной на SC19

GIGABYTE уже использовала эффект перехода фазы в погружной системе, продемонстрированной на SC19

Уже первые предварительные тесты показали на 20 градусов более низкую температуру на процессоре, а тактовую частоту удалось поднять на дополнительные 10%. Совместные исследования GIGABYTE и Incooling должны обеспечить расширение этих лимитов, а также привести к созданию аналогичных систем для других серверов GIGABYTE: H-Series и G-Series. Интересно, что источником вдохновения для Incooling послужила фазовая система охлаждения 2-PACL на основе сжиженного углекислого газа. Она использовалась для охлаждения трековых детекторов Большого Адронного Коллайдера.

Постоянный URL: http://servernews.ru/1001435
17.12.2019 [15:51], Алексей Степин

Nortek и Facebook ввели в строй первый комплекс мембранных СЖО для ЦОД StatePoint

Компания Nortek Air Solutions объявила о вводе в строй первого комплекса жидкостного охлаждения StatePoint (SPLC), разработанного в сотрудничестве с Facebook.

Работы над технологией SPLC начались ещё в 2015 году. Перым ЦОД, где была установлена новая система, стал центр Facebook, расположенный в Оклахома-сити.

Facebook гордится энергоэффективностью своих ЦОД и тем, что они используют минимальное количество ценных природных ресурсов. Как правило, компания применяет для охлаждения своих систем наружный воздух и системы прямого испарения. Но в ряде случаев, а Оклахома-сити относится именно к таким ним, приходится искать другие способы для того, чтобы изолировать ценное оборудование от неприемлемых условий окружающей среды: пыли, чрезмерной влажности и других факторов.

Мембранная технология в теплообменниках SPLC предотвращает загрязнение воды

Мембранная технология в теплообменниках SPLC предотвращает загрязнение воды

В основе системы SPLC лежит новое поколение жидкостно-воздушных теплообменников на базе микропористых гидрофобных мембран — наружный воздух охлаждает воду при её испарении. За счёт наличия специальных разделительных мембран загрязнения воды не происходит; кроме того, материал мембран устойчив к образованию известкового налёта.

Новый наружный теплообменник SPLC

Новый наружный кондиционер SPLC. Синим цветом обозначен теплообменник

Охлаждённая вода затем используется во внутренних воздушных кондиционерах ЦОД. Такой подход минимизирует расход чистой воды. Система способна работать в нескольких режимах, включая режим супер-испарения в жаркую и влажную погоду, при котором наружный воздух перед подачей в теплообменники охлаждается дополнительно.

Так работает система SPLC. Расход чистой воды минимален

Так работает система SPLC. Расход чистой воды минимален

ЦОД Facebook в Оклахома-сити — первая ласточка для Nortek Air Solutions. Проект был закончен благодаря $15 миллионам, полученным от FB в качестве инвестиции в развитие технологии SPLC. Новая система охлаждения будет развёртываться и в других центрах данных компании. Кроме того, патент на SPLC принадлежит Nortek, а значит, использовать данную технологию теоретически смогут и другие владельцы крупных ЦОД.

Постоянный URL: http://servernews.ru/999907
10.12.2019 [16:44], Алексей Степин

Schneider Electric, Avnet и Iceotope выпустили новую систему с гибридным жидкостным охлаждением

Компания Schneider Electric заключила союз с Avnet и Iceotope с целью разработки систем для рынка машинного обучения, использующих жидкостное охлаждение. На конференции Gartner IT они анонсируют уже готовое решение, способное вместить 14 серверов с ускорителями ИИ.

Новый комплекс весьма интересен с технической точки зрения: он использует гибридный подход к охлаждению, но за словом «гибридный» в данном случае кроется не «водо-воздушный», как обычно. Речь идёт о совмещении классических систем жидкостного охлаждения с замкнутым контуром и погружных (immersive).

Поддон с установленным сервером

Поддон с установленным сервером

Каждый вычислительный сервер в шасси высотой 1U размещается в специальном герметичном поддоне Iceotope. По сути, он наполовину погружён в охлаждающую жидкость, хотя имеется и принудительная подача теплоносителя к водоблокам центральных процессоров и модулям вычислительных ускорителей. Протечки за пределами поддона исключены.

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

К сожалению, анонс не очень информативен, но на приведённых снимках видно, что каждый гибридный модуль охлаждения с сервером внутри занимает 2U, а всего в стойку помещается 14 таких модулей. На передние панели модулей герметично выведены разъёмы Ethernet, USB и VGA. В верхней части расположена пара коммутаторов ‒ управляющий и главный сетевой.

Передняя часть поддона

Передняя часть поддона

Разработчики говорят о более высокой эффективности охлаждения и практически полной бесшумности, но конкретных цифр, к сожалению, пока не приводят.

Постоянный URL: http://servernews.ru/999446
17.11.2019 [19:22], Алексей Степин

Рост плотности вычислительных мощностей в ЦОД будет продолжаться

Исследовательская компания 451 Research опубликовала отчёт, в котором говорится, что плотность «упаковки» вычислительных мощностей в ЦОД активно растёт, и эта тенденция будет продолжаться.

До недавних пор показатель потребления энергии составлял в среднем 5 киловатт на стойку, однако, в последний год наблюдался активный рост, а 45% из 750 опрошенных компаний ожидают дальнейшего повышения этого показателя до 11 и более киловатт в течение следующего, 2020 года. 

В прошлом году лишь 18% опрошенных сообщили о мощностях свыше 10 киловатт на стойку, так что это очень серьёзный рост. Что вызывает такой рост плотности и потребляемых мощностей? Серьезная доля приходится на набирающие популярность приложения машинного интеллекта. Именно в этой сфере используются максимально сложные процессоры, упакованные в максимально компактный формат ‒ по нескольку огромных и имеющих солидное энергопотребление чипов в каждом серверном корпусе.

И это не только чипы-монстры, разработанные NVIDIA или AMD ‒ можно вспомнить анонс тензорного процессора Groq TSP с производительностью 1 Петаопс (PetaOPS, 1015 операций в секунду) или новые ИИ-ускорители Graphcore C2 с 1216 ядрами и огромным кристаллом.

Всё это создаёт ряд проблем, включая растущие требования к охлаждению серверных комнат, наполненных подобным оборудованием. Владельцы ЦОД активно ищут новые способы отвода огромного количества тепла и всё охотнее внедряют системы жидкостного охлаждения.

Пример стойки с ИИ-ускорителями Google, использующей жидкостное охлаждение

Пример стойки с ИИ-ускорителями Google, использующей жидкостное охлаждение

По мнению 451 Research, 2020 год должен стать годом активного внедрения такого охлаждения в крупных центрах обработки данных. Катализатором может послужить решение Google о переводе последнего поколения серверного аппаратного обеспечения компании на СЖО. Впрочем, некоторые гиганты, например, Microsoft, хотя и экспериментируют с жидкостными системами, но пока откладывают окончательное решение, а иные, как Facebook, считают, что у воздушного охлаждения ещё есть задел на будущее.

Постоянный URL: http://servernews.ru/997865
Система Orphus