Материалы по тегу: охлаждение

01.12.2021 [02:15], Алексей Степин

Перевод ЦОД Interxion MSR на охлаждение подземными водами позволит сэкономить 18,4 ГВт·ч в год

Компания Interxion, крупный оператор дата-центров, нашла необычный способ сэкономить более 18 ГВт·ч в год на охлаждение своего кампуса ЦОД во французском городе Марсель. Кампус MSR необычен сам по себе, поскольку размещён на бывшей базе подводных лодок времён Второй мировой войны. А недалеко от базы расположена выведенная из эксплуатации угольная шахта.

Воду из таких шахт обычно приходится откачивать, сбрасывая в близлежащие водоёмы. Но у Interxion нашлось для неё оригинальное применение. Вода по туннелю La Galerie de la Mer, построенному в период с 1885 по 1907 гг., направляется в дата-центры MRS2 и MRS3, где используется в контурах чиллеров. Поскольку её температура составляет 15 °C, этого вполне достаточно для охлаждения. Такой подход позволил компании добиться PUE на уровне 1,2.

Изображение: Interxion

Изображение: Interxion

На постройку новой системы охлаждения ушло 2,5 года. Она включает 550-мм трубу протяжённостью 3 км и 27 теплообменников. Впоследствии «мусорное» тепло будет направляться в местную сеть теплоснабжения. Аналогичные проекты есть и в других городах присутствия Interxion. Подобная система будет использоваться и в новом ЦОД MRS4, который должен вступить в строй во втором квартале следующего года.

Постоянный URL: http://servernews.ru/1054864
24.11.2021 [15:44], Руслан Авдеев

Korea Telecom и Korea Gas построят дата-центр, охлаждаемый с помощью сжиженного природного газа

Компании Korea Gas (Kogas) и KT (Korea Telecom) собираются построить дата-центр на заводе Kogas Incheon, занимающемся регазификацией сжиженного природного газа (СПГ). И это практически идеальное сочетание — дата-центр выделяет много тепла, а регазификация отбирает много тепла.

Заводы по регазификации СПГ предлагаются в качестве места размещения дата-центров не впервые. Весь сжиженный газ поступает на них в жидком виде, а при преобразовании его в летучее состояние поглощается немало тепла, в результате чего этот процесс можно использовать для охлаждения оборудования других компаний. Оптимальным вариантом являются дата-центры, поскольку обычно до половины их энергопотребления тратится на охлаждение.

Фото: Korea Gas

Фото: Korea Gas

В мае этого года меморандум о намерениях по строительству суперкомпьютера на острове с терминалом SLNG Terminal подписали сингапурские компании, но ввод системы в эксплуатацию в обозримом будущем не предвидится. В числе недостатков подобных проектов — отсутствие вблизи значимой сетевой инфраструктуры, поскольку такие заводы обычно строятся далеко от населённых пунктов. В частности, завод Kogas Incheon расположен на искусственном острове в 8 км от берега, а взрывоопасность предприятия может отпугнуть потенциальных клиентов ЦОД.

Фото: Korea Gas

Фото: Korea Gas

Стоит отметить, что Корея импортирует большие объёмы СПГ, а местная государственная монополия Kogas является крупнейшим импортёром природного газа в мире. В соответствии с новейшими планами Корея намерена уже к 2050 году стать «углеродно-нейтральной», причём один из вариантов развития предусматривает полный отказ от природного газа, тогда как другой допускает его использование для сохранения «гибкости при принятии политических и экономических решений».

В Kogas считают, что использование «мусорных» тепла и холода, генерируемых в качестве побочных продуктов работы завода, позволит снизить «углеродный след», образующийся в результате использования СПГ. По данным Korea Telecom, «холодная энергия» позволит сберечь порядка 12 МВт на обслуживании дата-центра. Компании уже подписали меморандум о взаимопонимании.

Постоянный URL: http://servernews.ru/1054408
14.11.2021 [21:11], Владимир Мироненко

LiquidStack и Microsoft продемонстрировали ИИ-серверы с двухфазным иммерсионным охлаждением

LiquidStack, дочернее предприятие BitFury, специализирующееся на разработке иммерсионных СЖО, и Microsoft продемонстрировали на OCP Global Summit стандартизированное решение с двухфазным погружным жидкостным охлаждением. Демо-серверы Wiwynn, разработанные в соответствии со спецификациями OCP Open Accelerator Infrastructure (OAI), были погружены в бак LiquidStack DataTank 4U, способный отводить порядка 3 кВт/1U (эквивалент 126 кВт на стойку).

LiquidStack сообщила, что она впервые оптимизировала серверы OCP OAI для охлаждения путем погружения в жидкость. По словам компании, её двухфазные иммерсионные СЖО DataTank предоставляют наиболее эффективное решение, которое требует немного пространства и потребляет меньше энергии, чем другие системы охлаждения, и вместе с тем повышает плотность размещения компонентов и их производительность.

Фото: LiquidStack

Фото: LiquidStack

В демо-серверах использовались ИИ-ускорители Intel Habana Gaudi, погружённые в жидкий диэлектрик (от 3M) с низкой температурой кипения, который наиболее эффективно отводит тепло благодаря фазовому переходу. Данное решение должно помочь достижению показателя PUE в пределах от 1,02 до 1,03, поскольку оно практически не потребляет энергию. LiquidStack утверждает, что у её СЖО эффективность теплоотвода примерно в 16 раз выше, чем у типичных систем воздушного охлаждения.

Фото: LiquidStack

Фото: LiquidStack

По мнению компании, системы высокопроизводительных вычислений (HPC) уже сейчас слишком энергоёмки, чтобы их можно было охлаждать воздухом. Поэтому следует использовать платы, специально предназначенные для жидкостного охлаждения, а не пытаться адаптировать те, что были созданы с расчётом на воздушные системы — при использовании СЖО вычислительная инфраструктура может занимать на 60% меньше места.

Изображение: Microsoft

Изображение: Microsoft

LiquidStack и Wiwynn являются партнёрами. В апреле Wiwynn инвестировала в LiquidStack $10 млн. Также Wiwynn протестировала серверы с погружным жидкостным охлаждением в центре обработки данных Microsoft Azure в Куинси (штат Вашингтон). Microsoft, как и другие гиперскейлеры, уже некоторое время изучает возможности иммерсионных СЖО.

Постоянный URL: http://servernews.ru/1053696
02.11.2021 [18:46], Владимир Мироненко

TACC представила суперкомпьютер Lonestar6: всего 3 Пфлопс, зато с иммерсионной СЖО GRC

Texas Advanced Computing Center (TACC) представила новый суперкомпьютер Lonestar6 с пиковой производительностью 3 Пфлопс, который предназначен для поддержки исследовательских работ в штате Техас (США). Его создание было частично профинансировано рядом университетов штата. Завершение ввода в эксплуатацию новой системы запланировано на эту осень.

Lonestar6 имеет 560 вычислительных узлов на базе 2U4N-серверов Dell EMC PowerEdge C6525. Каждый узел оснащён двумя CPU AMD EPYC 7763 (Milan), 256 Гбайт DDR4 и 288-Гбайт SSD. 16 GPU-узлов имеют те же процессоры и такой же объём памяти, но дополнительно оснащены двумя ускорителями NVIDIA A100 (40 Гбайт). В качестве интерконнекта используется Mellanox HDR Infiniband, а хранилище (тоже от Dell) на базе BeeGFS имеет ёмкость 8 Пбайт.

Источник изображения: TACC

Источник изображения: TACC

Lonestar6 обеспечивает около 3 Пфлопс пиковой вычислительной мощности. В системе используется гибридное охлаждение. Часть узлов полагается на воздушное охлаждение, часть использует иммерсионное (погружное) охлаждение от GRC (Green Revolution Cooling). Lonestar6 приходит на смену запущенной в 2016 году системе Lonestar5 на базе Cray XC40 с пиковой мощностью 1,2 Пфлопc.

Источник изображения: TACC

Источник изображения: TACC

Серия суперкомпьютеров Lonestar, появившаяся (вместе с TACC) в начале 2000-х годов, была создана специально для поддержки исследовательских работ в Техасе. TACC в настоящее время работает над вычислительным комплексом следующего поколения, который будет на порядок производительнее суперкомпьютера Frontera (23,5 Пфлопс). Однако этот объект будет введён в эксплуатацию не ранее 2025 года.

Постоянный URL: http://servernews.ru/1052770
22.10.2021 [20:03], Руслан Авдеев

Для обеспечения работы суперкомпьютера El Capitan потребуется 28 тыс. тонн воды и 35 МВт энергии

К моменту ввода в эксплуатацию в 2023 году суперкомпьютер El Capitan на базе AMD EPYC Zen4 и Radeon Instinct, как ожидается, будет иметь самую высокую в мире производительность — более 2 Эфлопс. А это означает, что ему потребуются гигантские мощности для питания и охлаждения. Ливерморская национальная лаборатория (LLNL), в которой и будет работать El Capitan, поделилась подробностями о масштабном проекте, призванном обеспечить HPC-центр необходимой инфраструктурой.

В основе плана модернизации лежит проект Exascale Computing Facility Modernization (ECFM) стоимостью около $100 млн. В его рамках будет обновлена уже существующая в LLNL инфраструктура. Для реализации проекта необходимо получить очень много разрешений от местных регуляторов и очень тесно взаимодействовать с местными поставщиками электроэнергии. Тем не менее, LLNL заявляет, что проект «почти готов», по некоторым оценкам — на 93%. Функционировать новая инфраструктура должна с мая 2022 года (с опережением графика).

Сам проект стартовал ещё в 2019 году и, согласно планам, должен быть полностью завершён в июле 2022 года. В его рамках модернизируют территорию центра, введённого в эксплуатацию в 2004 году, общей площадью около 1,4 га. Если раньше центр, в котором работали системы вроде лучшего для 2012 года суперкомпьютера Sequoia (ныне выведенного из эксплуатации), обеспечивал подачу до 45 МВт, то теперь инфраструктура рассчитана уже на 85 МВт.

Конечно, даже для El Capitan такие мощности будут избыточны — ожидается, что суперкомпьютер будет потреблять порядка 30-35 МВт. Однако LLNL заранее думает о «жизнеобеспечении» преемника El Capitan. Следующий суперкомпьютер планируется ввести в эксплуатацию до того, как его предшественник будет отключён в 2029 году. Кроме того, для новой системы потребуется установка нескольких 3000-тонных охладителей. Если раньше общая ёмкость системы охлаждения составляла 10 000 т воды, то теперь она вырастет до 28 000 т.

Постоянный URL: http://servernews.ru/1051952
27.08.2021 [19:06], Алексей Степин

«Молекулярные» радиаторы JouleForce позволят пустынным дата-центрам обойтись без кондиционеров и СЖО

Системы отвода тепла в современных ЦОД весьма сложны, и каждое звено может стать точкой отказа. Кроме того, они не всегда подходят для использования в периферийных системах. Компания Forced Physics DCT решает этот вопрос по-своему. Благодаря уникальным радиаторам JouleForce MicroConductor её решения Edgeility компактны и очень просты, но при этом обеспечивают высокую эффективность охлаждения.

Как правило, частью системы охлаждения любого ЦОД является система кондиционирования воздуха, а в случае использования жидкостных систем, к этому добавляются ещё и другие компоненты. Но разработка Forced Physics DCT обходится без этого — по сути, единственным компонентом с движущимися частями в ней выступает вентилятор для вытяжки нагретого воздуха, что делает Edgeility уникальным решением. При этом вентиляторы для самих серверов и шасси не требуются.

Радиаторы MicroConductor вдвое эффективнее обычных при одинаковом воздушном потоке

Радиаторы MicroConductor вдвое эффективнее обычных при одинаковом воздушном потоке

В JouleForce используется так называемый эффект «ускоренного молекулярного потока» (accelerated molecular beam) — для формирования потока теплосъёмники нового типа используют специальную систему тонких V-образных микроканалов. Разработчик гарантирует эффективность, превышающую показатели не только классических воздушных систем охлаждения, но и жидкостных. Показатель PUE (эффективность использования энергии) достигает 1,02.

Микро-ЦОД Edgeility включает 24-кВт стойку, заключённую в надёжный шкаф, в котором также установлены натрий-ионные батареи производства Natron, а в верхней части расположен обычный промышленный вытяжной вентилятор, который и создаёт воздушный поток, необходимый для правильной работы радиаторов JouleForce. Такая система может быть развёрнута практически в любых климатических условиях.

Первым заказчиком Edgeility стала компания Sun West Engineering, которая установила систему в аризонской пустыне. Температура воздуха в летние дни там превышает +40 °C, но Forced Physics DCT уверена в своей технологии, ведь всё, что нужно JouleForce — это поток отфильтрованного воздуха, создаваемый вытяжкой. А система рециркуляции воздуха позволяет использовать микро-ЦОД и в холодном климате.

Постоянный URL: http://servernews.ru/1047760
27.08.2021 [15:32], Сергей Карасёв

Intel и Submer разрабатывают иммерсионные СЖО для дата-центров

Корпорация Intel и компания Submer объявили о партнёрстве с целью разработки передовых систем погружного жидкостного охлаждения для центров обработки данных. Речь идёт о платформе под названием Precision Immersion Cooling Fluid Cloud, которую планируется использовать в серверных следующего поколения.

Иммерсионные СЖО открывают новые возможности по повышению энергетической эффективности дата-центров и увеличению плотности размещения оборудования. А это, в свою очередь, позволяет экономить огромные средства на оплате счетов за электричество и занимаемых площадях.

Submer

Submer

Платформа Precision Immersion Cooling Fluid Cloud предусматривает использование тепловой энергии, выделяемой серверным оборудованием, для других нужд. Она может использоваться, скажем, для отопления зданий или выработки электричества. Такой подход позволит монетизировать «мусорное» тепло. Теоретически корпоративные пользователи смогут свести затраты на охлаждение к нолю, что поможет добиться совершенно нового уровня финансовой эффективности.

Система Precision Immersion Cooling Fluid Cloud, как отмечается, обеспечит оптимальную температуру электронных компонентов. Платформа проектируется с прицелом на серверные платы, оснащённые процессорами Intel Xeon. Благодаря хорошей масштабируемости система сможет применяться в инфраструктурах разного уровня, включая облачные комплексы.

Постоянный URL: http://servernews.ru/1047740
19.08.2021 [22:47], Владимир Агапов

Facebook обещает к 2030 году добиться положительного водного баланса для своих дата-центров

Центры обработки данных (ЦОД) Facebook являются крупными потребителями воды, используемой в основном для охлаждения. В то же время ЦОД компании зачастую расположены в таких регионах, которые испытывают нехватку этого ресурса. Один только дата-центр Facebook в Альбукерке (Нью-Мексико, США) закупает более чем 0,5 млн м³ чистой воды в год, что вызывает опасения за свой бизнес у местных фермеров и других компаний.

Суммарное же потребление воды Facebook в 2020 г. составило 3,7 млн. м³. А после завершения первой фазы строительства нового кампуса дата-центров в Месе (Аризона, США) ожидается прирост ещё на 7728 м³ в сутки. И всё это происходит это на фоне призывов региональных властей сократить потребление воды фермерами из-за продолжительной засухи.

Директор по устойчивому водоснабжению Facebook, Сильвия Ли (Sylvia Lee), разъяснила позицию компании по этой проблеме: «Facebook всегда стремилась нести ответственность за использование водных ресурсов. У нас есть стратегия рационального использования водных ресурсов, которая фокусируется на повышении эффективности использования воды, инвестировании в критически важные проекты её восстановления в тех же зонах водосбора, что и наши объекты. Более того, мы обещаем к 2030 г. восстанавливать больше воды, чем потребляем». Аналогичное обещание по достижению положительного водного баланса ранее дала Microsoft.

Выполнить взятые на себя обязательства Facebook намерена начав с восстановления ресурсов в регионах, испытывающих сильную нехватку воды. В округе Берналилло (Нью-Мексико) компания выделяет деньги Фонду водных ресурсов Рио-Гранде на восстановление связи между ручьем Седро-Крик и его исторической поймой, что позволит восстановить почти 92921 м³ воды в год. Компания поставляет пресную воду в речные системы в засушливые сезоны, питьевую воду семьям племени навахо, а также помогает модернизировать ирригационную с/х-инфраструктуру, чтобы уменьшить количество воды, забираемой из источников, находящихся под угрозой.

В 2020г. осуществлённые Facebook проекты позволили восстановить около 2,7 млн м³ воды, а новые усилия должны довести этот показатель до 3,86 млн м³ в год. Для этого компания уже инвестировала в различные проекты в шести американских штатах, включая Нью-Мексико, Калифорнию и Юту, а в будущем эта инициатива будет расширена на Ирландию, Сингапур, Индию, Великобританию и Мексику. Также в Facebook разрабатывает новые технологии охлаждения ЦОД, позволяющие повысить эффективность использования воды на 80% «по сравнению с отраслевым стандартом».

Для аудита своего прогресса восстановления водных ресурсов Facebook наняла LimnoTech, консалтинговую компанию по вопросам устойчивого развития. Также Facebook будет информировать общественность о своих усилиях в ежегодных отчётах. Ранее в этом году компания объявила о том, что она достигла нулевого уровня выбросов углерода и теперь закупает 100% энергии из возобновляемых источников. К 2030 г. компания собирается достичь нулевого уровня выбросов во всей цепочке поставок.

Постоянный URL: http://servernews.ru/1047137
24.07.2021 [01:45], Владимир Мироненко

Остров невезения: ирландские дата-центры рискуют столкнуться с нехваткой электричества и воды

Компания Irish Water, занимающаяся вопросами водоснабжения в Ирландии, должна настаивать на том, чтобы существующие центры обработки данных получили более эффективные системы охлаждения, заявил Дункан Смит (Duncan Smith), официальный представитель лейбористкой партии по вопросам борьбы с изменением климата. Как сообщает газета Irish Independent, Смит отметил, что было бы несправедливо, если бы ЦОД работали бы как обычно, тогда как общественность сталкивается с ограничениями.

В некоторых частях графств Уэксфорд, Лаойс, Лонгфорд и Донегол уже действуют ограничения на потребление воды в ночное время, так как её запасы заканчиваются, а графства Керри, Голуэй и Корк были предупреждены, что эти меры могут распространиться и на них. Irish Water попросила жителей пострадавших районов не поливать сады, не мыть машины, не заполнять водой детские бассейны и не расходовать попусту большие объёмы воды.

Системы охлаждения центра обработки данных могут потреблять 500 000 л воды в день, и гораздо больше — в жаркую погоду. Irish Water обратилась к крупным потребителям с просьбой о помощи. «Мы активно взаимодействуем со всеми крупными водопользователями, не являющимися бытовыми, когда мы видим всплески спроса, чтобы понять, где можно сэкономить, и обеспечить бесперебойное водоснабжение для всех», — сообщила компания газете.

thecork.ie

thecork.ie

Следует отметить, что новые ЦОД в Ирландии строятся с использованием водосберегающих технологий, как, например, недавно одобренный властями проект по строительству объекта EnergyNode в графстве Мит. Его влияние на водоснабжение при нормальном использовании должно быть «незаметным», хотя может потребоваться до 1,3 млн л в сутки при температуре выше 25 °С. Смит заявил, что такое требование следует распространить и на существующие центры обработки данных.

Это происходит на фоне обсуждения возможного запрета или ограничения на постройку новых дата-центров в наиболее востребованных регионах Ирландии в связи с опасениями относительно способности энергосистемы выдержать возросшую нагрузку. IT-гиганты уже объединились для того, чтобы лоббировать отмену моратория.

Отметим, проблема с водоснабжением и водоотводом не является уникальной для Ирландии. Например, Microsoft согласилась построить установку для очистки сточных вод своих дата-центров в США, а в Нидерландах компания будет использовать для охлаждения нового ЦОД дождевую воду. Впрочем, встречается и другой подход — в прошлом году Google упрекнули в том, что компания скрывает расход воды даже от властей.

Постоянный URL: http://servernews.ru/1045061
23.07.2021 [01:20], Владимир Мироненко

Ku:l Extreme объединяет серверы HPE и гибридную СЖО Iceotope для периферийных вычислений в агрессивных средах

Iceotope Technologies объявила о заключении OEM-соглашения с Hewlett Packard Enterprise (HPE) с целью предложения решения Ku:l Extreme, включающего шасси с комбинированным жидкостным охлаждением и серверы HPE ProLiant. Решение подходит для установки как в корпоративных центрах обработки данных, так и на периферии, обеспечивая надёжность, производительность и эффективность и гарантируя при этом высокий уровень защиты, необходимый для агрессивных сред.

Ku:l Extreme представляет собой решение для микро-ЦОД с высокой степенью защиты, предназначенных для обеспечения вычислений корпоративного уровня в экстремальных периферийных средах. Ku:l Extreme позиционируется как революционное решение, сверхэффективное и масштабируемое. Оно обеспечивает автоматизированную работу с расширенным внешним управлением (Out of Band Management, OOBM), предлагая полный удалённый контроль над всей системой.

Ku:l Extreme

Ku:l Extreme

«Это OEM-соглашение с HPE обеспечивает доступ к наиболее эффективному и действенному решению для поддержки серверов в оптимальной среде для надежных ИТ-услуг», — отметил гендиректор Iceotope Technologies Дэвид Крейг (David Craig). Ранее компания предложила решения на базе серверов Lenovo. А сама система Ku:l стала результатом работы стратегического альянса между Iceotope, Schneider Electric и Avnet, который был сформирован в 2019 году.

Благодаря совместимости с RedFish и решению EcoStruxure от Schneider Electric, удалённый мониторинг и управление выводятся на новый уровень, позволяя задействовать предиктивную аналитику для оптимизации производительности при минимальных рисках. Решение Iceotope для прецизионного иммерсионного охлаждения на уровне шасси надёжно и эффективно отводит тепло от всех частей системы. Прецизионная подача диэлектрической охлаждающей жидкости снимает конструктивные ограничения, обеспечивая максимальное охлаждение непосредственно в местах с высоким тепловыделением.

Постоянный URL: http://servernews.ru/1044959
Система Orphus