Материалы по тегу: hardware

25.05.2022 [18:51], Владимир Мироненко

AWS объявила о доступности инстансов на процессорах Graviton3

Amazon Web Services (AWS) объявила о доступности инстансов следующего поколения Amazon Elastic Compute Cloud (Amazon EC2) C7g, оптимизированных для вычислений с использованием Arm-процессоров Graviton3 собственной разработки компании.

Процессоры AWS Graviton3 обеспечивают до 25 % более высокую вычислительную производительность в ресурсоёмких приложениях по сравнению с процессорами AWS Graviton2 в составе инстансов C6g. Благодаря этому клиенты могут более эффективно выполнять широкий спектр ресурсоёмких рабочих нагрузок — от веб-серверов, балансировщиков нагрузки и пакетной обработки до автоматизации проектирования электроники (EDA), высокопроизводительных вычислений (HPC), игр, кодирования видео, научного моделирования, распределённой аналитики, инференса при машинном обучении.

 Источник изображения: Noah Berger/hpcwire.com

Источник изображения: Noah Berger/hpcwire.com

Новые инстансы C7g на базе процессоров AWS Graviton3 обеспечивают лучшее соотношение цены и производительности для широкого спектра клиентских приложений по сравнению с инстансами C6g. Процессоры AWS Graviton3 обеспечивают по сравнению с AWS Graviton2 вдвое более высокую производительность для криптографических рабочих нагрузок, до 3 раз более высокую производительность для инференса при машинном обучении и почти вдвое более высокую производительность при вычислениях с плавающей запятой для научных задач, машинного обучения и кодирования мультимедиа. Процессоры AWS Graviton3 также более энергоэффективны: они потребляют на 60 % меньше энергии при той же производительности, что у сопоставимых инстансов EC2.

Инстансы C7g первыми в облаке Amazon получили память DDR5, обеспечивающую пропускную способность на 50 % выше, чем память в инстансах на базе AWS Graviton2, что позволяет повысить производительность ресурсоёмких научных приложений, таких как вычислительная гидродинамика, геонаучное моделирование и обработка сейсмических данных. Инстансы C7g также обеспечивают пропускную способность сети на 20 % выше, чем инстансы C6g, для ресурсоёмких приложений, таких как балансировка сетевой нагрузки и анализ данных.

Новые инстансы C7g построены на базе AWS Nitro System. Для клиентов, стремящихся повысить производительность приложений, требующих параллельной обработки, таких как высокопроизводительные вычисления и кодирование видео, инстансы C7g в ближайшие недели получат поддержку интерфейса Elastic Fabric Adapter (EFA), который позволяет приложениям взаимодействовать напрямую с сетевыми интерфейсными картами, обеспечивая более низкую и более стабильную задержку.

 Источник изображения: AWS

Источник изображения: AWS

AWS C7g доступны как инстансы по требованию, по модели Savings Plans, а также как зарезервированные или спотовые инстансы. В настоящее время инстансы C7g доступны в облачных регионах us-east (Северная Виргиния) и us-west (Орегон).

При использовании инстансов C7g клиенты платят только за объём используемых вычислений. Более подробно о C7g можно узнать по ссылке.

Постоянный URL: http://servernews.ru/1066661
25.05.2022 [16:02], Руслан Авдеев

Microsoft построит в США фабрику Circular Center по переработке серверов и компьютеров

Компания Microsoft подала заявку на строительство специального объекта Circular Center в городке Куинси штата Вашингтон. После ввода в эксплуатацию здесь планируется перерабатывать старые серверы и компьютеры. Городские власти пошли навстречу компании, подтвердив, что проект не должен оказать значительно негативного влияния на окружающую среду.

Проект MWH90 CC предусматривает строительство здания площадью 1905 м2 для переработки бывших в эксплуатации компьютеров, серверов и комплектующих. Для этого в Куинси будет расширен и доработан кампус компании, на территории которого уже имеется функционирующий ЦОД.

К 2025 году Microsoft планирует перерабатывать 90 % своего облачного оборудования, а к 2030 году этот показатель должен достигнуть 100 %. При этом в докладе за прошлый год упомянуто, что расширение инфраструктуры ЦОД и продажи Xbox привели к росту выбросов класса Scope 3 на 23 % — такие выбросы не являются прямым результатом деятельности компании, но она своей деятельностью косвенно влияет на их объёмы.

 Источник изображения: beear/pixabay.com

Источник изображения: beear/pixabay.com

Новый Circular Center будет очередным из специальных центров, строительство которых началось в 2020 году. В переработку там идут облачные серверы и прочее оборудование, причём некоторые компоненты могут быть использованы заново, перепроданы или перепрофилированы для использования в иных целях. Например, отдельные части могут использоваться даже в электронных игрушках и игровых системах.

В 2020 году работу начали три Circular Center в Амстердаме, Дублине и американском Бойдтоне. В компании утверждают, что она уже получила возможность заново использовать 83 % критически важных комплектующих, снизив выбросы на 145 тыс. т. В обозримом будущем планируется строительство ещё нескольких центров аналогичного назначения по всему миру — от США до ЕС и Австралии.

 Изображение: ITRenew

Изображение: ITRenew

Прочие облачные компании, включая Google, Oracle и AWS реализуют похожие проекты, причём часть бывших в употреблении комплектующих используется в инфраструктуре самих компаний, а часть продаётся на вторичном рынке. Так, только Google и только в 2020 году продала 8,2 млн уже использовавшихся компонентов. А ITRenew, известный игрок на рынке утилизации оборудования гиперскейлеров, предлагает б/у серверы для микро-ЦОД и даже для отопления. Похожие решения есть и у Qarnot.

Ранее сообщалось, что у Microsoft довольно необычный подход к защите природы. В январе появилась информация, что компания намерена вырубить более 2500 деревьев в Техасе для строительства дата-центра. В качестве компенсации компания обещала высадить более 800 новых и заплатить в фонд защиты деревьев около $1,5 млн.

Постоянный URL: http://servernews.ru/1066651
24.05.2022 [17:14], Руслан Авдеев

TeleGeography: в ближайшие годы в мире появится ещё 50 облачных регионов

Специализирующаяся на исследованиях глобального рынка телекоммуникаций исследовательская компания TeleGeography представила прогноз, согласно которому в ближайшие несколько лет в мире появятся десятки новых облачных регионов.

Сейчас лидером по числу действующих облачных зон является Азия, только в ней их насчитывается 230, причём ожидается, что свои лидирующие позиции она сохранит в обозримом будущем. Исследователи заявляют, что с 2013 года в среднем вводится в эксплуатацию по 15 облачных регионов в год, в 2019 году их появилось 28, после чего последовало временное «охлаждение» рынка и в 2021 году число новых зон достигло 18.

 Источник изображения: geralt/pixabay.com

Источник изображения: geralt/pixabay.com

Драйверами развития новых облачных регионов предположительно станут сервисы Microsoft Azure, Google, AWS и Oracle, а в ближайшие несколько лет планируется ввести в эксплуатацию ещё порядка 50 регионов. Эксперты отрасли ожидают, что после ослабления санитарных ограничений тенденция роста числа регионов продолжится.

Дополнительно TeleGeography упомянула о трендах в ценообразовании при предоставлении облачных и WAN-сервисов. Хотя роль многопротокольной системы MPLS-коммутации продолжает снижаться, она всё ещё является критически важным компонентом многих сетей, хотя цены на неё продолжают снижаться в большинстве регионов. Так, в 2021 году сервис был доступен в 5244 городах всего мира. Самыми высокими цены были в отдалённых и развивающихся рынках вроде Йоханнесбурга, Мумбай и Сан-Паулу, в которых т. н. «точки присутствия» (PoP) имеют немногие сервис-провайдеры.

Переформатирование сетей под более активное использование облачной инфраструктуры требует увеличения ширины каналов — в городах с большим числом точек присутствия вроде Лондона, Нью-Йорка или Гонконга широкополосная связь стоит относительно недорого. Поэтому провайдеры, намеренные предоставлять международные сервисы, должны принимать во внимание необходимость точек присутствия в контролируемых ими сферах ответственности.

С более подробной информацией об облачных регионах можно ознакомиться на масштабируемой карте Cloud Infrastructure Map, а с подробным отчётом компании об облачной и WAN-инфраструктуре можно ознакомиться здесь (необходима подписка).

Постоянный URL: http://servernews.ru/1066569
24.05.2022 [14:09], Андрей Крупин

Selectel приступила к строительству в Москве нового 20-МВт дата-центра на 2 тыс. стоек

Компания Selectel, являющаяся специализированным поставщиком IT-решений на базе собственной сети дата-центров в Москве, Санкт-Петербурге и Ленинградской области, планирует ввести в эксплуатацию ещё один вычислительный комплекс. Новый центр обработки данных под названием «Юрловский» будет развёрнут в Москве и рассчитан на 2 тыс. серверных стоек. Дата-центр проектируется в соответствии с уровнем надёжности Tier IV. Основная ёмкость центра обработки данных будет задействована для предоставления облачных сервисов Infrastructure as a Service (IaaS).

Особенностью ЦОД станет самый большой единый машинный зал в России площадью 4500 м2, в котором компания планирует разместить до 80 тыс. серверов. Общая подведённая мощность объекта составит 20 МВт, средняя мощность на стойку — 8 кВт. Selectel уже получила технические условия на подключение к ближайшему питающему центру с верхним уровнем напряжения 500 кВ, который расположен в 700 м от кампуса. Подключение будет выполнено по второй категории надёжности, то есть будет проложено две линии от независимых ячеек на подстанции, а между ними на стороне подстанции будет организован автоматический ввод резерва.

 Фото: Selectel

Фото: Selectel

Дата-центр «Юрловский» будет построен с применением технологии охлаждения без использования фреоновых систем, что позволит минимизировать воздействие на окружающую среду. ЦОД будет охлаждаться наружным воздухом (технология фрикулинга), а в качестве доохлаждения будут использоваться адиабатические маты. Предполагается, что эти и другие меры позволят Selectel экономить электроэнергию и занимать меньше полезной площади машинного зала. Среднегодовой коэффициент эффективности использования энергии (Power Usage Effectiveness, PUE) будет в диапазоне от 1,1 до 1,15. Таким образом, «Юрловский» станет самым «зелёным» дата-центром Selectel.

 Фото: Selectel

Фото: Selectel

В инфраструктуре дата-центра «Юрловский» будет задействована схема резервирования 6/5N — для каждой части на 1000 стоек будет выделено пять рабочих кластеров и один резервный. Фактически работать будут все шесть, но один можно в любой момент отключить. Кроме того, такой подход позволяет добиться физической изоляции резервируемых кластеров друг от друга. А автоматизации бесперебойной подачи питания и непрерывное охлаждение обеспечат возможность проводить любые профилактические и ремонтные работы без приостановки оказания услуг. Для поддержания связности новый ЦОД будет подключен несколькими независимым ВОЛС к MSK-IX (M9) и ЦОД «Берзарина», который уже имеется независимые подключения к нескольким IX.

Вопрос с закупкой оборудования компания намерена решать в конце текущего года, поскольку в текущей ситуации прогнозировать что-либо затруднительно. На текущем этапе Selectel занимается проектированием и выполняет общестроительные работы. Ввод объекта в коммерческую эксплуатацию запланирован на 2023 год, однако сроки могут быть скорректированы в зависимости от ситуации на рынке. Инвестиции в проект оцениваются в миллиарды рублей.

Постоянный URL: http://servernews.ru/1066560
24.05.2022 [07:00], Игорь Осколков

NVIDIA представила референсные платформы CGX, OVX и HGX на базе собственных Arm-процессоров Grace

На весенней конференции GTC 2022 NVIDIA поделилась подробностями о грядущих серверных Arm-процессорах Grace Superchip и гибридах Grace Hopper Superchip, а на Computex 2022 представила первые референсные платформы на базе этих чипов для OEM-производителей и объявила о расширении программы NVIDIA Certified.

Последнее, впрочем, не означает отказ от x86-систем, поскольку программа будет просто расширена. Да и портирование стороннего и собственного ПО займёт некоторое время. Первые несколько десятков моделей серверов от ASUS, Foxconn, GIGABYTE, QCT, Supermicro и Wiwynn появятся в первой половине 2023 года. Представлены они будут в трёх категориях, причём все, за исключением одной, базируются на «сдвоенных» процессорах Grace Superchip, насчитывающих до 144 ядер.

 Источник: NVIDIA

Источник: NVIDIA

Системы серии OVX, представленной ранее, всё так же будут предназначены для цифровых двойников и Omniverse — NVIDIA продолжает наставить на том, что любое современное производство или промышленное предприятие должно быть интеллектуальным. Arm-версия OVA получит неназванные ускорители NVIDIA и DPU Bluefield-3.

Новая платформа NVIDIA CGX очень похожа на OVX — она тоже получит DPU Bluefield-3 и до четырёх ускорителей NVIDIA A16. CGX создана специального для облачных гейминга и работы с графикой.

А вот новое поколение платформы NVIDIA HGX гораздо интереснее. Оно заметно отличается от предыдущих, которые в основном представляли собой различные комбинации базовых плат NVIDIA с четырьмя или восемью ускорителями, вокруг которых OEM-партнёры строили системы в меру своих умений и фантазий. Нынешняя инкарнация NVIDIA HGX всё же несколько более комплексная, поскольку сейчас предлагается два варианта узлов, специально спроектированных для высокоплотных систем и явно ориентированных на высокопроизводительные вычисления (HPC).

 Источник: NVIDIA

Источник: NVIDIA

Первый вариант — это 1U-лезвие (до 84 шт. в стандартной стойке), которое включает один процессор Grace Superchip, до 1 Тбайт LPDDR5x-памяти с пропускной способностью (ПСП) до 1 Тбайт/с и DPU BlueField-3. Иные варианты сетевого подключения оставлены на усмотрение конечного производителя. Заявленный уровень TDP составляет 500 Вт, так что на выбор доступны системы с воздушным и жидкостным охлаждением.

Второй вариант базируется на гибридных чипах Grace Hopper Superchip, объединяющих в себе посредством шины NVLink-C2C процессорную часть с 512 Гбайт LPDDR5x-памяти и ускоритель NVIDIA H100 c 80 Гбайт HBM3-памяти (ПСП до 3,5 Тбайт/с). Помимо DPU BlueField-3 опционально доступен и интерконнект NVLink 4.0, но и здесь вендору оставлена свобода выбора. Уровень TDP для данной платформы составляет 1 кВт, но вот обойтись одним только воздушным охлаждением (а такой вариант есть) при полном заполнении стойки всеми 42-мя 2U-лезвиями будет трудно.

Постоянный URL: http://servernews.ru/1066512
24.05.2022 [07:00], Игорь Осколков

NVIDIA представила PCIe-ускорители A100 с интегрированным водоблоком СЖО

Вместе с новыми референсными платформами CGX, HGX и OVX на базе собственных Arm-чипов Grace NVIDIA в рамках Computex 2022 представила и ещё одну модификацию PCIe-версии ускорителя A100 (80 Гбайт), на этот раз с предустановленным водоблоком для подключения к СЖО. Новинка станет доступна в III квартале этого года, а в начале следующего появится аналогичная модификация ускорителя NVIDIA H100.

Интересен тут не столько факт использования СЖО (для PCIe-варианта A100 водоблоки производит, к примеру, EK Water Blocks, и HGX-платформ с жидкостным охлаждением SXM-версии ускорителей не так уж мало), сколько неожиданно большой список партнёров, готовых предложить системы с новой модификацией A100: ASUS, ASRock Rack, Foxconn, GIGABYTE, H3C, Inspur, Inventec, Nettrix, QCT, Supermicro, Wiwynn и xFusion.

 Источник: NVIDIA

Источник: NVIDIA

В данном случае СЖО нужна в первую очередь не для существенного повышения производительности, как это обычно бывает в HPC-системах, а для повышения плотности размещения вычислительных мощностей и улучшения энергоэффективности. Новинка занимает всего один слот, что, по данным NVIDIA, позволяет сократить число используемых стоек на две трети при сохранении того же уровня производительности. Попутно можно почти на треть снизить затраты на электроэнергию.

 Источник: NVIDIA

Источник: NVIDIA

Правда, NVIDIA в своих заявлениях опирается не только на свои расчёты, но и на работы Equinix, одного из крупнейших в мире операторов ЦОД, который размещает у себя мощности NVIDIA LaunchPad и который в январе этого года создал выделенную площадку для изучения вопросов повышения энергоэффективности. В рамках данного проекта изучаются в том числе и СЖО.

По оценкам NVIDIA, использование СЖО в рамках всего ЦОД позволяет добиться PUE на уровне 1,15, тогда как для традиционного дата-центра с воздушным охлаждением этот показатель равен 1,6, то есть разница как раз составляет около трети. Аналогичный результат получился и у Equinix. По данным Uptime Institute за 2020 год, среднемировой уровень PUE составлял 1,59. Для кампусов Equinix усреднённое значение PUE равно 1,48, а для самых новых площадок — менее 1,2.

Постоянный URL: http://servernews.ru/1066514
23.05.2022 [21:52], Алексей Степин

Учёные выяснили, что радиационный фон может влиять на ПЛИС, но защититься довольно просто

Влияние ионизирующего излучения (радиации) на электронику бесспорно, и является одной из причин широкого внедрения технологии коррекции ошибок. Но если с памятью и процессорами всё более или менее понятно, то существует класс микросхем, для которого этот вопрос был малоисследован, во всяком случае, до недавнего времени. Это программируемые логические схемы, FPGA.

Если обычный радиационный фон для единичных ПЛИС, очевидно, не представляет весомой угрозы, то что насчёт массивов из сотен тысяч работающих сообща микросхем такого типа? Вопрос не праздный ввиду роста популярности FPGA в качестве многофункциональных реконфигурируемых сопроцессоров в сфере HPC. Учёные из Университета Бригама Янга (Brigham Young University), штат Юта, США, дали ответ на этот вопрос.

 Пролетающая частица разряжает SRAM-ячейку. Источник: slideshare.net

Пролетающая частица разряжает SRAM-ячейку. Источник: slideshare.net

Полигоном стал ЦОД в Денвере, штат Колорадо, в котором одновременно работают до 100 тыс. ускорителей на базе ПЛИС. Сами эти микросхемы имеют т.н. «конфигурационную память», отвечающую за хранение реализованной в ПЛИС электронной схемы —  путей, соединений, функциональных блоков. Поддержки ECC она не имеет, и как отметил ведущий исследователь Эндрю Келлер (Andrew Keller), проходящее через эту область ионизирующее излучение может отключать от схемы целые элементы, поскольку под его воздействием меняются хранимые в ячейках памяти значения.

 Влияние ионизирующего излучения на конфигурационную память создаёт SDC. Источник: slideshare.net

Влияние ионизирующего излучения на конфигурационную память создаёт источник «постоянной ошибки». Источник: slideshare.net

В ЦОД масштаба от 100 тыс. FPGA изменение данных в конфигурационной памяти может происходить каждые полчаса, а незаметные повреждения данных (silent data corruption, SDC) накапливаться до 11 дней. Последнее представляет наибольшую угрозу, поскольку все эти дни ошибка накапливается — система всё ещё производит вычисления, но результаты могут быть неверны. Другая опасность — это полный выход ПЛИС из строя, но это заметят те, кто отвечает за работоспособность оборудования в ЦОД.

 FPGA бывают и в защищённом от радиации исполнении. Источник: militaryaerospace.com

FPGA бывают и в защищённом от радиации исполнении. Источник: militaryaerospace.com

Методы защиты, впрочем, довольно просты: механика коррекции ошибок Single Event Upsets (SEU) реализована во всех современных FPGA; есть также механизм периодической перезаписи конфигурации (scrubbing) в случае обнаружения ошибки, который может снизить вероятность повреждения данных в 3–22 раза. К сожалению, большая часть решений на базе FPGA последний механизм не задействует, хотя, как отметили исследователи, крупные гиперскейлеры пользуются им чаще.

Также предполагалось, что по мере освоения более тонких техпроцессов возможно учащение мультибитных ошибок, поскольку пролетающая частица может задеть не одну ячейку памяти, а сразу несколько. Однако эксперименты команды Келлера опровергают это предположение. По всей видимости, производители ПЛИС знают об этом эффекте и стараются защитить от него новые продукты. Существуют также FPGA в защищённом исполнении, которые, как правило, применяются в военной и аэрокосмической технике.

Постоянный URL: http://servernews.ru/1066503
23.05.2022 [19:51], Алексей Степин

Intel построит за $700 млн огромную лабораторию для разработки систем охлаждения для ЦОД будущего

Мощность современных процессоров и сопроцессоров растёт, но растут и объёмы тепловыделения. К примеру, чип Habana Gaudi2 уже выделяет 600 Ватт, что далеко за пределами типичного форм-фактора PCIe. Поэтому решение Intel о создании нового научно-исследовательского центра, занятого разработкой систем охлаждения для ЦОД нового поколения, выглядит вполне логично и закономерно.

 Тестовый проект Intel и Green Revolution Cooling, используется специальное масло. Источник: GRC

Тестовый проект Intel и Green Revolution Cooling, используется специальное масло. Источник: GRC

Новая лаборатория будет построена на базе кампуса Jones Farm в Хилсборо, штат Орегон, суммарная площадь помещений составит почти 19 тыс. м2. На её создание уже выделено $700 миллионов, и задач у нового исследовательского центра будет немало: во-первых, речь идёт не только о разработке систем охлаждения, но и о связанных с данной темой вопросах экологии, таких, как экономия воды, а, во-вторых, лаборатория станет тестовым полигоном для отработки новых технологий охлаждения.

Деталей о новом проектe Intel пока не раскрывает, однако в пресс-релизе указывается создание «первой в индустрии погружной СЖО для ЦОД на базе открытых технологий». Компания обещает, что новая система будет простой в установке, наладке и обслуживании, а также масштабируемой, что снимет проблему с модернизацией системы при укрупнении ЦОД и дальнейшем уплотнении вычислительных мощностей.

 Intel тестирует резервуар Submer. Источник: Submer

Intel тестирует резервуар Submer. Источник: Submer

Жидкостное охлаждение в наше время очень популярно, однако о стандартизации в этой сфере пока говорить не приходится — каждый производитель оборудования для ЦОД решает задачу по-своему. Погружной тип СЖО является одним из самых простых в реализации, поскольку требует не такой разветвлённой сети циркуляции теплоносителя, и, к тому же, обеспечивает более высокую плотность упаковки вычислительных мощностей. Шаг к стандартизации таких систем, предпринятый Intel, наверняка, положительно скажется на популярности погружных СЖО в целом.

Ранее компания уже тестировала погружные резервуары для жидкостного охлаждения производства Green Revolution Cooling, затем сотрудничала с Submer. Отмечается, что новая лаборатория будет сотрудничать с тайваньским подразделением Intel и новый открытый дизайн СЖО будет сначала протестирован Intel Taiwan, и лишь затем компания приступит к поставкам для международных партнёров.

Постоянный URL: http://servernews.ru/1066493
21.05.2022 [15:41], Владимир Мироненко

Южнокорейская KT Corp. проведёт IPO своего облачного подразделения

Одна из крупнейших южнокорейских телекоммуникационных компаний KT Corp. (KT) планирует удвоить к 2025 году выручку цифровых сервисов до $10 млрд благодаря в том числе расширению облачных решений и использованию искусственного интеллекта в дополнение к своему основному бизнесу. В прошлом году выручка цифровых сервисов компании составила $5 млрд.

На этой неделе гендиректор KT Хён-мо Ку (Hyeon-Mo Ku) заявил, что в рамках плана по преобразованию телекоммуникационного оператора в компанию, предоставляющую услуги цифровой платформы, рассматривается возможность выхода на биржу его подразделения ЦОД.

 Источники изображения: KT Corp.

Источники изображения: KT Corp.

Стремление KT к расширению направлений деятельности связано с тем, что телекоммуникационные компании страны с 2017 года отмечают слабый прирост числа новых пользователей интернет-сервисов на фоне насыщения рынка. На этот процесс повлияло регулирование властями ценообразования услуг беспроводной связи.

Чой Нам-Кон, аналитик Yuanta Securities Korea отметил, что по сравнению с другими телекоммуникационными компаниями Южной Кореи у KT наибольшая доля бизнеса, не связанного с телекоммуникациями, а значит, она меньше других зависит от регулирования тарифов на мобильную связь.

По словам Ку Хён-мо, компания намерена почти утроить за три года доход от реализации программного обеспечения на основе ИИ для колл-центров, также увеличить продажи логистических услуг на основе ИИ для судоходных компаний. Он заявил, что глобальные телекоммуникационные компании столкнулись с проблемами при попытках расширить направления деятельности и поэтому их акции падают в цене. KT — одна из немногих «телекоммуникационных компаний в мире, хорошо адаптированных к новой цифровой индустрии», считает Ку Хён-мо.

KT сможет разместить на бирже акции своего подразделения KT Cloud, которое управляет шестью облачными центрами, как только будут внесены нормативные изменения, обеспечивающие такую возможность при условии защиты интересов акционеров материнской компании, заявил гендиректор компании, не уточняя сроки первичного публичного размещения акций на фондовом рынке (IPO).

Глава компании сообщил, что KT будет стремиться получить заказы корейского правительства на облачные услуги, основываясь на своём опыте работы с государственными проектами (до 2002 года KT контролировалась государством). По его словам, правительство предпочитает работать с местными провайдерами из соображений безопасности, и ожидается, что к 2025 году этот рынок в стране вырастет до 800 млрд вон ($626 млн).

В этом году KT также планирует провести листинг вспомогательных подразделений: Kbank, оператора онлайн-банкинга, и Bookclub Millie, компании, выпускающей электронные книги. В будущем также предполагается включить в этот список KT Studio Genie, кино- и телестудию, стремящуюся к партнёрству с глобальными игроками, такими как Paramount и Canal+. Гендиректор отказался оценить возможные поступления средств от их IPO из-за растущей неопределённости на мировых рынках.

Постоянный URL: http://servernews.ru/1066411
21.05.2022 [00:58], Алексей Степин

США постарается догнать КНР в гонке суперкомпьютеров, но без ослабления санкций добиться этого будет труднее

Эра экзафлопсных вычислений началась довольно буднично: осенью 2021 года эту планку взял Китай, причём на самом деле первая машина были запущена ещё весной, но новость запоздала, поскольку на этот раз разработчики решили не участвовать в мировом рейтинге TOP500. КНР пробежала этот путь очень быстро: планы по созданию экзафлопсных систем были опубликованы в 2019 году. Но возникли такие машины не на пустом месте, а в результате планомерной работы в течение десяти лет.

Примечательно тут то, что два известных на текущий момент китайских суперкомпьютера экзафлопсного класса — SunWay (ShenWei) OceanLight и Tianhe-3 — основаны на собственных разработках КНР. Первая использует чипы ShenWei SW26010-Pro (SW26010P) и имеет пиковую производительность 1,2 Эфлопс (FP32). Вторая же полагается в первую очередь на ускорители семейства Matrix, дополненные Arm-процессорами, и выдаёт более 1,3 Эфлопс в FP64-расчётах.

 Прототип Tianhe-3. Фото: Xinhua

Прототип Tianhe-3. Фото: Xinhua

Впрочем, конкретные цифры уже не так важны, поскольку архитектурно обе системы относятся к новому поколению суперкомпьютеров, а идейно они наиболее близки к нынешнему лидеру TOP500, японскому Fugaku. И, как теперь стало понятно, санкционные запреты, принятые правительством США в 2019 году, не сработали должным образом, хотя и помешали КНР сделать третью систему экзафлопсного класса на базе решений AMD. Такое положение вещей, разумеется, не могло не расстроить США, планировавшие стать лидером в освоении 1 Эфлопс.

Фактически сборка первого экзафлопсного суперкомпьютера Frontier началась только в конце 2021 года, а окончательный ввод в эксплуатацию, по слухам, задерживается из-за проблем с интерконнектом Slingshot. Вслед за Frontier должен вступить в строй суперкомпьютер Aurora мощностью порядка 2 Эфлопс, а вот El Capitan (свыше 2 Эфлопс) заработает не раньше 2023 года. Поэтому страна оказалась в положении догоняющего. Хуже того, к 2025 году, как считают специалисты США, количество китайских экзафлопсных систем может вырасти до 10. При этом у КНР есть фора минимум в год.

 Плата с чипами ShenWei SW26010

Плата с чипами ShenWei SW26010

Наличие суперкомпьютеров такого класса, как считают специалисты, уже становится стратегическим фактором: такие мощности позволят точнее моделировать сверхсложные процессы, например, в климатологии или физике высоких энергий, включая точную симуляцию процессов в ядерных взрывах. Но что не менее важно, они могут помочь в криптографии, а это, естественно, может поставить под угрозу национальную безопасность страны, не располагающей такими вычислительными мощностями.

Некоторые эксперты в области HPC считают, что санкции против китайских суперкомпьютерных центров по факту оказались вредны, и их следует смягчить, чтобы подробнее изучить архитектурные особенности китайских машин. Они же отмечают, что у США есть и преимущества, поскольку страна более десяти лет тратит существенные ресурсы на разработку ПО для сферы HPC, полагаясь при этом на хорошо знакомую аппаратную часть, представленную x86-64 и ускорителями, выросшими из GPU.

Вывод, сделанный Дэвидом Каханером (David Kahaner), главой ATIP (Asian Technology Information Program), прост: отмена санкций и ослабление режима секретности позволит развить кооперацию между научными командами США и КНР. С этим трудно не согласиться, но пожелает ли Китай раскрыть тайны своих вычислительных монстров, покажет время. Пока же санкции действуют, такое светлое будущее суперкомпьютерных наук остаётся под вопросом.

Постоянный URL: http://servernews.ru/1066385
Система Orphus