Лента новостей

28.03.2024 [14:50], Сергей Карасёв

Canonical увеличила срок поддержки LTS-релизов Ubuntu до 12 лет

Компания Canonical объявила о том, что срок поддержки LTS-релизов Ubuntu продлевается ещё на два года — до 12 лет. Новая модель выпуска обновлений будет распространяться на платформу Ubuntu 14.04 LTS и более поздние LTS-редакции, которые выходят раз в два года.

В октябре 2023-го Canonical сообщила, что пользователи Ubuntu смогут получать обновления безопасности и другие критические апдейты ОС в течение десятилетнего периода. При этом срок стандартной поддержки составляет пять лет, тогда как дополнительный период приобретается в рамках платной опции Expanded Security Maintenance (ESM).

 Источник изображения: Canonical

Источник изображения: Canonical

Поддержка Ubuntu 14.04 LTS должна была истечь в апреле 2024 года, но в соответствии с новой схемой она продлится до апреля 2026-го. Основная поддержка, как и прежде, предоставляется в течение пятилетнего срока. Ещё семь лет будут доступны пользователям сервиса Ubuntu Pro. В частности, дополнительные два года поддержки можно приобрести в рамках опции Legacy Support.

«Благодаря Legacy Support мы даём организациям возможность поддерживать их операционные потребности и инвестиции в открытый исходный код, гарантируя, что системы будут получать обновления безопасности в течение многих лет», — говорит Максимилиан Морган (Maximilian Morgan), вице-президент по технической поддержке Canonical.

Таким образом, Ubuntu 16.04 LTS будет получать поддержку до 2028 года, Ubuntu 18.04 LTS — до 2030-го, Ubuntu 20.04 LTS — до 2032-го и т.д. Стоимость новой услуги Canonical пока не раскрывает.

Постоянный URL: https://www.servernews.ru/1102395
28.03.2024 [14:44], Сергей Карасёв

Стартап Eliyan, разработчик интерконнекта NuLink, получил на развитие ещё $60 млн

Молодая компания Eliyan из Санта-Клары (Калифорния, США) сообщила о проведении раунда финансирования Series B, в рамках которого на развитие привлечено $60 млн. Средства поступили в дополнение к $40 млн, которые стартап получил в 2022 году в ходе инвестиционной программы Series А.

Eliyan является разработчиком интерконнекта NuLink, предназначенного для соединения чиплетов. Данная технология рассматривается в качестве альтернативы упаковочным решениям TSMC CoWoS и Intel EMIB. При этом NuLink совместима с единым стандартом UCIe.

 Источник изображения: Eliyan

Источник изображения: Eliyan

По заявлениям Eliyan, технология NuLink способна обеспечить производительность, в четыре раза превышающую показатели конкурирующих решений. При этом показатель TCO может быть снижен вдвое. Внедрение NuLink может помочь в развитии аппаратных ИИ-платформ нового поколения. Помимо объединения чиплетов, эта система также позволяет связывать процессоры с модулями памяти.

Eliyan отмечает, что в NuLink реализована функция одновременной двунаправленной передачи сигналов, что позволяет каждому соединению отправлять и получать данные одновременно. Это удваивает пропускную способность на линию по сравнению с традиционными решениями, которые обычно могут в каждый момент времени либо передавать, либо принимать информацию.

Раунд финансирования Series B возглавили Samsung Catalyst Fund и Tiger Global Management. Кроме того, средства предоставили существующие инвесторы, в том числе Intel Capital, а также SK hynix, Cleveland Avenue, Mesh Ventures и др. Деньги пойдут на дальнейшее развитие и внедрение технологии. Говорится, что недавно NuLink была реализована на базе 3-нм техпроцесса TSMC, обеспечив лучшую в отрасли производительность — до 64 Гбит/с на канал. В целом, система NuLink достигла коммерческой готовности.

Постоянный URL: https://www.servernews.ru/1102390
28.03.2024 [14:43], Сергей Карасёв

DDN создала хранилище с быстродействием 4 Тбайт/с для ИИ-суперкомпьютера NVIDIA EOS

Компания DataDirect Networks (DDN), специализирующаяся на платформах хранения данных для НРС-задач, сообщила о создании высокопроизводительного хранилища на базе DDN EXAScaler AI (A3I — Accelerated, Any-Scale AI) для ИИ-суперкомпьютера NVIDIA EOS производительностью 18,4 Эфлопс (FP8). Речь идёт о кластере, объединяющем 576 систем NVIDIA DGX H100.

Компания DDN заявляет, что разработала для NVIDIA EOS систему хранения с высокими показателями быстродействия и энергетической эффективности. Объединены 48 устройств A3I, которые сообща занимают менее трёх серверных стоек. Потребляемая мощность заявлена на отметке 100 кВт.

 Источник изображения: DDN

Источник изображения: DDN

Задействованы 250-Тбайт массивы NVMe-накопителей. Суммарная ёмкость СХД составляет 12 Пбайт. Общая пропускная способность, по заявлениям разработчика, достигает 4 Тбайт/с. Таким образом, система способна справляться с самыми ресурсоёмкими рабочими нагрузками ИИ, большими языковыми моделями, комплексным моделированием и пр.

«Наша цель — обеспечение максимальной эффективности всей платформы, а не просто предоставление эффективного хранилища. Благодаря интеграции с суперкомпьютером NVIDIA EOS наше решение демонстрирует способность сократить время окупаемости при одновременном снижении рисков как для локальных, так и для облачных партнёров», — говорит президент и соучредитель DDN.

Постоянный URL: https://www.servernews.ru/1102393
28.03.2024 [14:31], Сергей Карасёв

Intel Gaudi2 остаётся единственным конкурентом NVIDIA H100 в бенчмарке MLPerf Inference

Корпорация Intel сообщила о том, что её ИИ-ускоритель Habana Gaudi2 остаётся единственной альтернативой NVIDIA H100, протестированной в бенчмарке MLPerf Inference 4.0. При этом, как утверждается, Gaudi2 обеспечивает высокое быстродействие в расчёте на доллар, хотя именно чипы NVIDIA являются безоговорочными лидерами.

Отмечается, что для платформы Gaudi2 компания Intel продолжает расширять поддержку популярных больших языковых моделей (LLM) и мультимодальных моделей. В частности, для MLPerf Inference v4.0 корпорация представила результаты для Stable Diffusion XL и Llama v2-70B.

Согласно результатам тестов, в случае Stable Diffusion XL ускоритель H100 превосходит по производительности Gaudi2 в 2,1 раза в оффлайн-режиме и в 2,16 раза в серверном режиме. При обработке Llama v2-70B выигрыш оказывается более значительным — в 2,76 раза и 3,35 раза соответственно. Однако на большинстве этих задач (кроме серверного режима Llama v2-70B) решение Gaudi2 выигрывает у H100 по показателю быстродействия в расчёте на доллар.

 Источник изображений: Intel

Источник изображений: Intel

В целом, ИИ-ускоритель Gaudi2 в Stable Diffusion XL показал результат в 6,26 и 6,25 выборок в секунду для оффлайн-режима и серверного режима соответственно. В случае Llama v2-70B достигнут показатель в 8035,0 и 6287,5 токенов в секунду соответственно.

Говорится также, что серверные процессоры Intel Xeon Emerald Rapids благодаря улучшениям аппаратной и программной составляющих в бенчмарке MLPerf Inference v3.1 демонстрируют в среднем в 1,42 раза более высокие значения по сравнению с чипами Xeon Sapphire Rapids. Например, для GPT-J с программной оптимизацией и для DLRMv2 зафиксирован рост быстродействия примерно в 1,8 раза.

Постоянный URL: https://www.servernews.ru/1102394
28.03.2024 [02:10], Владимир Мироненко

Atos планирует достичь соглашения о реструктуризации долгов к июлю

Находящийся в сложном финансовом положении французский IT-холдинг Atos расширил переговоры о реструктуризации долгов, включив в них держателей ценных бумаг, планируя заключить к июлю всеобъемлющее соглашение, пишет DatacenterDynamics со ссылкой на заявление Atos, сделанное после публикации отчёта о рекордных убытках за 2023 год. На данный момент долги холдинга составляют €4,65 млрд, причём €3,65 млрд необходимо погасить до конца 2025 года.

Согласно отчёту, убытки Atos за прошлый год составили €3,44 млрд, превысив более чем в три раза убытки в 2022 году, равные €1,01 млрд. После публикации результатов стоимость акций Atos упала до нового исторического минимума в €1,59/шт. По сравнению с предыдущим годом выручка Atos почти не изменилась, увеличившись всего на 0,4 % до €10,6 млрд евро.

 Источник изображений: Atos

Источник изображений: Atos

Как утверждает холдинг, убытки большей частью возникли в результате обесценения активов обоих его подразделений — Eviden и Tech Foundations, созданных в рамках плана по оздоровлению, призванного вернуть бизнес к росту. Хотя первоначальная идея заключалась в том, чтобы управлять Eviden и Tech Foundations как отдельными публично зарегистрированными компаниями под эгидой Atos, долговые проблемы, с которыми столкнулся холдинг, привели к тому, что оба подразделения были выставлены на продажу.

Как сообщается в пресс-релизе, переговоры по поводу потенциальной продажи Tech Foundations компании EPEI завершились ничем. Ранее было объявлено об отказе Airbus от планов покупки подразделения холдинга Big Data and Security (BDS). «Мы продолжим управлять Tech Foundations и Eviden как отдельными предприятиями и использовать сильные стороны их соответствующих предложений с помощью скоординированной стратегии выхода на рынок», — отметил холдинг.

Постоянный URL: https://www.servernews.ru/1102383
27.03.2024 [23:40], Сергей Карасёв

Coherent представила оптические коммутаторы для дата-центров, ориентированных на задачи ИИ

Coherent анонсировала специализированные оптические коммутаторы для ИИ-кластеров высокой плотности. В основу устройств Optical Circuit Switch (OCS) положена фирменная платформа кросс-коммутации Lightwave Cross-Connect (DLX). В изделиях, в отличие от традиционных коммутаторов, не применяются приемопередатчики для преобразования фотонов в электроны и обратно. Вместо этого все операции осуществляются в оптическом тракте: импульсы поступают в один порт и выходят из другого (конечно, с небольшим ослаблением).

Coherent выделяет несколько ключевых преимуществ своей технологии. Прежде всего значительно возрастает производительность, что важно при решении ресурсоёмких задач, связанных с приложениями ИИ. Кроме того, благодаря отказу от преобразования среды сокращаются энерозатраты. Наконец, отпадает необходимость в обновлении собственно коммутаторов при установке в ЦОД оборудования следующего поколения. Это значительно повышает окупаемость капитальных затрат.

 Источник изображения: Coherent

Источник изображения: Coherent

Представленное решение насчитывает 300 входных и 300 выходных оптических портов. Коммутаторы OCS помогают решить проблемы масштабируемости и надёжности дата-центров, ориентированных на приложения ИИ. Аналитики Dell'Oro Group отмечают, что для ИИ-задач требуется более высокий уровень отказоустойчивости, нежели для традиционных приложений. Крайне важно, чтобы коммутаторы, используемые в составе ИИ-платформ, не провоцировали никаких перебоев во время обучения или эксплуатации больших языковых моделей. Устройства Coherent, как сообщается, обеспечивают необходимый уровень надёжности.

Массовые поставки новых коммутаторов планируется организовать в 2025 году. При этом Google уже использует в своих дата-центрах оптические коммутаторы (OCS) собственной разработки на базе MEMS-переключателей для формирования ИИ-кластеров, а Meta совместно с MIT разработала систему TopoOpt, представляющую собой оптическую патч-панель с манипулятором, который позволяет менять топологию сети.

Постоянный URL: https://www.servernews.ru/1102356
27.03.2024 [23:25], Руслан Авдеев

За десять лет энергопотребление ЦОД Великобритании вырастет на 500 %

По прогнозам национальной энергетической компании Великобритании National Grid, спрос на электроэнергию со стороны британских дата-центров в ближайшие десять лет вырастет в шесть раз. Bloomberg сообщает, что в компании обосновали столь значимое увеличение потребления тем, что ИИ-индустрия требует всё больше энергии.

В результате предсказуемо поднимется нагрузка на электросети страны, вынужденной передавать в огромных объёмах энергию, например, с ветрогенераторов в Шотландии к ЦОД в окрестностях Лондона. При этом национальная сеть подвержена повышенным нагрузкам из-за ускоренной электрификации систем домашнего отопления, транспорта и промышленности.

 Источник изображения: D Z/unsplash.com

Источник изображения: D Z/unsplash.com

Предполагается, что последующий рост в ключевых сферах вроде ИИ и квантовых вычислений потребует строительства более масштабной и способной выдерживать интенсивные нагрузки инфраструктуры. То же потребуется и от других стран, ищущих возможности расширить ёмкость энергосетей. Как считают в Международном энергетическом агентстве (IEA), уже в следующие три года мировой спрос на энергию со стороны ЦОД, включая сферы ИИ и криптовалют, может вырасти более чем вдвое.

В Великобритании National Grid рассматривает возможность создания ультравысоковольтной сети 800 кВ, вдвое более ёмкой, чем уже существующая. Она обеспечит передачу больших объёмов электроэнергии по стране, связывая крупные генерирующие объекты с площадками, потребляющими много электричества. Это будет означать отказ от текущей системы индивидуальных проектов подключения, каждый из которых требует отдельных разрешений властей и создания инфраструктуры.

Предлагается вложить в новые сети £112 млрд ($142 млрд) для обеспечения стране пути к сокращению вредных выбросов до нуля. Хотя в Министерстве энергетики признают, что это «чрезвычайно дорого», необходимость строительства такой сети считается властями «задачей №1». Проект тем более важен, поскольку Великобритания намерена вложить ещё £500 млн в ИИ-вычисления и квантовые проекты.

Постоянный URL: https://www.servernews.ru/1102367
27.03.2024 [22:34], Сергей Карасёв

Lenovo создаст для Великобритании ИИ-суперкомпьютер производительностью 44,7 Пфлопс

Совет по науке и технологиям Великобритании (STFC), по сообщению The Register, заключил с Lenovo соглашение о создании нового НРС-комплекса, ориентированного на решение задач в области ИИ. Речь идёт о суперкомпьютере с жидкостным охлаждением, производительность которого составит приблизительно 44,7 Пфлопс (точность вычислений не уточняется).

Система будет смонтирована в принадлежащем STFC Вычислительном центре имени Хартри в Дарсбери (графство Чешир). Ожидается, что по быстродействию новый комплекс примерно в 10 раз превзойдёт нынешнюю НРС-систему центра под названием Scafell Pike.

 Источник изображения: Lenovo

Источник изображения: Lenovo

В основу суперкомпьютера лягут серверы Lenovo ThinkSystem с технологией прямого водяного охлаждения (DWC) Neptune. Применение СЖО, как ожидается, поможет снизить потребление энергии примерно на 40 % по сравнению с воздушным охлаждением и дополнительно повысить производительность на 10 %.

Технические характеристики будущего суперкомпьютера не раскрываются, но известно, что он будет использовать узлы с ускорителями на базе GPU. Технология Neptune, в частности, применяется в серверах ThinkSystem SD650-N V3, которые комплектуются процессорами Intel Xeon Emerald Rapids и ускорителями NVIDIA HGX H100 (SXM).

Ожидается, что новый суперкомпьютер, который пока не получил имя, будет применяться для решения сложных задач, связанных с ИИ. Это моделирование погоды и глобальных изменений климата, инициативы в области чистой энергетики, разработка передовых лекарственных препаратов, новые материалы, автомобильные технологии и пр. Система Lenovo станет частью программы Национального центра цифровых инноваций Хартри (HNCDI) стоимостью около $265 млн, которая предполагает поддержку предприятий и организаций государственного сектора, внедряющих средства ИИ.

Постоянный URL: https://www.servernews.ru/1102365
27.03.2024 [22:29], Алексей Степин

Новый бенчмарк — новый рекорд: NVIDIA подтвердила лидерские позиции в MLPerf Inference

Компания NVIDIA опубликовала новые, ещё более впечатляющие результаты в области работы с большими языковыми моделями (LLM) в бенчмарке MLPerf Inference 4.0. За прошедшие полгода и без того высокие результаты, демонстрируемые архитектурой Hopper в инференс-сценариях, удалось улучшить практически втрое. Столь внушительный результат достигнут благодаря как аппаратным улучшениям в ускорителях H200, так и программным оптимизациям.

Генеративный ИИ буквально взорвал индустрию: за последние десять лет вычислительная мощность, затрачиваемая на обучение нейросетей, выросла на шесть порядков, а LLM с триллионом параметров уже не являются чем-то необычным. Однако и инференс подобных моделей тоже является непростой задачей, к которой NVIDIA подходит комплексно, используя, по её же собственным словам, «многомерную оптимизацию».

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Одним из ключевых инструментов является TensorRT-LLM, включающий в себя компилятор и прочие средства разработки, учитывающие архитектуру ускорителей компании. Благодаря ему удалось почти втрое повысить производительность инференса GPT-J на ускорителях H100 всего за полгода. Такой прирост достигнут благодаря оптимизации очередей на лету (inflight sequence batching), применению страничного KV-кеша (paged KV cache), тензорному параллелизма (распределение весов по ускорителям), FP8-квантизации и использованию нового ядра XQA (XQA kernel).

В случае ускорителей H200, использующих ту же архитектуру Hopper, что и H100, важную роль играет память: 141 Гбайт HBM3e (4,8 Тбайт/с) против 80 Гбайт HBM3 (3,35 Тбайт/с). Такой объём позволяет разместить модель уровня Llama 2 70B целиком в локальной памяти. В тесте MLPerf Llama 2 70B ускорители H200 на 28 % производительнее H100 при том же теплопакете 700 Вт, а увеличение теплопакета до 1000 Вт (так делают некоторые вендоры в своих MGX-платформах) даёт ещё 11–14 % прироста, а итоговая разница с H100 в этом тесте может доходить до 45 %.

В специальном разделе новой версии MLPerf NVIDIA продемонстрировала несколько любопытных техник дальнейшей оптимизации: «структурированную разреженность» (structured sparsity), позволяющую поднять производительность в тесте Llama 2 на 33 %, «обрезку» (pruning), упрощающую ИИ-модель и позволяющую повысить скорость инференса ещё на 40 %, а также DeepCache, упрощающую вычисления для Stable Diffusion XL и дающую до 74 % прироста производительности.

На сегодня платформа на базе модулей H200, по словам NVIDIA, является самой быстрой инференс-платформой среди доступных. Результатами GH200 компания похвасталась ещё в прошлом раунде, а вот показатели ускорителей Blackwell она не предоставила. Впрочем, не все считают результаты MLPerf показательными. Например, Groq принципиально не участвует в этом бенчмарке.

Постоянный URL: https://www.servernews.ru/1102371
27.03.2024 [17:27], Руслан Авдеев

Equinix инициировала расследование после обвинений в подтасовке финансовых отчётов

Вскоре после того как Hindenburg Research обнародовала доклад о возможных подтасовках Equinix финансовой отчётности, в которой неправильно классифицируется расходы компании, оператор ЦОД получил повестку от прокуратуры Северного округа Калифорнии. В Datacenter Dynamics отмечает, что благодаря подобным манипуляциям компания могла казаться более прибыльным бизнесом, чем есть на самом деле.

В самой Equinix уже заявили, что прокурорские запросы такого типа не являются чем-то необычным в сложившихся обстоятельствах и компания намерена оказать полное содействие прокуратуре. Представители компании подчёркивают, что очень серьёзно относятся к обязательствам по поддержанию прозрачности и точности финансовых документов, а также рассчитывают на доверие инвесторов и всех акционеров, попутно отмечая, что за Equinix 25 лет существования заработала себе репутацию надёжной компании.

 Источник изображения: Towfiqu barbhuiya/unsplash.com

Источник изображения: Towfiqu barbhuiya/unsplash.com

Обвинения Hindenburg Research свидетельствуют, что всего манипуляции с бухгалтерскими документами привели к росту метрики AFFO на $3 млрд с 2015 года, а ещё $295,8 млн в акциях компания распределила между своими топ-менеджерами. Кроме того, её обвиняют в избыточной продаже мощностей в надежде, что забронировавшие их компании не используют их полностью.

Брокеры TD Cowen раскритиковали Hindenburg, отметив, что в докладе «перефразированы» тезисы 2022 года, касавшиеся прямого конкуренты Equinix в лице Digital Realty. Что касается продажи энергетических ёмкостей «с избытком», то это довольно распространённая отраслевая практика, говорит TD Cowen. Equinix заявила, что компания не будет комментировать возникшие вопросы до тех пор, пока это не станет «приемлемо». На фоне скандала и после объявления о грядущем аудите акции Equinix упали на несколько процентов.

Постоянный URL: https://www.servernews.ru/1102362

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus