Материалы по тегу: ии

10.08.2020 [17:03], Владимир Мироненко

SK Holdings заплатила $300 млн за пакет акций «зелёного» китайского оператора ЦОД

SK Holdings, материнская компания крупного южнокорейского конгломерата SK Group, заплатила $300 млн за 8,9 % акций поддерживаемого американской инвестиционной компанией Bain Capital провайдера сервисов ЦОД Chindata Group. По данным источника газеты South China Morning Post, исходя из этой сделки рыночная стоимость Chindata оценивается в $3,1 млрд.

Сделка должна быть одобрена регулирующими органами двух стран и, как ожидается, будет закрыта в третьем квартале этого года. SK Group — один из крупнейших конгломератов Южной Кореи, работающий в различных секторах экономики, включая химическую промышленность, энергетику, логистику, фармацевтику, производство полупроводников и телекоммуникации.

Холдинг SK уже вложил значительные средства в дата-центры в Южной Корее, где он владеет шестью ЦОД с эксплуатационной мощностью более 100 МВт. Основанная в 2015 году компания Chindata со штаб-квартирой в Пекине является одним из крупнейших гиперскейлеров-провайдеров ЦОД, ориентированных на Китай, Индию и Юго-Восточную Азию.

Bain приобрела Chindata у компании Wangsu Science and Technology Company в мае 2019 года, инвестировав в бизнес $570 млн. В июле прошлого года она объединила компанию с Bridge Data Centers.

«За последние пять лет Chindata Group продемонстрировала быстрый рост, построив ряд сверхкрупных ЦОД нового поколения для технологических гигантов на конкурентных и многообещающих рынках, таких как Китай, Малайзия и Индия», — рассказал Алекс Джу (Alex Ju), основатель и исполнительный директор Chindata.

Добавим, что Chindata заняла первое место в рейтинге китайских технологических компаний по степени использования возобновляемых источников энергии, опередив таких гигантов, как Alibaba, Tencent и Baidu. В настоящее время Chindata изучает возможность первичного публичного размещения акций в США в конце этого года.

Постоянный URL: http://servernews.ru/1017868
07.08.2020 [00:22], Владимир Мироненко

Строительство «Ростелекомом» линии связи через всю Россию обойдётся в 40 млрд рублей

«Ростелеком» готовится к прокладке новой линии связи для высокоскоростной передачи данных от западных границ России до Владивостока, откуда затем будут проложены подводные кабели до Гонконга и Японии. Объём инвестиций в проект составит 40 миллиардов рублей.

По словам главы ПАО «Ростелеком» Михаила Осеевского, оператор считает перспективной работу на международных рынках. «Растёт объём трафика в мире, объём информации, и Россия может предоставить самый простой и надёжный способ передачи из Европы в Азию. В связи с этим мы начинаем большой проект прокладки современной высокоскоростной линии от западных границ России до Владивостока, и затем подводный кабель в Гонконг и в Японию. Проект масштабный, объём инвестиций составит приблизительно 40 миллиардов рублей», — сообщил Осеевский.

Текущая сеть каналов связи Ростелеком

Текущая сеть каналов связи Ростелеком

Руководитель ПАО «Ростелеком» уточнил, что половину ёмкостей новой линии планируется использовать для внутрироссийских нужд, а вторая половина будет задействована для передачи международного трафика. По его словам, срок окупаемости проекта составит пять лет. Проектная ёмкость новой ВОЛС — 96 тёмных волокон (Dark Fiber) класса ULL (Ultra Low Loss). Расчётный срок службы новой линии составляет не менее 25 лет.

Среди других крупных инфраструктурных проектов можно вспоминить сотрудничество компании «МегаФон» с финским оператором Cinia, в рамках которого планируется проложить трансарктическую оптоволоконную линию связи протяжённостью 10 тыс. км, которая свяжет Токио и Хельсинки.

Постоянный URL: http://servernews.ru/1017640
05.08.2020 [12:55], Сергей Карасёв

«Аквариус» удвоит объёмы выпуска российских ПК и серверов

Компания «Аквариус», российский разработчик и поставщик компьютерной техники для государственных и корпоративных заказчиков, объявила о расширении производственных мощностей своего завода в городе Шуе Ивановской области. Запущены новые цеха с современным ленточным конвейером и высокоскоростными линиями поверхностного и штыревого монтажа.

Завод «Аквариуса» в Шуе — одно из старейших в стране негосударственных IT-производств: эта площадка существует более 30 лет. До сих пор компания изготавливала здесь ряд системных плат для своей продукции, модули памяти, специализированные контроллеры, модули доверенной загрузки. Кроме того, «Аквариус» выполнял заказы как контрактный производитель.

Модернизация предприятия позволит компании осуществлять монтаж всех типов системных плат, а также удвоить объёмы производства. Инвестиции в проект уже составили $5 млн, ещё $10 млн планируется вложить в течение двух ближайших лет.

Отмечается, что новая линия поверхностного монтажа осуществляет установку всех типов электронных компонентов на печатную плату. Цех оснащён постами для оптической инспекции (AOI), которые позволяют автоматически контролировать критические этапы сборки печатного узла, такие как качество нанесения припойной пасты и установки компонентов до и после пайки. Все готовые печатные узлы проходят дополнительный контроль пайки на рентгеновской установке, позволяющей выявить недоступные для визуальных систем дефекты.

В свою очередь, линия штыревого монтажа получила автоматизированные установки пайки волной припоя для смешанного монтажа и очистки печатных плат после пайки.

В целом, производственные мощности выросли в два раза. Если раньше был возможен выпуск приблизительно 400 тыс. устройств в год, то теперь — 800 тыс. В настоящее время общая площадь производства составляет 11 300 м2

Постоянный URL: http://servernews.ru/1017489
31.07.2020 [22:55], Илья Коваль

Серия безвентиляторных серверов AdvantiX «Брусника» на базе российских CPU Эльбрус пополнится новыми моделями

ООО «Адвантикс», российский производитель промышленных IT-систем, и АО «МЦСТ», разработчик отечественных микропроцессоров «Эльбрус», заключили соглашение о стратегическом сотрудничестве, в рамках которого, в частности, планируется совместная работа над новыми промышленными компьютерами серии AdvantiX «Брусника».

В серии AdvantiX «Брусника» на текущий момент есть три решения. Первое и наиболее интересное — 2U-сервер ВКП-Б2/ЭЛ4С-A1 на базе четырёхъядерного российского процессора Эльбрус-4С. Модель имеет безвентиляторное исполнение и пассивную систему конвекционного охлаждения, компонентов с движущимися частями в ней нет. Они ориентирована на безостановочную работу в режиме 24/7 при температуре от +5° до +35° C.

AdvantiX «Брусника» ВКП-Б2/ЭЛ4С-A1

AdvantiX «Брусника» ВКП-Б2/ЭЛ4С-A1

Два других решения серии AdvantiX «Брусника», ВКП-В2/ЭЛ4С-А1 и ВКП-В2/ЭЛ8С-А1, также представляют собой 2U-серверы с процессорами Эльбрус-4С и Эльбрус-8С соответственно. Они также относятся к промышленным компьютерам и рассчитаны на круглосуточную работу. Отличие от первой модели в том, что они снабжены привычным воздушным охлаждением и могут работать при температуре от +5° до +40° C. Конструкция шасси такова, что вентиляторы можно заменить через переднюю панель корпуса.

AdvantiX «Брусника» ВКП-В2/ЭЛ4С-А1 и ВКП-В2/ЭЛ8С-А1

AdvantiX «Брусника» ВКП-В2/ЭЛ4С-А1 и ВКП-В2/ЭЛ8С-А1

Прочие возможности систем определяются, в первую очередь, чипсетом КПИ (для Эльбрус-4С) или КПИ-2 (для Эльбрус-8С и более новых). Серверы поставляются в комплекте с ОС «Эльбрус». Заявлена поддержка Astra Linux Special Edition, ЗОСРВ «Нейтрино-Э», а также Windows XP и 7 (в режиме бинарной трансляции).

Технические характеристики AdvantiX «Брусника» на базе CPU «Эльбрус»

Технические характеристики AdvantiX «Брусника» на базе CPU «Эльбрус»

Ожидается, что сотрудничество компаний ускорит разработку производительных безвентиляторных решений на базе более быстрого и современного восьмиядерного процессора Эльбрус-8СВ. Такие системы позволят расширить использование отечественных систем в промышленности и прочих критически важных сферах, таких как транспорт, энергетика, добыча полезных ископаемых и других.

Постоянный URL: http://servernews.ru/1017188
31.07.2020 [16:02], Сергей Карасёв

Российская система IIoT.ISTOK обеспечивает мониторинг технологических процессов

Холдинг «Росэлектроника», входящий в госкорпорацию Ростех, сообщил о разработке специализированной системы промышленного Интернета вещей (Industrial Internet of Things, IIoT). Решение позволяет создавать «цифровые предприятия» с удалённым контролем оборудования и прогнозированием возможных неполадок.

Система получила название IIoT.ISTOK — в её разработке участвовали специалисты НПП «Исток» им. Шокина. Датчики, установленные на оборудовании, объединены единой виртуальной сетью для построения централизованной среды мониторинга и управления технологическими процессами. Информация с них выводится в центр управления производством.

Платформа позволяет оборудованию самостоятельно обмениваться информацией для оптимизации работы системы и обеспечения автономности. Также реализованы средства самодиагностики и самообслуживания.

Изображения «Росэлектроники»

Изображения «Росэлектроники»

IIoT.ISTOK даёт возможность в режиме реального времени контролировать работу и состояние производственных линий. Внедрение системы обеспечивает существенную экономию средств на техническом обслуживании и позволяет снизить эксплуатационные расходы. Кроме того, уменьшается время простоя оборудования.

Предусмотрены различные средства обеспечения безопасности. К примеру, система выявляет отклонения от исполнения управляющей программы в случае ручного воздействия на оборудование. 

Постоянный URL: http://servernews.ru/1017160
30.07.2020 [12:47], Юрий Поздеев

NVIDIA наращивает выручку в серверном сегменте и ставит новые ИИ-рекорды с GPU A100

NVIDIA пользуется растущим спросом на свои графические ускорители на базе Ampere со стороны операторов центров обработки данных, включая Amazon Web Services (AWS), Baidu и Microsoft, при этом доходы от бизнеса центров обработки данных приближаются к доходам от игрового сегмента.

Ранее NVIDIA сообщила о выручке в размере 3,08 млрд долларов за первый финансовый квартал, закончившийся 26 апреля 2020 года, что на 39% больше по сравнению с аналогичным периодом прошлого года, при этом чистая прибыль увеличилась на 133% по сравнению с аналогичным периодом прошлого года, достигнув 917 млн долларов. Доход от игрового бизнеса NVIDIA составил 1,34 млн долларов, увеличившись на 27% по сравнению с прошлым годом, в то время как сегмент дата-центров принес компании 1,14 млн долларов, увеличившись на 80% по сравнению с прошлым годом, впервые превысив отметку в 1 млрд долларов.

Закрепить успех на серверном направлении компании помогут свежие ИИ-тесты MLPerf.org, в которых решения NVIDIA продемонстрировала отличные результаты, установив 16 новых рекордов среди коммерчески доступных систем. Составить конкуренцию на ниве ИИ может Google, которая представила ранние тесты своего тензорного ускорителя TPU 4.0, показавшего очень хорошие результаты в MLPerf 0.7. NVIDIA, тем не менее, продемонстрировала преимущество в восьми тестах:

Для решения DGX SuperPOD (кластер из DGX A100, подключенных через HDR InfiniBand 200 Гбит/с), также были установлены восемь новых рекордов. Прирост производительности обеспечивался не только за счет более мощных ускорителей, но и за счет улучшений в программном обеспечении (CUDA graphs и библиотек CUDA-X), в котором реализована определение повторяющихся вычислений и оптимизация кода.

Анализ результатов отчета MLPerf не самая простая задача. Результаты тестов можно разделить на четыре категории, в зависимости от доступности тестируемых образцов:

  • Доступные в облаке: системы, доступные для аренды в одном из облачных сервисов;
  • Доступные для покупки: образцы, которые клиенты могут свободно приобрести;
  • Системы в предварительном доступе: в дальнейшем эти системы должны быть представлены либо в облаке, либо доступными для покупки;
  • Исследовательские: системы содержат экспериментальные аппаратные или программные компоненты, либо уже доступные компоненты, объединенные в большой кластер.

Набор тестов MLPerf Training измеряет время, необходимое для прохождения одной из восьми моделей машинного обучения для достижения результатов с установленной точностью в таких задачах, как классификация изображений, рекомендации, перевод и игра в Го. Последняя версия MLPerf включает в себя два дополнительных теста и один существенно переработанный:

  • BERT: двунаправленное представление кодировщика от Transformers (Bert), обученного в Википедии — это передовая языковая модель, широко используемая в задачах обработки естественного языка. При вводе текста языковые модели предсказывают родственные слова и используются для построения текста в результатах поиска, ответов на вопросы и автоматического создания текстов;
  • DLRM: модель рекомендаций по глубокому обучению, с использованием набора данных CTR (Criterio AI Lab), представляет широкий спектр коммерческих приложений, типичными примерами являются рекомендации для онлайн-покупок, результаты поиска и рейтинг контента в социальных сетях;
  • Mini-Go: обучение в игре Го, но с использованием полноразмерной доски 19×19, чтобы повысить сложность модели.

Из девяти компаний, представивших результаты в тестах MLPerf, семь использовали графические ускорители NVIDIA, включая поставщиков облачных услуг (Alibababa Cloud, Google Cloud, Tencent Cloud) и производителей серверов (Dell, Fujitsu и Inspur), что показывает, как разнообразна экосистема NVIDIA. Результаты, продемонстрированные NVIDIA в тестах MLPerf, действительно впечатляющие, во многом это стало возможным обновлению ПО и обновленной архитектуре Ampere.

Постоянный URL: http://servernews.ru/1016990
29.07.2020 [22:04], Алексей Степин

Google похвасталась самым быстрым ИИ-суперкомпьютером на базе TPU v4

Но с такой формулировкой согласятся не все, потому что результаты опубликованного сегодня рейтинга ML Perf 0.7 можно интерпретировать слегка по-разному. Например, NVIDIA говорит о самом быстром суперкомпьютере — на базе A100, конечно — среди коммерчески доступных решений. Тогда как Google использовала в тестах не анонсированные официально тензорные ускорители TPU v4.

Когда речь идёт о системах машинного интеллекта, обычно подразумевается либо использование уже натренированных нейросетей, либо процесс тренировки новой сети. Последний требует на порядки больше вычислительных возможностей и подразумевает использование мощных многоядерных систем. Для оценки производительности зачастую и применяется набор тестов MLPerf.  Что касается полного списка участников MLPerf 0.7 c подробными результатами, то он есть на сайте проекта MLPerf.

Разработкой собственных ускорителей машинного обучения Google занимается давно: ещё в 2017 году мы описывали одну из первых моделей TPU, способную быстро перемножать матрицы размером 256 × 256. Ещё недавно третья версия TPU установила ряд рекордов именно в области «натаскивания» нейросетей. Основой системы-рекордсменки тогда стал модуль Cloud TPU Pod, каждый из таких модулей содержал более 1000 чипов Google TPU и развивал свыше 100 Пфлопс.

Результаты, опубликованные Google. Серые столбики — быстрейшие соперники, не относящиеся к Google

Результаты, опубликованные Google. Серые столбики — быстрейшие соперники, не относящиеся к Google

Главным конкурентом Google в этой области можно назвать NVIDIA, которая также уделяет весьма серьёзное внимание развитию ИИ-ускорителей. Даже решения на базе V100 легко конкурировали с Google TPU v3, а новейшие A100 на базе архитектуры Ampere продемонстрировали в MLPerf Training ещё более высокий уровень производительности.

Google TPU v3 и v4 против NVIDIA и Huawei. Источник: ExtremeTech

Google TPU v3 и v4 против NVIDIA и Huawei. Источник: ExtremeTech

Однако Google сдаваться не собирается и подразделение Google Research опубликовало результаты нового тестирования MLPerf Training 0.7, основой которого стали ещё не анонсированные официально тензорные сопроцессоры TPU v4. Повергнуть в прах A100 во всех тестах не удалось, но соперничество вышло вполне достойное: в некоторых сценариях быстрее всё же оказалась NVIDIA, но в других вперёд вышла разработка Google.

NVIDIA, в свою очередь, сообщает о 16 рекордах при использовании новейших DGX A100 и отдельно отмечает, что её продукты доступны для приобретения (и запуска любых тестов ML Perf или реальных нагрузок), тогда как результаты конкурентов зачастую или неполны, или получены на оборудовании, имеющем экспериментальный характер или которое невозможно приобрести прямо сейчас.

Новая тест-платформа Google TPU содержит в четыре раза больше ИИ-сопроцессоров, их число достигает 4096

Новая тест-платформа Google TPU содержит в четыре раза больше ИИ-сопроцессоров, их число достигает 4096

Для тестирования использовались реализации ИИ-моделей на TensorFlow, JAX, PyTorch, XLA и Lingvo. Четыре из восьми моделей удалось «натаскать» менее чем за 30 секунд, что является весьма впечатляющим результатом. Для сравнения, в 2015 на современном тому времени «железе» аналогичный процесс обучения занял бы более трёх недель. В целом TPU v4 обещает быть в 2,7 раза быстрее TPU v3, но все точки над i расставит официальный анонс четвёртой итерации сопроцессора Google.

Более подробная информация о тестировании MLPerf 0.7 содержится в официальном блоге Google Cloud. Там же можно найти и детали о системах на базе TPU, но эта информация пока ограничена третьей версией чипа. Пока известно, что четвёртое поколение TPU более чем в два раза быстрее на операциях перемножения матриц, может похвастаться более быстрой подсистемой памяти и имеет усовершенствованную систему интерконнекта.

Постоянный URL: http://servernews.ru/1016976
29.07.2020 [20:59], Илья Коваль

Всё своё: российский Linux-дистрибутив Альт 9.1 поддерживает платформы Байкал, Эльбрус и Салют

Компания «Базальт СПО», российский разработчик ОС на базе Linux, представила релиз трёх дистрибутивов серии Альт 9.1: «Альт Сервер», «Альт Рабочая станция» и «Альт Образование». Ключевое изменение — расширение списка поддерживаемых аппаратных платформ, который пополнился несколькими решениями отечественной разработки. Для большинства архитектур ядро обновлено до актуальной версии Linux 5.4.

Образ «Альт Рабочая станция» доступен для свежей Mini-ITX платы на базе процессора Байкал-М (64-бит ARM) и модуля серии Салют-ЭЛ24ПМ (32-бит ARM). Для популярного одноплатного компьютера Raspberry Pi 4 доступны сборки «Альт Рабочая станция» и «Альт Образование». Они же поддерживают Raspberry Pi 3 и NVIDIA Jetson Nano Developer Kit.

Среди других AArch64-платформ, в основном серверных, есть довольно старые Applied Micro X-Gene 1 и Marvell ThunderX, а также более современные HiSilicon Kunpeng 916/920. К ним в последнем релизе добавилась плата Huawei Kunpeng Desktop Board. Решения HiSilicon Kunpeng пока нельзя назвать в полной мере отечественными, но Huawei стремится к локализации производства систем вместе с российскими партнёрами.

Среди других архитектур, поддерживаемых в рамках девятой платформы ALT есть, конечно, e2kv3 и e2kv4 — это процессоры Эльбрус-8С, Эльбрус-8С1, Эльбрус-4С и Эльбрус-1С+. Правда, для них образы ОС свободно не распространяются, так как требуется наличие подписанного NDA с разработчиком, то есть МЦСТ. Также имеется поддержка mipsel для плата на базе Байкал-Т1 и китайского Loongson 3A. Наконец, дистрибутив умеет работать с процессорами ppc64le (POWER8/POWER9 и OpenPower), которые используются в СХД YADRO. Ведётся работа над поддержкой RISC-V (riscv64).

Релиз «Альт Сервер виртуализации 9.1» запланирован на начало осени.

Постоянный URL: http://servernews.ru/1016978
28.07.2020 [18:10], Алексей Степин

Российские суперкомпьютеры РСК попали в свежий рейтинг IO500

Виртуальный институт подсистем ввода-вывода (Virtual Institure for I/O, VI4IO) начал свою деятельность в 2016 году. Целью этой некоммерческой открытой организации стало предоставление платформы для обмена информацией в области исследований, касающихся I/O-подсистем суперкомпьютеров и кластерных систем. В этом году, по результатам проведённых исследований, VI4IO представила первый официальный рейтинг IO500, который обещает стать столь же популярным, как и TOP500 и Green500.

Официальный логотип нового рейтинга IO500

Теперь для попадания системы с IO500 существует стандартизированный набор правил и тестов, включающих в себя такие компоненты, как подтесты на чистую пропускную способность, на производительность при работе с метаданными и на скорость поиска в пространстве имён (namespace).

Сам набор тестов открытый, проект имеет собственный репозиторий на GitHub, там же содержится полная инструкция по запуску и получению результатов. Комплект IO500 построен на основе существующих популярных бенчмарков и имеет модульную структуру. Благодаря поддержке плагинов возможно тестирование различных альтернативных систем хранения данных.

Российские системы мы отметили красным

Российские системы мы отметили красным

Ранние результаты в официальный список IO500 не входят, поскольку с 2017 года правила менялись, но в нём присутствуют результаты с конференций SC19 и ISC 2020. Несмотря на все успехи ARM в сфере супервычислений, первое место в рейтинге всё же принадлежит Intel с её системой Wolf, способной развивать свыше 8,6 миллионов IOPS и продемонстрировавшей линейную скорость более 370 Гбайт/с. Высокое место занял и китайский комплекс Tianhe-2E, который также базируется на архитектуре x86.

Говорун стал отличаться ещё большим умом и сообразительностью после апгрейда 2018 года

В список попали и российские системы, разработанные, созданные и введённые в строй группой компаний РСК. Это гетерогенный суперкомпьютер «Говорун», установленный в ОИЯИ и одна из систем серии «Торнадо», располагающаяся в СПбПУ, занимающие 17 и 22 место соответственно. «Говорун» базируется на процессорных компонентах Intel Xeon Phi и Xeon Scalable в сочетании с узлами NVIDIA DGX-1 Volta. Система СПбПУ также имеет гетерогенную архитектуру, но в качестве ускорителей в ней применены NVIDIA Tesla K40X. В обоих случаях в качестве файловой системы используется Lustre.

С результатами IO500 можно ознакомиться на сайте проекта, там же есть и информация о том, как считается и формируется рейтинг.

Постоянный URL: http://servernews.ru/1016841
22.07.2020 [17:44], Владимир Мироненко

NVIDIA и Университет Флориды построят самый быстрый в сфере высшего образования ИИ-суперкомпьютер

Университет Флориды и чипмейкер NVIDIA объявили о планах по созданию самого быстрого в мире в сфере высшего образования суперкомпьютера для искусственного интеллекта, обеспечивающего производительность в пределах 700 петафлопс.

Главным источником финансирования данного проекта стали пожертвования со стороны NVIDIA, предоставившей безвозмездно для проекта оборудование, программное обеспечение и услуги по обучению на общую сумму $25 млн, а также выпускника университета и соучредителя NVIDIA Криса Малаховски (Chris Malachowsky), вложившего $25 млн. Университет Флориды направит $20 млн на строительство ЦОД с акцентом на применение ИИ.

Итоговая стоимость проекта составила $70 млн. Реализация проекта позволит Университету Флориды улучшить свой нынешний суперкомпьютер HiPerGator с помощью NVIDIA. Обновлённый суперкомпьютер будет запущен к началу 2021 года.

HiPerGator третьего поколения получит доступ к самому современному программному обеспечению ИИ от NVIDIA и будет использовать 140 систем NVIDIA DGX A100 с 1120 графическими процессорами NVIDIA A100 и интерконнектом Mellanox HDR InfiniBand, обеспечивающим скорость передачи данных на уровне 200 Гбит/с.

Постоянный URL: http://servernews.ru/1016337
Система Orphus