Лента новостей

01.03.2024 [18:50], Руслан Авдеев

Разработчики космического ЦОД Lonestar Data проверили возможность хранения данных на Луне, но проблемы с «Одиссеем» не дали продолжить эксперименты

Американская Lonestar Data Holdings провела финальную фазу тестов ЦОД-технологий будущего с помощью лунного посадочного модуля Odysseus («Одиссей»), относительно успешно добравшегося до Луны. Datacenter Dynamics напоминает, что эксперимент провели в рамках миссии IM-1 компании Intuitive Machines.

Lonestar передала тексты Декларации независимости и Конституции США с Земли на Луну, а также текст Билля о правах и некоторые данные для штата Флорида. Декларацию отправляли на Odysseus неоднократно — сначала во время полёта к Луне, потом при выходе на окололунную орбиту. Эти тесты были ориентированы на проверку надёжности передачи и хранения данных.

Следующая миссия, тоже при участии Intuitive Machines, предусматривает размещение на Луне небольшого ЦОД. Речь идёт о проекте IM-2, который получит специальный SSD-модуль ёмкостью 8 Тбайт и единственную ПЛИС Microchip PolaFire SoC. Этот комплекс станет первым лунным дата-центром Lonestar, хотя и очень простым. Компания намерена проверить, как подобная СХД поведёт себя в экстремальных условиях на поверхности спутника Земли.

 Изображение: Intuitive Machines

Изображение: Intuitive Machines

Впрочем, до реализации IM-2 ещё далеко, особенно с учётом технических проблем, которые привели к не вполне удачному выполнению миссии IM-1, на участие в которой Lonestar привлекла немалые средства. Хотя на первом этапе при посадке проблемы удалось частично решить, позже выяснилось, что посадочный модуль опрокинулся, но смог передать некоторые данные, в том числе связанные с миссией Lonestar. В компании сообщили о «непревзойдённом коммерческом успехе» и даже открытии новой эпохи лунных проектов.

Постоянный URL: https://www.servernews.ru/1101089
01.03.2024 [14:49], Сергей Карасёв

СберТех открыл платформу GitVerse для совместной разработки и хостинга кода

IT-компания СберТех, дочерняя структура Сбера, занимающаяся созданием и сопровождением российского ПО серии Platform V, объявила о доступности специализированной платформы GitVerse для совместной разработки и хостинга кода.

На базе GitVerse можно бесплатно размещать проекты с открытым и закрытым кодом. Кроме того, программисты смогут привлекать других участников, организовывать совместную работу, общаться и обмениваться опытом, в том числе в области open source. Доступны средства для проверки кода и назначения задач.

Сервис создан и размещён в России, а поэтому исключены риски недоступности разработок и кода для российских пользователей. Реализованы функции быстрого переноса репозиториев с популярных git-площадок. Доступ к проекту может предоставляться только собственной команде или всему сообществу. Утверждается, что GitVerse обеспечивает высокую скорость выполнения всех операций. На платформе уже доступны open source версии некоторых продуктов СберТеха.

 Источник изображения: GitVerse

Источник изображения: GitVerse

Первые пользователи, зарегистрировавшиеся на GitVerse, смогут присоединиться к открытому тестированию GigaCode — персонального ИИ-ассистента, оказывающего помощь программистам. Этот сервис генерирует варианты завершения кода непосредственно в среде разработки в режиме реального времени. Поддерживаются более 15 языков программирования, включая Java, Python, TypeScript, C/C++ и пр. Помощник устанавливается как плагин в привычные среды разработки, такие как IDEA, PyCharm, VSCode и Jupyter. Отмечается, что GigaCode позволяет сократить время написания кода до 25 %.

«GitVerse позволяет не только публиковать свои проекты, но и взаимодействовать с open source сообществом, что сегодня крайне важно для рынка. Уверен, что GitVerse станет популярным и востребованным инструментом для всей IT-индустрии. Совместно с ведущими разработчиками мы будем работать над размещением на площадке ещё большего количества востребованных репозиториев и сервисов», — говорит старший вице-президент, руководитель блока «Технологии» Сбербанка.

Постоянный URL: https://www.servernews.ru/1101082
01.03.2024 [13:42], Сергей Карасёв

Nutanix получила первую прибыль в своей истории и надеется переманить клиентов VMware

Компания Nutanix, разработчик решений в области гибридных мультиоблачных платформ и HCI, обнародовала отчёт о работе во II четверти 2024 финансового года, которая была закрыта 31 января. Отмечается, что спустя 15 лет после основания и 8 лет после публичного размещения акций (IPO) фирма компания достигла зрелости, впервые получив прибыль по итогам квартала.

Выручка за трёхмесячный период составила приблизительно $565,2 млн. Это на 16 % больше по сравнению с результатом годичной давности, когда было получено $486,5 млн. Собственно продажи продуктов принесли $299,7 млн против $250,5 млн во II квартале 2023 финансового года. Поддержка и другие сервисы обеспечили $265,6 млн выручки против 236,0 млн годом ранее. Продемонстрированные показатели превзошли ожидания аналитиков.

 Источник изображения: Nutanix

Источник изображения: Nutanix

Nutanix получила первую в своей истории квартальную прибыль. Она составила $32,8 млн, или 12 центов в пересчёте на одну ценную бумагу. Для сравнения: годом ранее компания понесла чистые убытки в размере $70,8 млн, что эквивалентно 31 центу на акцию. Наряду с улучшением финансовых показателей Nutanix продолжает расширять свою клиентскую базу: за квартал появилось 440 новых заказчиков, в результате чего их общее количество достигло 25 370.

Nutanix прогнозирует устойчивый спрос на свои продукты в обозримой перспективе. Сделка по приобретению корпорацией Broadcom компании VMware создаёт неопределённости для клиентов последней, а поэтому некоторые из них ищут альтернативные решения. В такой ситуации платформы Nutanix могут стать подходящим выбором. В III квартале 2024 финансового года Nutanix рассчитывает продемонстрировать выручку от $510 млн до $520 млн.

Постоянный URL: https://www.servernews.ru/1101063
01.03.2024 [13:38], Сергей Карасёв

Объём мирового рынка облачных инфраструктур в 2023 году достиг $290 млрд

Компания Canalys представила результаты исследования мирового рынка облачных инфраструктур в IV квартале и 2023 году в целом. Отрасль продолжает развиваться, чему способствует стремительный рост спроса на услуги, связанные с генеративным ИИ и машинным обучением.

В последней четверти 2023-го объём рынка достиг $78,1 млрд. Это на 19 %, или на $78,1 млрд, больше по сравнению с аналогичным периодом предыдущего года. Затраты в 2023 году в целом составили $290,4 млрд по сравнению с $247,1 млрд в 2022-м. Таким образом, зафиксирован рост примерно на 18 %.

 Источник изображений: Canalys

Источник изображений: Canalys

Крупнейшим мировым поставщиком облачных услуг остаётся Amazon Web Services (AWS) с долей приблизительно 31 % по итогам IV квартала 2023 года. Выручка компании увеличилась на 13 % в годовом исчислении. На втором месте располагается Microsoft Azure с долей около 26 % и ростом выручки на 30 % по отношению к последней четверти 2022-го. Замыкает тройку платформа Google Cloud, у которой выручка в годовом исчислении поднялась на 26 %, а рыночная доля оказалась на отметке 10 %.

Canalys отмечает, что в совокупности три названные компании занимают две трети — 66 % — глобального облачного рынка. Все прочие игроки сообща удерживают 34 %. Ожидается, что в дальнейшем расширению отрасли будут способствовать новые приложения на базе ИИ, а также большие языковые модели. Аналитики прогнозируют, что в 2024 году объём рынка в денежном выражении увеличится на 20 %. Если эти ожидания оправдаются, суммарные затраты могут достичь почти $350 млрд.

Постоянный URL: https://www.servernews.ru/1101064
01.03.2024 [13:32], Сергей Карасёв

Alibaba значительно снизила цены на облачные услуги в Китае

Облачная платформа Alibaba Cloud, по сообщению ресурса The Register, существенно снизила стоимость услуг для клиентов в Китае, которые заключают многолетние соглашения на обслуживание. Цены на определённые сервисы на базе Alibaba Cloud Elastic Compute Service (ECS) снижены на 36 %.

В рамках некоторых соглашений тарифы на объектное хранилище упали на 55 % — при условии увеличения сроков резервирования ресурсов Alibaba Cloud с одного года до двух–пяти лет. Стоимость облачных баз данных снижена до 40 %. При этом удвоен объём бесплатного трафика: он теперь составляет 20 Гбайт против прежних 10 Гбайт.

 Источник изображения: Alibaba

Источник изображения: Alibaba

Новая политика, как ожидается, поможет платформе Alibaba Cloud увеличить количество клиентов в КНР и дополнительно стимулировать местные предприятия к переходу на облачные услуги. Кроме того, снижение цен может способствовать развитию приложений на основе ИИ. Причём это уже второе снижение тарифов за год. Ранее облачное подразделение Alibaba столкнулось со снижением темпов роста.

В конце прошлого года Alibaba отказалась от планов по выделению облачного бизнеса в самостоятельную публичную компанию. Связано это с ужесточение санкций со стороны США. Говорится, что политика американских властей может негативно повлиять на возможности группы предлагать облачные продукты и услуги, а также выполнять обязательства по существующим контрактам. В такой ситуации Alibaba вынуждена более активно развивать облачный бизнес на китайском рынке. Гиперскейлер также стремился избавиться от низкорентабельных клиентов.

Alibaba — не единственная компания, которая пытается сделать долгосрочные контракты более привлекательными для заказчиков. AWS и Microsoft Azure уже сделали резервирование мощностей самым доступным способом потребления своих услуг. Эта тактика позволяет более предсказуемо оценивать расходы на развитие и поддержание облачных инфраструктур.

Постоянный URL: https://www.servernews.ru/1101059
01.03.2024 [13:22], Сергей Карасёв

MiTAC представила серверы с процессорами Intel Xeon Emerald Rapids, ускорителями Intel Max и Flex

Компания MiTAC Computing Technology, выкупившая бизнес Intel по производству серверов, анонсировала серверы, выполненные на новейшей аппаратной платформе Intel Xeon Emerald Rapids. В оснащение систем, оптимизированных для HPC-задач и приложений ИИ, входят ускорители серий Intel Max и Intel Flex.

Одна из новинок — сервер M50FCP2UR208 в форм-факторе 2U (ранее Intel Fox Creek Pass). Он допускает установку двух ускорителей Intel Data Center GPU Max 1100 (Ponte Vecchio) или четырёх изделий Intel Data Center GPU Flex 140/170 (Arctic Sound-M). Возможно использование чипов Xeon Emerald Rapids с показателем TDP до 350 Вт.

Предусмотрены 32 слота для модулей DDR5 суммарным объёмом до 12 Тбайт. Кроме того, есть разъёмы PCIe 5.0 в различных конфигурациях (в зависимости от модификации), десять SATA-портов, слот OCP 3.0 и пять портов USB. Мощность блока питания достигает 2100 Вт. Имеются отсеки для 24 SSD типоразмера SFF. Допускается организация массивов RAID 0/1/5/10. Габариты сервера составляют 770 × 438 × 87 мм.

 Источник изображения: MiTAC

Источник изображения: MiTAC

Кроме того, дебютировали системы D50DNP1MFALLC и D50DNP2MFALAC (ранее Intel Denali Pass). Первая рассчитана на четыре ускорителя Intel Data Center GPU Max 1550 (Ponte Vecchio), вторая — на четыре карты Intel Data Center GPU Max 1100. Используется форм-фактор 2U4N — 2U-корпус с четырьмя узлами. В зависимости от варианта исполнения задействовано воздушное или жидкостное охлаждение.

Говорится о поддержке оперативной памяти стандарта DDR5 (16 слотов; до 2 Тбайт) и высокопроизводительных сетевых карт, в том числе с пропускной способностью до 400 Гбит/с. Среди прочего упомянута поддержка Intel Dynamic Load Balancer, Intel QAT, Intel DSA и Intel IAA. Обе модели получили два коннектора M.2 для SSD, а вариант D50DNP2MFALAC также снабжён двумя фронтальными SFF-отсеками.

Постоянный URL: https://www.servernews.ru/1101058
29.02.2024 [23:59], Алексей Степин

Intel анонсировала платформу vPro для Raptor Lake-R, Meteor Lake-U и Meteor Lake-H

Как правило, Intel анонсирует новые поколения корпоративной платформы vPro уже после анонса полной серии новых процессоров. Не стал исключением и 2024 год — на MWC 2024 компания объявила о поддержке vPro процессорами 14-ого поколения. Речь идёт как о серии Core на базе микроархитектуры Raptor Lake-R, так и о новейших мобильных чипах Meteor Lake — Core Ultra-H и -U. Анонсирована поддержка как базовой версии vPro Essential, так и корпоративной vPro Enterprise.

Впервые платформа vPro Essentials была анонсирована в 2022 году как подмножество более полного пакета технологий vPro, который сейчас получил приставку Enterprise к названию. Первый вариант предназначен в основном для малого бизнеса, однако обеспечивает поддержку аппаратных возможностей по обеспечению безопасности, в том числе с использованием ИИ в технологии Intel Threat Detection Technology (TDT), которая работает ниже уровня ОС.

 Источник здесь и далее: Intel via AnandTech

Источник здесь и далее: Intel via AnandTech

Версия vPro Enterprise ориентирована на крупный бизнес и отличается наличием инструментов для управления большим парком ПК и ноутбуков. Это, например, поддержка out-of-band KVM, беспроводной вариант Intel AMT, улучшенная техподдержка, а также безопасное удалённое стирание информации в системах, оснащённых накопителями Intel SSD Pro.

Intel разграничила поддержку разных версий vPro в зависимости от модели процессора. К примеру, в 14-ом поколении настольных чипов Core (Raptor Lake-R) оверклокерские модели с суффиксом K поддерживают только vPro Enterprise, тогда как остальные CPU могут работать с обеими версиями vPro. Не поддерживаются лишь чипы без интегрированной графики, с суффиксами F и KF. Для работы технологии требуется системная плата с одним из двух чипсетов — либо Q670, либо W680.

С мобильными процессорами всё сложнее. Raptor Lake Refresh в список корпоративных моделей не вошли и поддержки vPro не получили. А вот мобильные Meteor Lake-U и Meteor Lake-H поддержку таковую обрели, но (в отличие от Raptor Lake-R) моделей, поддерживающих одновременно оба варианта vPro, не предусмотрено. Intel уверена в популярности новых решений и говорит о более чем 90 дизайнах коммерческих ПК на базе новых процессоров, которые поступят в продажу уже в этом квартале.

Постоянный URL: https://www.servernews.ru/1101036
29.02.2024 [23:59], Владимир Мироненко

ServiceNow, Hugging Face и NVIDIA представили новое поколение ИИ-моделей StarCoder2 для генерации кода

Компании ServiceNow, Hugging Face и NVIDIA представили семейство общедоступных больших языковых моделей (LLM) StarCoder2 для генерации кода, призванное помочь разработчикам использовать генеративный ИИ для создания корпоративных приложений.

Семейство было разработано NVIDIA в сотрудничестве с исследовательским проектом BigCode, которым управляет ServiceNow, и Hugging Face, разработчиком открытой LLM-платформы. Модели StarCoder2 обучены 619 языкам программирования и могут быть дообучены на собственных данных и встроены в корпоративные приложения для выполнения специализированных задач, таких как генерация кода, управление рабочими процессами, обобщение текста и многое другое. Разработчики могут использовать автодополнение и обобщение кода, извлечение фрагментов кода и другие возможности.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Набор StarCoder2 включает три модели: модель с 3 млрд параметров, обученная ServiceNow; модель с 7 млрд параметров, обученная Hugging Face; и модель с 15 млрд параметров, созданная NVIDIA с помощью NVIDIA NeMo. Варианты моделей с меньшим количеством параметров менее требовательны к вычислительной инфраструктуре, при этом модель StarCoder2 с 3 млрд параметров соответствует производительности исходной модели StarCoder с 15 млрд. параметров

В основе StarCoder2 лежит новый набор данных Stack v2, который более чем в 7 раз больше, чем Stack v1. Кроме того, новые модели обучены работе с малораспространёнными языками вроде COBOL, «понимают» математику и могут обсуждать исходный код программ. Пользователи могут дообучить и настроить модели StarCoder2, используя данные, специфичные для отрасли или организации, с помощью NVIDIA NeMo или Hugging Face TRL. Разработчики смогут создавать продвинутых чат-ботов для решения более сложных задач обобщения или классификации и разрабатывать персонализированных помощников по программированию.

 Источник изображения: Hugging Face

Источник изображения: Hugging Face

Разработка ПО стала основной областью использования ИИ, чему отчасти способствовали такие инструменты как GitHub Copilot и AWS CodeWhisperer, отметил ресурс SiliconANGLE. Согласно недавнему опросу GitHub, 91 % разработчиков в США используют ИИ-инструменты для создания кода. Впрочем, опрос, проведённый CoderPad Inc., показал, что почти четверть разработчиков скептически относятся к ценности ИИ в работе, а 28 % и вовсе заявили, что их работодатель запрещает им пользоваться ИИ-инструментами.

В числе причин негативного отношения — опасения, что ИИ-помощники создают неэффективный или уязвимый код, а также крадут интеллектуальную собственность, генерируя код на основе материалов, защищённых авторским правом, которые использовались при обучении модели. Создатели StarCoder2 подчёркивают, что модели были созданы с использованием данных Software Heritage, крупнейшей, по их словам, общедоступной коллекцию исходных кодов.

В целях дальнейшего повышения прозрачности и сотрудничества вспомогательный код модели будет по-прежнему размещаться на странице проекта BigCode на GitHub. Он доступен по лицензии BigCode OpenRAIL-M, обеспечивающей бесплатный доступ и использование. Все модели StarCoder2 также будут доступны для загрузки с Hugging Face, а модель StarCoder2 с 15 млрд параметров доступна в составе NVIDIA AI Foundation.

Постоянный URL: https://www.servernews.ru/1101041
29.02.2024 [21:09], Андрей Крупин

В полку российских СУБД прибыло: SoQoL вышла в релиз

Компания «Реляционные экспертные системы» («РЕЛЭКС») сообщила о релизе и выпуске на рынок коммерческой версии реляционной системы управления базами данных SoQoL.

Согласно представленным на сайте продукта сведениям, SoQoL является полностью отечественной разработкой, созданной с чистого листа без использования Open Source-компонентов. Архитектура платформы основана на синтезе современных неблокирующих подходов обработки данных в памяти и работе с данными на внешних носителях, эффективном использовании кэша и адаптивности системы исполнения запросов. СУБД поддерживает работу с большими дисковыми массивами данных, реализует все требования ACID, предоставляет различные уровни изоляции транзакций и отвечает требованиям стандарта ANSI SQL.

 Источник изображений: «РЕЛЭКС» / soqol.ru

Здесь и далее источник изображений: «РЕЛЭКС» / soqol.ru

По заверениям компании-разработчика, отличительной особенностью SoQoL является высокая производительность при обработке данных. Кроме того, в архитектуру СУБД заложены такие составляющие, как кроссплатформенность, поддержка кластерных и облачных инфраструктур, работа в различных операционных системах и аппаратных средах, включая российские.

Отмечается, что, несмотря на свои российские корни, СУБД SoQoL разработана для использования не только на внутреннем рынке, но и за его пределами. Платформа может применяться в автоматизированных системах управления технологическими процессами (АСУ ТП), системах мониторинга и телематики, программных комплексах класса ERP, MES и CRM, системах дистанционного банковского обслуживания и прочих требовательных к производительности продуктах, где требуется OLTP СУБД с последующей поддержкой OLAP.

 Дорожная карта SoQoL

Дорожная карта SoQoL

В планах разработчика — расширение функциональных возможностей СУБД SoQoL и сертификация решения на соответствие требованиям ФСТЭК, ФСБ и Министерства обороны РФ.

Продукт зарегистрирован в реестре отечественного ПО Минцифры России и может использоваться государственными и коммерческими организациями в рамках реализации проектов по импортозамещению программных решений.

Постоянный URL: https://www.servernews.ru/1101042
29.02.2024 [19:12], Руслан Авдеев

Интегрировать ЦОД с системами отопления Великобритании непросто, но в принципе возможно

Использование «мусорного» тепла ЦОД в сетях отопления, возможно, имеет смысл с точки зрения защиты окружающей среды, но, по мнению ассоциации цифровой торговли TechUK, при внедрении подобных технологий предстоит решить ряд важных сопутствующих вопросов.

Ассоциация опубликовала доклад, посвящённый использованию ЦОД в качестве части отопительной инфраструктуры. В британском правительстве намерены интегрировать дата-центры в новые сети отопления. Потенциальные преимущества включают как снижение стоимости обогрева зданий, так и сокращение углеродных выбросов. А операторы ЦОД благодаря таким технологиям смогут экономить на электричестве и воде для своих систем охлаждения и даже, возможно, зарабатывать.

 Источник изображения: David Monaghan/unsplash.com

Источник изображения: David Monaghan/unsplash.com

При этом TechUK предупреждает, что необходимо соблюсти баланс интересов. Не так давно в Германии появились правила, требующие от всех дата-центров, потребляющих более 2,5 ГВт∙ч энергии ежегодно, или утилизировать «мусорное» тепло, или передавать его заинтересованным сторонам. Новые меры раскритиковали, поскольку для реализации плана требуется создание сложной и дорогой инфраструктуры, причём такое тепло по факту мало кому нужно.

В TechUK считают, что Великобритания должна учиться на чужом опыте. С низкотемпературным теплом дата-центров могут работать новейшие отопительные сети пятого поколения, но большинство сетей в Великобритании сегодня принадлежат к третьему, имеющему значительно худшую энергоэффективность. Есть и другая сторона — дата-центры вводятся в эксплуатацию поэтапно, поэтому на старте загрузка будет минимальной. Другими словами, первое время он станет экспортировать совсем мало тепла, поэтому для акционеров интеграция с отопительной инфраструктурой выглядят крайне сомнительно.

 Источник изображения: TechUK

Источник изображения: TechUK

С учётом того, как совершенствуются системы охлаждения, в долгосрочной перспективе вовсе не гарантируется, что ЦОД будут генерировать достаточно тепла для того, чтобы проект окупался, даже с учётом роста энергопотребления ИИ- и HPC-решениями. Летом такое тепло может оказаться и вовсе ненужным. Важную роль играет и расстояние от ЦОД до магистральной сети отопления. Небольшие дата-центры обычно расположены недалеко от объектов, которые необходимо обогревать, а вот ЦОД гиперскейлеров часто находятся далеко от поселений, так что организовать передачу тепла без потерь будет технически сложно. Наконец, коммунальные службы должны иметь беспрепятственный доступ в ЦОД, информационная неприкосновенность которых в результате может оказаться под угрозой.

 Источник изображения: TechUK

Источник изображения: TechUK

В TechUK предупреждают, что для успешного использования тепла ЦОД потребуется закладывать подобные возможности ещё на стадии проектирования как самих вычислительных мощностей, так и отопительной инфраструктуры, а модернизация старых объектов может быть сложной и дорогостоящей. В целом, как отмечается, регуляторам стоит дать операторам достаточно времени на разработку новых вариантов интеграции ЦОД в отопительную инфраструктуру.

В любом случае отраслевые эксперты называют доклад TechUK важным «звоночком» для IT-индустрии. Долгое время последняя медлила с обеспечением экоустойчивости своих ЦОД, оказавшись теперь под давлением регуляторов. Эксперты уверены, что соблюдение баланса правительственных инициатив с интересами бизнеса поможет достичь успеха, причём у Великобритании есть потенциал для того, чтобы стать лидером в сфере сотрудничества ЦОД и коммунальных служб.

Постоянный URL: https://www.servernews.ru/1101030
Система Orphus