Материалы по тегу: hardware
04.02.2025 [16:02], Владимир Мироненко
YADRO приобрела 38 % долю в российском разработчике систем охлаждения для ЦОД «КБ Борей»Российская компания «КНС групп» (бренд YADRO, входит в «ИКС Холдинг») объявила о запуске нового направления по созданию продуктов для инженерной инфраструктуры ЦОД, для развития которого она приобрела 38-% долю в «КБ Борей», российском разработчике и производителе систем кондиционирования для ЦОД. Сумма сделки не раскрывается. Основанная в 2016 году компания «КБ Борей» занимается проектированием, производством, продажей и обслуживанием климатического оборудования. В частности, компания запатентовала технологию воздухораспределения в телекоммуникационных шкафах, разработала технологию использования воздушного рекуператора для фрикулинга в мини-ЦОД уличного исполнения. В этом году, как ожидается, она получит три новых патента по решениям для модульных ЦОД контейнерного типа. Производственная база и исследовательские объекты «КБ Борей» находятся в Москве. Среди её клиентов — крупные российские компании. В YADRO отметили, что инженерная инфраструктура ЦОД является фундаментальным звеном всей ИТ-инфраструктуры, обеспечивающим бесперебойную автоматизированную работу бизнес-процессов и надёжное хранение критически важных данных. Современное серверное оборудование требует значительных энергоресурсов и, как следствие, постоянного совершенствования систем охлаждения на всех уровнях. «Объединив собственный опыт с экспертизой “КБ Борей”, мы сможем предложить нашим клиентам ещё более эффективные комплексные отечественные решения для управления данными», — сообщили в компании. Согласно публикации «Интерфакса», уставный капитал «КБ Борей» составляет 5 млн руб., выручка в 2023 году равнялась 43,1 млн руб., чистая прибыль — 107 тыс. руб.
04.02.2025 [13:52], Сергей Карасёв
Уязвимость в процессорах AMD позволяет загрузить модифицированный микрокодСпециалисты Google Security Team сообщили об обнаружении опасной уязвимости в проверке подписи микрокода для процессоров AMD на архитектуре от Zen1 до Zen4. Уязвимость даёт возможность загрузить модифицированный микрокод, позволяющий скомпрометировать технологию виртуализации с шифрованием SEV (Secure Encrypted Virtualization) и SEV-SNP (Secure Nested Paging), а также вмешаться в работу Dynamic Root of Trust for Measurement (DRTM). Успешная эксплуатация «дыры» может привести к потере защиты конфиденциальности. Проблема заключается в том, что процессоры используют небезопасную хеш-функцию при проверке подписи обновлений микрокода. Брешь позволяет злоумышленнику с привилегиями локального администратора загрузить вредоносный микрокод CPU. Исследователи подготовили пример атаки на AMD EPYC 7B13 (Milan) и Ryzen 9 7940HS (Phoenix), в результате которой функция RDRAND вместо возврата случайного числа всегда возвращает 4. AMD подготовила патчи для защиты функций SEV в EPYC 7001 (Naples), EPYC 7002 (Rome), EPYC 7003 (Milan и Milan-X), а также EPYC 9004 (Genoa, Genoa-X и Bergamo/Siena) и Embedded-вариантов EPYC 7002/7003/9004. Для устранения проблемы требуется обновление микрокода чипов. Уязвимость получила идентификатор CVE-2024-56161. Они признана достаточно опасной — 7.2 (High) по шкале CVSS. Отмечается, что Google впервые уведомила AMD об уязвимости 25 сентября 2024 года. При этом в связи с широкой распространённостью процессоров AMD и разветвлённой сетью их поставок Google сделала единовременное исключение из стандартной политики раскрытия информации об уязвимостях и отложила публичное уведомление до 3 февраля 2025-го. Кроме того, Google не стала раскрывать полные детали о «дыре», чтобы предотвратить возможные атаки. Все подробности и инструменты будут опубликованы 5 марта 2024 года.
04.02.2025 [12:03], Владимир Мироненко
Google представила превью инстансов A4 на базе ускорителей NVIDIA B200Google объявила о предварительной доступности инстансов A4 на базе новых ускорителей B200 от NVIDIA с архитектурой архитектуры Blackwell. Инстанс A4 обеспечивает значительный прирост производительности по сравнению с предшественником A3. A4 используют системы NVIDIA HGX B200 с восемью ускорителями, объединёнными посредством NVIDIA NVLink. Как отметила компания, NVIDIA HGX B200 предлагает в 2,25 раза большую пиковую вычислительную мощность и в 2,25 раза большую ёмкость HBM по сравнению с инстансами A3, что делает A4 универсальным вариантом для обучения и тонкой настройки широкого спектра архитектур моделей, в то время как увеличенная вычислительная мощность и ёмкость HBM делают их подходящим вариантом для обработки нагрузок с низкой задержкой. Инстансы A4 интегрируют инфраструктурные инновации Google, включая улучшенные сетевые возможности с использованием адаптеров Titanium ML, поддержку управляемой службы кластера Google Kubernetes Engine и доступ через полностью управляемую унифицированную платформу Vertex AI для разработки и использования генеративного ИИ. Также используется открытое ПО: в дополнение к использованию фреймворка МО PyTorch и CUDA компания сотрудничает с NVIDIA для оптимизации JAX и XLA. Как отметила компания, эффективное масштабирование обучения модели ИИ требует точной и масштабируемой оркестрации ресурсов инфраструктуры. При этом рабочие нагрузки часто охватывают тысячи виртуальных машин. Специализированная платформа Hypercompute Cluster позволит развёртывать и управлять большими кластерами виртуальных машин A4 с вычислениями, хранением и сетями как единым целым, обеспечивая при этом высокую производительность и устойчивость для больших распределённых рабочих нагрузок.
04.02.2025 [11:54], Сергей Карасёв
Крошечная плата RP2350-USB-A за $7 оснащена контроллером Raspberry Pi RP2350В продажу, по сообщению ресурса CNX Software, поступила микроплата Waveshare RP2350-USB-A, в основу которой положен микроконтроллер Raspberry Pi. При подключении к хосту изделие может применяться для эмуляции мыши, клавиатуры или другого USB-устройства. Новинка оснащена чипом Raspberry Pi RP2350A (QFN-60; 7 × 7 мм; 30 × GPIO), который объединяет по два ядра Arm Cortex-M33 (с поддержкой Trustzone) и RISC-V Hazard3 с тактовой частотой 150 МГц (в обоих случаях). Но использовать эти кластеры сообща нельзя: одна из двух пар ядер выбирается при инициализации платы. Объём памяти SRAM составляет 520 Кбайт, SPI Flash — 2 Мбайт (для хранения прошивки). Предусмотрены два 9-контактных массива GPIO с поддержкой 2 × UART, 2 × I2C, 2 × SPI, 4 × ADC, 15 × GPIO и пр. Для подачи питания (5 В) и программирования служит порт USB 1.1 Type-C. Имеются кнопки сброса и перезагрузки, а также светодиодный RGB-индикатор. Размеры микроплаты составляют 33 × 17,5 мм. Изделие также получило разъём USB Type-A с программным вводом-выводом (PIO). Это позволяет использовать плату как в качестве USB-устройства, так и в роли хоста. Waveshare предлагает демонстрационные программы на C/C++ и Arduino. Модель RP2350-USB-A доступна для заказа по ориентировочной цене $7. Отметим, что ранее дебютировала мини-плата Pico W5, также выполненная на контроллере Raspberry Pi RP2350. Это решение оборудовано адаптерами Wi-Fi 4 802.11n (частотные диапазоны 2,4 и 5 ГГц) и Bluetooth 5.0 (LE) на основе модуля BW16 (контроллер Realtek RTL8720DN).
03.02.2025 [16:51], Руслан Авдеев
Y Combinator ищет стартапы, готовые полностью избавить ЦОД от людейАкселератор Y Combinator намерен инвестировать в компании, занимающиеся разработкой решений для комплексной автоматизации процесса проектирования, строительства и эксплуатации ЦОД, в том числе в области робототехники и ПО, сообщает Datacenter Dynamics. Обычно Y Combinator консультирует стартапы на ранних этапах работы, параллельно предоставляя финансирование, «облачные» кредиты, обеспечивая доступ к своим связям и мероприятиям. Взамен инвестор получает около 7 % доли в молодых бизнесах. В частности, с его помощью уже созданы весьма известные Airbnb, Coinbase, Cruise, DoorDash, Dropbox, Instacart, Reddit, Stripe и Twitch. Посредством Y Combinator Сэм Альтман (Sam Altman) ещё до OpenAI основал стартап Loopt. Хотя тот не преуспел, позже сам Альтман стал председателем Y Combinator, а полученные связи помогли ему создать OpenAI. Y Combinator, как и многие венчурные фонды, в последнее время много внимания уделяет ИИ, а теперь сконцентрировалась на инфраструктурных ИИ-проектах. Компания уже инвестировала в космический ЦОД Lumen Orbit, а также занимающуюся подводными дата-центрами NetworkOcean — «автономные» проекты, где люди фактически не участвуют в эксплуатации и обслуживании. Теперь Y Combinator ищет компании, способные вовсе исключить людей из всей бизнес-цепочки. В компании заявили, что нужно больше ЦОД, которые следует создавать быстрее и дешевле, с новыми решениями для инфраструктуры питания, охлаждения, закупки материалов и управления проектами. В Y Combinator видят будущее, где автономные системы будут управлять всеми аспектами планирования и создания ЦОД или складов — от выбора площадки до собственно строительства, настройки и эксплуатации. На таких объектах будут 24 часа в сутки должны работать роботы. Индустрия ЦОД давно проявляет интерес к объектам, не требующим наличие персонала. Например, американская AOL запустила первый подобный объект ещё в 2011 году. Впрочем, пока добиться полной автономности не удаётся — всё равно задействованы десятки людей, клиентов и подрядчиков. Microsoft уже пыталась реализовать Project Natick, но была вынуждена отказаться от него, хотя наработки используются для создания роботов, обслуживающих дата-центры. Задолго до бума технологий генеративного ИИ системы искусственного интеллекта применялись гиперскейлерами, например, для выбора площадок и управления ёмкостью ЦОД. В каких масштабах используются подобные технологии, хранится в секрете. ПО и системы машинного обучения также используются для регулирования цепочек поставок ЦОД. Впрочем, последние изменения, связанные с масштабным внедрением ИИ, привели к тому, что людям по-прежнему приходится активно участвовать в работе дата-центров. По оценкам Uptime Institute, в сфере ЦОД сегодня работает более 2 млн человек.
03.02.2025 [15:21], Сергей Карасёв
Реальные затраты DeepSeek на создание ИИ-моделей на порядки выше заявленных, но достижений компании это не умаляетКитайский стартап DeepSeek наделал много шума в Кремниевой долине, анонсировав «рассуждающую» ИИ-модель DeepSeek R1 c 671 млрд параметров. Утверждается, что при её обучении были задействованы только 2048 ИИ-ускорителей NVIDIA H800, а затраты на данные работы составили около $6 млн. Это бросило вызов многим западным конкурентам, таким как OpenAI, а акции ряда крупных ИИ-компаний начали падать в цене. Однако, как сообщает ресурс SemiAnalysis, фактические расходы DeepSeek на создание ИИ-инфраструктуры и обучение нейросетей могут быть гораздо выше. Стартап DeepSeek берёт начало от китайского хедж-фонда High-Flyer. В 2021 году, ещё до введения каких-либо экспортных ограничений, эта структура приобрела 10 тыс. ускорителей NVIDIA A100. В мае 2023 года с целью дальнейшего развития направления ИИ из High-Flyer была выделена компания DeepSeek. После этого стартап начал более активное расширение вычислительной ИИ-инфраструктуры. По данным SemiAnalysis, на сегодняшний день DeepSeek имеет доступ примерно к 10 тыс. изделий NVIDIA H800 и 10 тыс. NVIDIA H100. Кроме того, говорится о наличии около 30 тыс. ускорителей NVIDIA H20, которые совместно используются High-Flyer и DeepSeek для обучения ИИ, научных исследований и финансового моделирования. Таким образом, в общей сложности DeepSeek может использовать до 50 тыс. ускорителей NVIDIA при работе с ИИ, что в разы больше заявленной цифры в 2048 ускорителей. Кроме того, SemiAnalysis сообщает, что общие капитальные затраты на ИИ-серверы для DeepSeek составили около $1,6 млрд, тогда как операционные расходы могут достигать $944 млн. Это подрывает заявления о том, что DeepSeek заново изобрела процесс обучения ИИ и инференса с существенно меньшими инвестициями, чем лидеры отрасли. Цифра в $6 млн не учитывает затраты на исследования, тюнинг модели, обработку данных и пр. На самом деле, как подчёркивается, DeepSeek потратила более $500 млн на разработки с момента своего создания. И всё же DeepSeek имеет ряд преимуществ перед другими участниками глобального ИИ-рынка. В то время как многие ИИ-стартапы полагаются на внешних поставщиков облачных услуг, DeepSeek эксплуатирует собственные дата-центры, что позволяет быстрее внедрять инновации и полностью контролировать разработку, оптимизируя расходы. Кроме того, DeepSeek остаётся самофинансируемой компанией, что обеспечивает гибкость и позволяет более оперативно принимать решения. Плюс к этому DeepSeek нанимает специалистов исключительно из Китая, уделяя особое внимание не формальным записям в аттестатах, а практическим навыкам работы и способностям эффективно выполнять поставленные задачи. Некоторые ИИ-исследователи в DeepSeek зарабатывают более $1,3 млн в год, что говорит об их высочайшей квалификации.
03.02.2025 [15:06], Сергей Карасёв
Разработчик гипермасштабируемых аналитических хранилищ Ocient выбрал чипы AMD EPYC GenoaКомпания Ocient, специализирующаяся на разработке гипермасштабируемых аналитических хранилищ данных, объявила о заключении соглашения о сотрудничестве с AMD с целью повышения производительности, снижения затрат и максимизации эффективности ресурсоёмких вычислений и рабочих нагрузок ИИ. Ocient была основана в 2016 году. Компания предлагает платформу на основе реляционной базы данных с массовым параллелизмом, которая способна анализировать огромные объёмы информации (триллионы строк) за секунды или минуты. Хранилище Ocient Hyperscale Data Warehouse (OHDW) использует архитектуру Compute Adjacent Storage Architecture (CASA) для устранения узких мест в сетевой инфраструктуре и обеспечения максимально быстрого доступа к данным. Функция Zero Copy Reliability отвечает за высокую надёжность хранения информации без репликации с помощью кодирования с контролем чётности. Генеральный директор Ocient Крис Гладвин (Chris Gladwin) отмечает, что задачи ИИ и аналитики больших данных создают огромную вычислительную нагрузку на ЦОД по всему миру. Это означает, что повышение эффективности оборудования и программного обеспечения имеет решающее значение для снижения расходов, уменьшения энергопотребления и улучшения производительности. В этой связи Ocient сделала выбор в пользу процессоров AMD EPYC 9654 поколения Genoa с 96 вычислительными ядрами, которые придут на смену 28-ядерным чипам Intel Xeon Gold 6348 семейства Ice Lake-SP. Говорится, что благодаря более высокой плотности ядер изделия AMD обеспечат трёхкратный рост производительности для ресурсоёмких вычислительных задач. При этом снизятся эксплуатационные расходы, что обусловлено повышением быстродействия и энергоэффективности. Плюс к этому достигается гибкость масштабирования.
03.02.2025 [15:00], Сергей Карасёв
OpenAI: ИИ-мегапроект Stargate создаст несколько кампусов ЦОД в Техасе и в других штатахФинансовый директор OpenAI Сара Фрайар (Sarah Friar) сообщила о том, что компания намерена построить несколько комплексов дата-центров на территории американского штата Техас. В настоящее время изучаются варианты получения земли и обеспечения необходимых энергетических мощностей. Недавно OpenAI, Softbank и Oracle объявили о формировании совместного предприятия Stargate по развитию ИИ-инфраструктуры в США. На начальном этапе в строительство ЦОД планируется вложить $100 млрд, а в перспективе общий объём инвестиций достигнет $500 млрд. Первый комплекс дата-центров Stargate разместится на территории кампуса компании Lancium в Абилине (штат Техас). По оценкам, стоимость объекта составит около $1,1 млрд, а завершить его создание планируется к концу 2025 года. Комплекс получит собственные газовые турбины, солнечную электростанцию и энергохранилище. Как теперь рассказала Фрайар, помимо площадки в Абилине, OpenAI рассматривает и другие возможные локации на территории Техаса для строительства дата-центров. Кроме того, оцениваются потенциальные площадки в Пенсильвании, Орегоне и Висконсине. Stargate уже начала принимать предложения от ведущих подрядчиков по проектированию и строительству дата-центров, которые «определят будущее вычислений на базе ИИ». На первых порах SoftBank и OpenAI намерены вложить в мегапроект Stargate по $19 млрд. При этом для финансирования инициативы OpenAI рассчитывает осуществить новый инвестиционный раунд на $40 млрд, что поднимет оценку компании до $340 млрд. Ожидается, что ключевым инвестором станет SoftBank, который намерен вложить в OpenAI от $15 млрд до $25 млрд. При этом сам SoftBank пытается привлечь инвестиционные компании Apollo Global и Brookfield для дальнейшего финансирования Stargate.
03.02.2025 [09:20], Руслан Авдеев
The Register: Успех DeepSeek показал важность обдуманных инвестиций в ИИ, но потребность в развитии инфраструктуры никуда не денетсяШок, вызванный недавним триумфом китайского ИИ-стартапа DeepSeek, представившего дешёвые и эффективные ИИ-модели, заставил многих усомниться в результативности масштабных вложений в инфраструктуру на базе дорогих ИИ-ускорителей, сообщает The Register. Тем не менее эксперты уверены, что отказываться от инвестиций было бы нецелесообразно. На прошлой неделе акции ряда крупнейших американских ИИ-брендов после дебюта весьма эффективной модели DeepSeek R1, использующей, со слов создателей, сравнительно мало ускорителей NVIDIA, буквально обрушились в цене. Из-за этого многие эксперты усомнились в том, что траты миллиардов на аппаратную инфраструктуру для ИИ себя оправдывают, если Китай способен добиться хороших результатов, используя не самое мощное оборудование. Например, NVIDIA «в моменте» потеряла $600 млрд рыночной стоимости. Настоящая истерия наложилась на растущее беспокойство в связи с тем, что всё больше денег тратится на инфраструктуру и её поддержку, а особенной отдачи пока не видно. Впрочем, паника может быть неуместной, поскольку обрушение акций прекратилось, а DeepSeek обвиняется в использовании ИИ-моделей Anthropic и OpenAI. Как отмечает The Register, нет и реальных подтверждений того, что производительность моделей DeepSeek находится на уровне лучших из актуальных моделей, а также того, что на обучение китайского ИИ ушло всего $6 млн. По оценкам SemiAnalysis, доступная DeepSeek инфраструктура гораздо больше, чем утверждает компания, и стоит более чем $1,5 млрд. По словам экспертов Omdia, опасения относительно «сокрушительных» инноваций DeepSeek сильно преувеличены. В компании подтверждают, что китайский стартап использовал некоторые «гениальные инновации», но они приведут лишь к массовому использованию аналогичных решений и строительству новой ИИ-инфраструктуры. В Omdia прогнозируют, что в ближайшие годы рынок ИИ-инфраструктуры, скорее всего, значительно вырастет. В компании полагают, что до 2028 года поставки серверов для инференса будут расти на 17 % ежегодно. В TrendForce придерживаются несколько иного мнения и предполагают, что в будущем организации всё же станут более строго оценивать инвестиции в инфраструктуру ИИ и станут применять более эффективные модели для того, чтобы снизить зависимость от доступности ускорителей. Также не исключается, что чаще будут использоваться кастомные ASIC вместо сторонних ИИ-ускорителей и спрос на «классические» модели может претерпеть с 2025 года заметные изменения. Если раньше индустрия полагалась в первую очередь на масштабирование моделей, увеличение объёмов данных и повышение производительности оборудования, то теперь стратегия меняется. DeepSeek прибегла к «дистилляции» моделей, повышению скорости инференса и снижения зависимости от оборудования. Не так давно генеральный директор IBM Арвинд Кришна (Arvind Krishna) объявил, что деятельность DeepSeek подтвердила правильность подхода к ИИ его собственной компании, считающей, что модели могут быть меньше, как и время их обучения. При использовании подобных подходов затраты на инференс могут снизиться в 30 раз, что очень хорошо для корпоративных клиентов. Ещё в 2023 году компания начала развивать серию «экономичных» базовых моделей Granite. Вероятно, по этому пути пойдут и другие. Gartner также сообщает, что именно эффективное масштабирование ИИ будет целесообразнее простого наращивания вычислительных ресурсов. Впрочем, китайский ИИ не устанавливает новый стандарт эффективности моделей, поскольку те соответствуют показателям уже существующих, но не превосходят их. Кроме того, нет доказательств, что добавление дополнительных вычислительных ресурсов и данных не имеет значения. The Register прогнозирует, что продукты и технологии DeepSeek не вызовут резкого падения спроса на ИИ-инфраструктуру, поэтому инвесторам NVIDIA и строителям ЦОД, вероятно, можно не бояться того, что «пузырь» ИИ лопнет, как этого ожидают некоторые эксперты. Во всяком случае одни из крупнейших инвесторов в сектор ЦОД — Blackstone и Brookfield — заявили, что следят за успехами DeepSeek, но отказываться от инвестиций не собираются. Тем не менее, успех китайского стартапа напоминает о том, что «всегда можно сделать ещё лучше» и экстенсивное вливание денег и вычислительных ресурсов не всегда лучший вариант.
03.02.2025 [08:08], Руслан Авдеев
Brookfield не опасается вероятного негативного влияния DeepSeek на рынок ИИ ЦОДКомпания Brookfield Infrastructure Partners, активно инвестирующая в строительство ИИ ЦОД, оптимистично смотрит в будущее отрасли несмотря на появление экономичных и эффективных ИИ-моделей китайского стартапа DeepSeek. Бизнес, владеющий рядом операторов дата-центров и сопутствующими активами, по-прежнему рассчитывает на развитие рынка, сообщает Datacenter Dynamics. Ранее к выводу о том, что от инвестиций в рынок ЦОД отказываться не стоит, пришли и инвесторы из Blackstone. Согласно отчёту за 2024 год, компания добилась рекордной выручки $21,03 млрд в сравнении с $17,93 млрд годом ранее. Результаты опубликовали всего через несколько дней после того, как появление LLM DeepSeek буквально обвалило американский фондовый рынок в части, относящейся к ИИ-технологиям. В результате многие задумались о перспективах рынка цифровой инфраструктуры, стимулируемого революцией в области ИИ и ростом использования ИИ-ускорителей. Однако Brookfield заявила, что ожидала подобного прорыва. Как утверждают в компании, её эксперты и не рассчитывали, что спрос на вычислительные мощности будет расти прямолинейно, поскольку технологии будут совершенствоваться как на аппаратном, так и на программном уровне. Также в компании полагают, что удешевление технологий ИИ будет «компенсироваться» новыми вариантами использования в более сложных областях, например, в робототехнике, требующей значительных вычислительных мощностей. Премьера DeepSeek в этом контексте — лишь часть сложного процесса улучшений и лишь начало прогресса ИИ-технологий. Как утверждают в компании, в долгосрочной перспективе позитивный прогноз относительно роста на ЦОД сохранится. В портфолио Brookfield Infrastructure есть кампусы DCI в Азиатско-Тихоокеанском регионе, Data4 в Европе, а также Compass в Северной Америке. Правда, пока на цифровую инфраструктуру приходится лишь малая часть портфеля компании, большая вложена в коммунальные службы и транспорт. Руководство компании не исключает, что ситуация может измениться, поскольку на сделки в сфере цифровой инфраструктуры в ближайшие годы может прийтись более 40 % прогнозируемых капиталовложений Brookfield. Ожидается, что рост в соответствующем секторе продолжится, опережая другие направления развития бизнеса компании — в течение пяти лет именно этот сектор станет для неё ключевым. |
|