Материалы по тегу: ff

24.03.2024 [02:19], Сергей Карасёв

WEKApod для SuperPOD: WekaIO представила платформу хранения данных для ИИ-кластеров NVIDIA

Компания WekaIO, разработчик решений для хранения данных, анонсировала высокопроизводительное All-Flash хранилище WEKApod, оптимизированное для работы с платформой NVIDIA DGX SuperPOD на базе NVIDIA DGX H100. Новинка объединяет специализированное ПО WekaIO и «лучшее в своем классе оборудование».

Хранилище WEKApod спроектировано для ресурсоёмких нагрузок ИИ. Базовая конфигурация состоит из восьми 1U-узлов, обеспечивающих суммарную вместимость в 1 Пбайт. Показатель IOPS (операций ввода-вывода в секунду) достигает 18,3 млн. Заявленная пропускная способность при чтении составляет до 720 Гбайт/с, при записи — до 186 Гбайт/с.

Утверждается, что восемь узлов WEKApod обеспечивает производительность, необходимую для 128 систем NVIDIA DGX H100. При этом WEKApod может масштабироваться до сотен узлов блоками по четыре узла. Таким образом, можно сформировать систему необходимой вместимости с высокой отказоустойчивостью для обучения больших языковых моделей (LLM), ИИ-приложений, работающих в реальном времени, и пр.

 Источник изображения: WekaIO

Источник изображения: WekaIO

Отмечается, что архитектура WEKApod обеспечивает снижение энергопотребления благодаря оптимальному использованию пространства, улучшенному охлаждению и средствам энергосбережения в режиме простоя. В результате, достигается потенциальное сокращение углеродного следа до 260 т/Пбайт.

WEKApod использует адаптеры NVIDIA ConnectX-7 и NVIDIA Base Command Manager для мониторинга и управления. Каждый из узлов несёт на борту процессор AMD EPYC 9454P (48C/96T; 2,75–3,80 ГГц; 290 Вт) и 384 Гбайт памяти DDR5-4800. Есть посадочные места для 14 накопителей формата E3.S с интерфейсом PCIe 5.0. Производительность в расчёте на узел достигает 90 Гбайт/с при чтении и 23,3 Гбайт/с при записи, а величина IOPS равна 2,3 млн при произвольном чтении и 535 тыс. при произвольной записи.

Постоянный URL: http://www.servernews.ru/1102175
14.03.2024 [00:06], Сергей Карасёв

Meta✴ подала в суд на бывшего вице-президента за кражу сверхсекретных планов ЦОД

Компания Meta, по сообщению ресурса The Register, подала в суд на бывшего вице-президента по инфраструктуре Дипиндера Сингха Хурану (Dipinder Singh Khurana), который подозревается в краже «сверхсекретных планов», касающихся дата-центров.

Хурана, также известный как Т. С. Хурана (T. S. Khurana), проработал в Meta / Facebook в общей сложности приблизительно 12 лет. Он покинул эту корпорацию в июне 2023 года, перейдя на должность старшего вице-президента по операциям в некоем стартапе, который всё ещё работает в скрытом режиме. Название этой фирмы в судебных документах не раскрывается.

 Источник изображения: ***

Источник изображения: Meta

После подачи заявления об уходе Хурана якобы использовал имеющиеся у него права доступа для кражи «проприетарных, крайне секретных, конфиденциальных и закрытых документов о бизнесе и сотрудниках Meta». Говорится, что похищенные файлы содержат внутреннюю информацию о дата-центрах Meta, поставщиках компании и проектах, связанных с технологиями ИИ. Кроме того, в этих документах содержатся данные о бизнес-операциях Meta и расходах, связанных с закупками.

Meta подчёркивает, что при уходе из компании Хурана получил «щедрую компенсацию», но, тем не менее, решил похитить корпоративные данные. Украденные файлы якобы были загружены в его персональные аккаунты Google Drive и Dropbox. Более того, многие из этих файлов были скопированы в папки с именем нового работодателя.

Meta считает, что похищенные сведения использовались в том числе для поиска сотрудников для нового работодателя, который специализируется на облачных ИИ-технологиях. Meta выдвинула против Хураны пять обвинений, включая нарушение условий контракта, неосновательное обогащение и нарушение фидуциарных обязанностей. Истцы требуют от своего бывшего вице-президента возмещения ущерба.

Постоянный URL: http://www.servernews.ru/1101672
07.03.2024 [14:58], Руслан Авдеев

Кеш на 10–20 МВт: Meta✴ изучает возможность строительства в Индии небольшого ЦОД для обслуживания Reels

Datacenter Dynamics сообщает со ссылкой на публикации в местных СМИ о планах Meta по строительству своего первого в Индии дата-центра для удовлетворения роста спроса на её сервисы в регионе. По данным одного из локальных источников, речь идёт о небольшом ЦОД ёмкостью 10–20 МВт для кеширования материалов социальных сетей.

Отчасти рост потребностей Meta в местном дата-центре связан с увеличением спроса на платформу Reels, конкурирующую с TikTok по всему миру. В Индии TikTok находится под запретом, поэтому обеспечить здесь инфраструктуру для Reels особенно важно для компании. Пока единственный дата-центр Meta в Азитаско-Тихоокеанском регионе расположен в Сингапуре, многочисленные кампусы ЦОД имеются у компании в США и несколько — в Евросоюзе.

 Источник изображения: Hakan Nural/unsplash.com

Источник изображения: Hakan Nural/unsplash.com

Индия запретила TikTok и ещё более 100 китайских приложений ещё в июне 2020 года, сославшись на угрозу национальной безопасности. Принадлежащий Meta сервис Reels доступен пользователям через социальные сети Instagram и Facebook, где он появился в 2020 и 2021 гг. соответственно.

Постоянный URL: http://www.servernews.ru/1101360
23.02.2024 [19:06], Сергей Карасёв

Meta✴ ищет в Индии и США специалистов для разработки ИИ-ускорителей и SoC для дата-центров

Компания Meta, по сообщению The Register, опубликовала множество объявлений о поиске специалистов для разработки интегральных схем специального назначения (ASIC). Речь идёт о создании собственных ускорителей для машинного обучения и ИИ, а также SoC для дата-центров.

Сейчас для ИИ-задач Meta массово применяет решения NVIDIA. Кроме того, компания присматривается к ускорителям AMD Instinct MI300. С целью снижения зависимости от сторонних поставщиков и сокращения расходов Meta также проектирует собственные аппаратные компоненты.

В частности, весной прошлого года Meta анонсировала свой первый кастомизированный процессор, разработанный специально для ИИ-нагрузок. Изделие под названием MTIA v1 (Meta Training and Inference Accelerator) представляет собой ASIC в виде набора блоков, функционирующих параллельно. Задействованы 64 вычислительных элемента в виде матрицы 8 × 8, каждый из которых объединяет два ядра RISC-V. Кроме того, компания создала чип MSVP (Meta Scalable Video Processor) для обработки видеоматериалов. В разработке также находятся собственные ИИ-ускорители Artemis.

 Источник изображения: ***

Источник изображения: Meta

Как теперь сообщается, Meta ищет ASIC-инженеров с опытом работы в области архитектуры, дизайна и тестирования. Необходимы специалисты в Бангалоре (Индия) и Саннивейле (Калифорния, США). В некоторых вакансиях работодателем указана собственно Мета, тогда как в других случаях указан Facebook. От кандидатов в числе прочего требуется «глубокий опыт в одной или нескольких ключевых сферах, связанных с созданием сложных SoC для дата-центров». Тестировщикам необходимо иметь опыт проверки проектов для ЦОД, связанных с машинным обучением, сетевыми технологиями и пр.

Некоторые вакансии были впервые опубликованы в соцсети LinkedIn в конце декабря 2023 года и обновлены в феврале нынешнего года. Претендентам обещаны неплохие зарплаты. Для каких именно задач компании Meta требуются аппаратные решения, не уточняется. Но сетевые источники отмечают, что это может быть инференс, создание новых ИИ-платформ и т.п.

Постоянный URL: http://www.servernews.ru/1100722
10.02.2024 [01:53], Владимир Мироненко

Pure Storage, намеревающаяся изжить жёсткие диски, сократила 4 % штата

Компания Pure Storage, специализирующаяся на All-Flash СХД, провела очередной раунд увольнений, уволив до 275 сотрудников, сообщил ресурс Blocks & Files. По данным издания, сокращения затронули направление по защите данных, а также специалистов в области ИИ, аналитики, баз данных, альянсов и в сфере неструктурированных данных.

Представитель Pure рассказал изданию, что компания продолжает масштабироваться и поддерживать высокие темпы роста и инноваций. Нынешнее сокращение призвано привести структуру штата в соответствие с приоритетами компании и областями, которые являются стратегическими для бизнеса. Уволенным сотрудникам предоставили право подать заявки на открытые вакансии, а также предложили помощь в трудоустройстве за пределами Pure.

 Изображение: ***

Изображение: Meta

Pure показала хорошие результаты в III квартале 2024 финансового года, завершившемся 5 ноября. Выручка выросла на 13 % в годовом исчислении до $762,8 млн, а прибыль составила $70,4 млн в то время, как год назад у компании были небольшие убытки. Вместе с тем Pure прогнозирует в IV квартале снижение выручки год к году на 3,5 % до $782 млн. Снижение показателя объясняется переходом на подписку, а также отсрочкой поставок на $41 млн.

 Изображение: Hammerspace

Изображение: Hammerspace

По словам Blocks & Files, Meta, а это один из крупных заказчиков Pure Storage, не вполне довольна её СХД. Для обучения больших языковых моделей (LLM) Meta строит кластеры из тысячи узлов хранения с суммарной пропускной способностью 100 Тбит/с, используя при этом L3-коммутацию без RDMA и NVMe-oF. Источник издания утверждает, что Meta, как и другим гиперскейлерами, нужна масштабируемая POSIX-совместимая файловая система на базе типовых серверов. Этим условиям удовлетворяет Hammerspace.

Источники издания также сообщили, что решение VAST Data, которое как раз и базируется на типовых серверах и предлагает NVMe-oF, дорого и не может масштабироваться более чем на 30 узлов без заметного падения производительности.

Постоянный URL: http://www.servernews.ru/1100079
04.02.2024 [21:02], Сергей Карасёв

Meta✴ намерена активно внедрять собственные ИИ-ускорители Artemis в качестве альтернативы решениям NVIDIA и AMD

В 2024 году компания Meta, по сообщению The Register, после многих лет разработки может начать массовое внедрение собственных ИИ-чипов. Они станут альтернативой ускорителям NVIDIA и AMD, что поможет снизить зависимость от продукции сторонних поставщиков. В 2024 году компания намерена потратить до $37 млрд на развитие своей инфраструктуры.

В настоящее время для поддержания ИИ-нагрузок Meta применяет такие решения, как NVIDIA H100. Ожидается, что к концу 2024 года компания будет иметь в своём распоряжении 350 тыс. этих ускорителей. Вместе с тем Meta проявляет интерес и к изделиям AMD Instinct MI300. Ранее компания высоко оценила возможности Qualcomm Cloud AI 100, но отказалась от них из-за несовершенства ПО. Не приглянулись Meta и чипы Esperanto. Сейчас Meta ведёт разработку собственных ИИ-ускорителей.

 Источник изображения: ***

Источник изображения: Meta

Весной 2023 года стало известно, что компания создала свой первый ИИ-процессор. Чип под названием MTIA (Meta✴ Training and Inference Accelerator; на изображении) представляет собой ASIC в виде набора блоков, функционирующих в параллельном режиме. Задействованы 64 вычислительных элемента в виде матрицы 8 × 8, каждый из которых объединяет два ядра с архитектурой RISC-V. Конструкция включает 128 Мбайт памяти SRAM, а также до 64/128 Гбайт памяти LPDDR5. Показатель TDP равен 25 Вт. Заявленная производительность на операциях INT8 достигает 102,4 TOPS, на операциях FP16 — 51,2 Тфлопс. Процессор производится по 7-нм технологии TSMC.

 Источник изображения: ***

Источник изображения: Meta

Как теперь сообщается, в 2024-м Meta намерена начать активное использование собственных ИИ-ускорителей с кодовым именем Artemis. В их основу лягут компоненты MTIA первого поколения. Чип Artemis, оптимизированный для инференса, будет применяться наряду с ускорителями сторонних поставщиков. При этом, как отметили представители компании, изделия Artemis обеспечат «оптимальное сочетание производительности и эффективности при рабочих нагрузках, специфичных для Meta».

 Источник изображения: ***

Источник изображения: Meta

Компания пока не раскрывает ни архитектуру Artemis, ни конкретные рабочие нагрузки, которые будет поддерживать чип. Участники рынка полагают, что Meta будет запускать готовые ИИ-модели на собственных специализированных ASIC, чтобы высвободить ресурсы ускорителей для развивающихся приложений. По данным SemiAnalysis, Artemis получит улучшенные ядра, а компоненты LPDDR5 уступят место более быстрой памяти, использующей технологию TSMC CoWoS.

Нужно добавить, что Amazon и Google уже несколько лет используют собственные чипы для ИИ-задач. Например, Amazon недавно ИИ-ускорители Trainium2 и Inferenetia2, тогда как Google в 2023 году представила сразу два новых ускорителя: Cloud TPU v5p и TPU v5e. А Microsoft сообщила о создании ИИ-ускорителя Maia 100.

Постоянный URL: http://www.servernews.ru/1099796
04.02.2024 [00:06], Сергей Карасёв

Meta✴ потратит в 2024 году до $37 млрд на развитие своей инфраструктуры, в основном для ИИ

Meta отрапортовала о работе в IV квартале и 2023 финансовом году в целом, который был завершён 31 декабря. По ключевым показателям зафиксирован значительный рост, что корпорация связывает с успешной реализацией ряда инициатив, в том числе в области ИИ. Суммарная выручка за последнюю четверть 2023-го поднялась в годовом исчислении на 25 % — с $32,17 млрд до $40,11 млрд. Годовое значение увеличилось на 16 %, достигнув $134,90 млрд против $116,61 млрд в 2022-м.

Чистая квартальная прибыль Meta в годовом исчислении взлетела на 201 % — с $4,65 млрд до $14,02 млрд, а прибыль в пересчёте на одну ценную бумагу составила $5,33 (около $1,76 в IV квартале 2022-го). Годовая прибыль зафиксирована на отметке $39,10 млрд: это на 69 % больше по сравнению с 2022 годом, когда компания заработала $23,20 млрд. Прибыль на акцию поднялась с $8,59 до $14,87.

 Источник изображения: ***

Источник изображения: Meta

Учитывая, что финансовые перспективы оказались лучше, чем ожидалось, Meta сообщила о намерении увеличить капитальные затраты (CapEx) в 2024 году: они составят от $30 млрд до $37 млрд. Таким образом, верхняя граница поднялась на $2 млрд. Средства пойдут на развитие инфраструктуры. В частности, планируется закупка дополнительного оборудования, включая серверы, для обучения и поддержания работы ИИ-приложений. Кроме того, компания продолжит расширять экосистему своих дата-центров.

 Источник изображения: ***

Источник изображения: Meta

Финансовый директор Meta Сьюзан Ли (Susan Li) отмечает, что итоговая сумма капитальных затрат будет зависеть от спроса на услуги ИИ, а также от доступности компонентов. Речь идёт прежде всего о высокопроизводительных ускорителях на базе GPU. Компания также не исключает рост инвестиций в цифровую инфраструктуру после 2024 года.

Отметим, что Meta пересматривает архитектуру своих ЦОД в связи с повсеместным внедрением ИИ. Компания делает ставку на СЖО и новые средства управления питанием. Meta также стремится использовать больше собственных чипов в дата-центрах, чтобы уменьшить зависимость от изделий таких поставщиков, как NVIDIA.

Постоянный URL: http://www.servernews.ru/1099773
28.01.2024 [00:16], Сергей Карасёв

Meta✴ поселит свой ИИ в «зелёный» дата-центр стоимостью $800 млн

Корпорация Meta, по сообщению Bloomberg, построит в Индиане (США) один из своих первых дата-центров, специально спроектированных для генеративного ИИ. Ожидается, что затраты на реализацию этого масштабного проекта составят приблизительно $800 млн. Об инициативе объявили губернатор штата Индиана и руководители Meta.

ЦОД расположится в центре River Ridge в Джефферсонвилле, заняв площадь около 65 тыс. м2. Планируется, что объект будет получать питание исключительно от возобновляемых источников энергии. Дата-центр будет оснащён стойками высокой плотности. Говорится о применении собственных чипов и сторонних ускорителей. Серверы и сетевые компоненты будут использовать одну и ту же физическую инфраструктуру. Жидкостное охлаждение планируется реализовать по схеме Direct-to-chip.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В процесс строительства ЦОД будут вовлечены около 1250 инженеров и рабочих. Запустить объект в эксплуатацию компания Meta намерена к 2026 году. Он же даст работу примерно сотне высокооплачиваемых специалистов. По условиям соглашения с властями штата, Meta получит 35-летнее освобождение от налога с продаж в Индиане. Причём этот срок может быть увеличен, если компания решит и дальше развивать свои кампусы ЦОД в регионе.

Постоянный URL: http://www.servernews.ru/1099393
20.01.2024 [23:35], Сергей Карасёв

Solidigm начала продажи самого ёмкого в мирe NVMe SSD — 61,44 Тбайт стоят менее $4000

Компания Solidigm, по сообщению TechRadar, начала приём заказов на самый вместительный в мире QLC NVMe SSD, предназначенный для применения в СХД высокой плотности для дата-центров. Речь идёт об изделии D5-P5336, способном вмещать 61,44 Тбайт информации.

Устройство было представлено летом прошлого года. Оно имеет формат E1.L; задействован интерфейс PCIe 4.0 x4 (NVMe 1.4). В конструкции применены 192-слойные микрочипы флеш-памяти QLC 3D NAND. Стоит отметить, что данный накопитель является наиболее ёмким среди «обычных» NVMe SSD. Проприетарные решения Pure Storage DFM и IBM FlashCore предлагают до 75 Тбайт и до 114 Тбайт (с учётом компрессии) соответственно. Кроме того, существуют SATA-накопители Nimbus ExaDrive ёмкостью 64 Тбайт (QLC) и 100 Тбайт (TLC), которые три года назад оценивались в $11 тыс. и $40 тыс. соответственно.

 Источник изображения: Solidigm

Источник изображения: Solidigm

D5-P5336 подходит для рабочих нагрузок с интенсивным чтением, таких как ИИ, машинное обучение, сети доставки контента и объектное хранилище. Заявленная скорость последовательного чтения данных достигает 7000 Мбайт/с, скорость последовательной записи — 3000 Мбайт/с. Величина IOPS при произвольном чтении блоками по 4 Кбайт, согласно техническим характеристикам, составляет до 1 005 000, при произвольной записи — до 43 800.

Устройство может выдерживать 0,58 перезаписи в сутки (показатель DWPD), а значение MTBF составляет 2 млн часов. Энергопотребление в активном режиме равно 23 Вт, в режиме простоя — 5 Вт. Диапазон рабочих температур — от 0 до +70 °C.

Отмечается, что накопитель D5-P5336 вместимостью 61,44 Тбайт доступен для заказа у ряда ретейлеров. Так, на площадке PCNation устройство можно приобрести по цене примерно $3975, тогда как Tech-America предлагает его за $3692 на момент написания материала. Производитель предоставляет на изделие пятилетнюю гарантию.

Постоянный URL: http://www.servernews.ru/1099060
19.01.2024 [01:35], Владимир Мироненко

У Meta✴ будет уже 350 тыс. ускорителей NVIDIA H100 к концу 2024 года

К концу 2024 года компания Meta планирует иметь в распоряжении 350 тыс. ускорителей NVIDIA H100. А общая произвдительность всех ИИ-чипов компании будет эквивалента 600 тыс. H100. Об этом сообщил основатель Meta Марк Цукерберг в своём Instagram. Meta заинтересовалась ускорителями AMD Instinct MI300, а также разработала собственный ИИ-чип MTIA.

В интервью ресурсу The Verge глава Meta уточнил , что для создания продуктов, которые компания хотела бы иметь в своём портфолио, необходимо разработать сильный искусственный интеллект (AGI). В настоящее время компания занимается проектом по развёртыванию метавселенной, который приносит ей пока только миллиардные убытки. но Meta верит, что за сочетанием ИИ и метавсленными будущее.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках реализации планов по совершенствованию технологий ИИ компания пересмотрела находящиеся на стадии разработки проекты, отменив часть из них, что привело к падению капитальных затрат по сравнению с предыдущим годом. В IV квартале компания потратила $6,8 млрд, что на $3 млрд меньше год к году. При этом компания увеличивает вложения в ИИ и разработала новую архитектуру ЦОД, которая позволит повысить эффективность использования ИИ-кластеров.

Всего в 2023 году капвложения Meta, по оценкам, составят $27–29 млрд. В 2024 году компания планирует потратить на эти цели $30–35 млрд, причём рост будет обусловлен инвестициями в серверы (включая оборудование, не связанное с ИИ), а также в дата-центры на базе обновлённой архитектуры.

Постоянный URL: http://www.servernews.ru/1098989

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus