Материалы по тегу: цод

13.04.2019 [20:02], Геннадий Детинич

Intel штурмует вершины кремниевой фотоники: от трансиверов 400 GbE до интеграции в ASIC

На прошедшей неделе на мероприятии Interconnect Day компания Intel рассказала о текущих и будущих планах по штурму вершин кремниевой фотоники. В Intel плотно занимаются этой темой почти два десятилетия. Это то будущее, без которого будет невозможно дальнейшее развитие центров по обработке данных и, следовательно, обуздание растущих по экспоненте информационных потоков. Линии связи на основе меди (и металлических проводников вообще) не могут обеспечить требуемые в новых условиях дальность передачи, энергоэффективность и пропускную способность. Переход на оптические соединения частично решает эти проблемы, но настоящий прорыв обеспечит исключительно кремниевая фотоника ― интеграция на уровне кристалла кремниевых электронных цепей с полупроводниковыми лазерами и оптическими элементами.

tomshardware.com

tomshardware.com

В качестве небольшого отступления поясним, что для оптики в кремнии не нужны какие-то особенные прозрачные материалы и волноводы. Обычный кремний прозрачен для инфракрасного излучения. Полупроводниковые инфракрасные лазеры, волноводы, оптические разделители, мультиплексоры, сумматоры и другие дискретные элементы оптических трансиверов могут выпускаться в рамках классического техпроцесса КМОП, как и обычные чипы. Компания Intel, например, уже производит интегрированные элементы кремниевой фотоники в рамках 24-нм техпроцесса на 300-мм пластинах. За последние два года Intel продала свыше одного миллиона оптических приёмопередатчиков 100 GbE в исполнении QFSP28.

tomshardware.com

tomshardware.com

Новой продукцией компании станет приёмопередатчик 400 GbE: поставки стартуют в четвёртом квартале текущего года. Это решение содержит всего четыре высокоинтегрированных компонента, тогда как в случае использования дискретных оптических компонентов каждый трансивер пришлось бы собирать из десятков комплектующих, что сложнее, дороже и повышает уровень брака.

Пока оптические порты Intel 400 GbE будут опираться на четыре канала (лазера + обвязка) с пропускной способностью 100 GbE, но в дальнейшем компания планирует перейти на одноканальную реализацию приёмопередатчика. Добавим, что порт Intel 400 GbE обеспечит дальность передачи на 500 метров. Оптические порты на основе кремниевой фотоники с пропускной способностью 400 Гбит/с для дистанций 2 и 10 км выйдут позже.

tomshardware.com

tomshardware.com

Дальнейшее повышение скорости каналов до 1,6 Тбит/с потребует переноса приёмопередатчиков вплотную к коммутаторам (ASIC). Медь в этом случае не помощница от слова совсем. Решить проблему с потреблением, скоростью и задержками помогут только интегрированные в чип или в корпус ASIC блоки приёмопередатчиков на основе кремниевой фотоники. У компании Intel в этом богатейший опыт и она серьёзно рассчитывает на этот рынок.

tomshardware.com
tomshardware.com
Постоянный URL: http://servernews.ru/985802
05.04.2019 [12:27], Геннадий Детинич

Kyocera построит на Хоккайдо ЦОД с исключительно «зелёным» питанием и охлаждением

По сообщению японских источников, компания Kyocera Communication Systems Co Ltd (KCCS) договорилась с властями города Исикари (Ishikari) на острове Хоккайдо построить центр по обработке данных, работа которого вообще не сопровождалась бы никакими вредными выбросами в окружающее пространство. Строительство ЦОД начнётся в текущем месяце и будет завершено запуском в эксплуатацию в 2021 финансовом году. На питание исключительно из возобновляемых источников ЦОД в Исикари перейдёт в 2022 финансовом году.

Подвод электроэнергии к центру по обработке данных будет по трём независимым линиям электропередачи от солнечной фермы, фермы с ветрогенераторами и от станции с переработкой биомассы. За перераспределением и поставкой энергии в ЦОД будет следить система с элементами искусственного интеллекта. За охлаждение серверов в зимний период времени будет отвечать градирня со снегом и льдом. Запасённого зимой снега должно хватать на охлаждение серверов в летний период. Во всяком случае, так планируется. С учётом географического расположения острова Хоккайдо ― как самого северного из японских островов, с сезонным охлаждением ЦОД проблем возникнуть не должно.

Солнечная электростанция будет вырабатывать для ЦОД около 2 МВт энергии. Столько же обещают дать ветряные генераторы. О мощности биоэлектростанции не сообщается. Впоследствии местный технопарк Ishikari Bay New Port также планирует перейти на питание исключительно из возобновляемых источников. С учётом использования передовых решений для консервации электроэнергии вырабатываемой и запасённой мощности должно хватить также для обеспечения местной промышленности.

Постоянный URL: http://servernews.ru/985379
25.03.2019 [13:27], Андрей Крупин

В Краснодарском крае начал работу ЦОД Минобороны России

Министерство обороны Российской Федерации объявило о завершении испытаний и запуске первой очереди нового центра обработки данных, развёрнутого в военном инновационном технополисе «Эра» (г. Анапа, Краснодарский край).

Подробных технических сведений о вычислительном комплексе ведомство не приводит. Известно лишь, что площадь здания дата-центра составляет более 600 кв. м, и что работа всех его информационных систем построена на программном обеспечении отечественного производства Astra Linux, принятого на снабжение в Минобороны России. Ключевым компонентом ЦОД является высокоскоростная коммуникационная сеть отечественного производства, которая объединяет все вычислительные узлы в единый высокопроизводительный вычислительный комплекс. Утверждается, что по ключевым характеристикам используемая инфраструктура не уступает лучшим зарубежным аналогам (по всей видимости, речь идёт про разработанный в России интерконнект «Ангара» — прим. редакции).

Сообщается, что ввод в эксплуатацию всех вычислительных систем ЦОД Минобороны России в Краснодарском крае был осуществлён в рекордные сроки — всего за два месяца. Работы выполнялись силами федерального государственного унитарного предприятия «Российский федеральный ядерный центр — Всероссийский научно-исследовательский институт технической физики имени академика Е. И. Забабахина» (РФЯЦ-ВНИИТФ) по заказу Министерства обороны Российской Федерации.

Ввод дата-центра в эксплуатацию позволит решить потребность в информационных ресурсах как технополиса «Эра», так и предприятий промышленности, осуществляющих научную деятельность в технологическом парке. Координацию деятельности военного инновационного технополиса «Эра» осуществляет Главное управление научно-исследовательской деятельности и технологического сопровождения передовых технологий (инновационных исследований) Минобороны России.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/984707
21.03.2019 [19:20], Сергей Юртайкин

«МегаФон» займётся строительством дата-центров

Оператор мобильной и фиксированной связи «МегаФон» сообщил о намерениях прекратить покупку дата-центров, поскольку компания решила строить эти объекты самостоятельно. Об этом рассказал ТАСС официальный представитель «МегаФона».

«Мы внимательно изучали рынок дата-центров на предмет существующих предложений. В результате принято решение самостоятельно строить дата-центры, используя самые современные решения. Это связано с тем, что существующие дата-центры либо представляют услуги прошлого витка развития технологий, либо эти услуги необоснованно дороги», — заявили в «МегаФоне».

Компания не раскрыла размер предполагаемых инвестиций в строительство собственных ЦОДов.

По подсчётам iKS-Consulting, общее число стойко-мест в дата-центрах России выросло в 2018 году на 16 %, до 40 тысяч. Основной вклад в прирост ёмкостей внесли IXcellerate, «РТК-ЦОД», GreenBushDС, DataPro и «Авантаж». Согласно предварительным данным, выручка на рынке коммерческих дата-центров по итогам 2018 года увеличилась на 23 %, до 27 млрд рублей.

На данный момент у «МегаФона» насчитывается 18 дата-центров, расположенных в Москве, Санкт-Петербурге, Казани, Самаре, Оренбурге, Новосибирске, Ставрополе, Мурманске, Краснодаре, Екатеринбурге, Томске и Хабаровске.

Постоянный URL: http://servernews.ru/984569
20.03.2019 [06:26], Андрей Крупин

ЦОД Xelent в Санкт-Петербурге получил сертификат Tier III Uptime Institute

Компания Xelent объявила о присвоении расположенному в Санкт-Петербурге центру обработки данных сертификата Uptime Institute уровня Tier III в категории Design.

По словам представителей Xelent, прохождение сертификационных испытаний Uptime Institute доказывает, что вычислительный комплекс спроектирован в соответствии с современными мировыми практиками строительства центров обработки данных и являемся гарантом работы IT-инфраструктуры без простоев. В компании уверены, что наличие сертификата в перспективе позволит повысить инвестиционную привлекательность дата-центра и выделить проект на фоне существующих несертифицированных решений на рынке.

«Обеспечение непрерывности бизнеса является безусловным приоритетом работы Xelent. Получение сертификата Tier III — знаковое для нас событие. Многие дата-центры на Северо-Западе заявляют об учёте требований Tier III, однако лишь Xelent на сегодняшний день подтвердил, что может гарантировать своим заказчикам надёжность, на 100% соответствующую высоким требованиям этого стандарта», — отметил Андрей Елисеев, директор петербургского филиала дата-центра Xelent.

Uptime Institute — единственная международная организация, имеющая лицензию на сертификацию дата-центров на соответствие требованиям стандартов Tier. За время работы организации оценку прошли более 1000 ЦОД во всем мире. Uptime Institute выделяет несколько программ: сертификация проектной документации, построенных дата-центров, эксплуатационной устойчивости, а также отдельная программа Tier-READY для сборных и модульных дата-центров.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/984498
12.03.2019 [12:55], Геннадий Детинич

Intel на тропе интерфейсных войн: предложены спецификации Compute Express Link 1.0

В последние годы вычислительные платформы взяли курс на многокомпонентность. Прежде всего, это функционирование в одной системе разнородных (гетерогенных) процессорных архитектур и разного рода специализированных ускорителей на FPGA, GPU или ASIC. Сразу же оказалось, что между процессором (хостом) и ускорителями возникают узкие места для перекачки больших массивов данных. Это особенно заметно, когда ускорители обладают значительными объёмами кеширующей или другой бортовой памятью.

Проблему могли и могут решить интерфейсы и протоколы, которые обеспечили бы согласованность обращения к памяти и кешам процессора общего назначения и ускорителей (через общее адресное пространство и другое). И такие интерфейсы стали появляться. Это NVIDIA NVLink, GenZ и CCIX, не считая некоторых проприетарных разработок AMD и ARM. Часть из этих стандартов/межсоединенний открыты, часть нет. Сегодня к таким интерфейсам добавился ещё один, созданный в недрах компании Intel, но декларируемый как открытый и свободный от лицензионных отчислений.

Компания Intel сообщила, что девять компаний, включая её, создали консорциум Compute Express Link (CXL) и спецификации CXL версии 1.0. Кроме Intel основателями консорциума стали компании Alibaba, Cisco, Dell EMC, Facebook, Google, HPE, Huawei и Microsoft. Компании AMD, Xilinx, IBM и ARM не вошли в консорциум CXL. Все они продвигают фактически конкурента стандарту CXL ― стандарт CCIX. Как и CCIX, спецификации CXL опираются на физический интерфейс и протокол PCI Express. Правда, CCIX использует интерфейс PCI Express 4.0, а CXL ― PCI Express 5.0. Это, кстати, отодвигает реализацию интерфейса CXL на 2021 год, что даёт дорогу CCIX. Зато период популярности PCIe 4.0 ожидается очень коротким, после чего на сцену надолго выйдет интерфейс PCIe 5.0 и новоявленный Compute Express Link. Тем не менее, стандарты CCIX и CXL, очевидно, ждёт прямое столкновение и совсем непонятно, кто из них в итоге станет доминирующим.

Консорциум CXL и Intel не раскрывают деталей спецификаций Compute Express Link. Утверждается, что стандарт CXL обеспечит минимальные задержки при обмене данными хоста с ускорителями и станет одним из самых скоростных интерфейсов для подобного обмена. Поскольку протокол CXL будет работать на типичном интерфейсе PCI Express 5.0, реализация поддержки Compute Express Link будет стоить минимальных денег. Участники консорциума вообще будут освобождены от уплат лицензионных отчислений. В компании Intel ожидают, что к консорциуму CXL присоединятся другие разработчики процессоров и ускорителей и вместе они смогут разработать новую версию спецификации ― CXL 2.0.

Кстати, стандарт CXL активно поддержал консорциум GenZ. Сообщается, что GenZ и CXL будут дополнять друг друга, а не перекрывать возможности одного или другого протокола. Это означает, что с CXL могут согласовывать свои разработки компании AMD и ARM. Это даёт надежду, что история с «лебедем, раком и щукой» останется басней, а не очередной практикой для индустрии.

Постоянный URL: http://servernews.ru/984083
08.03.2019 [00:20], Владимир Мироненко

Microsoft стала первым крупным поставщиком облачных услуг в Африке

Microsoft официально стала первым крупным поставщиком облачных услуг, открывшим центры обработки данных в Африке. В среду компания объявила, что два её облачных дата-центра Azure запущены в Кейптауне и Йоханнесбурге (Южная Африка).

«Запуск в этих регионах является важной вехой для Microsoft, поскольку мы открываем наши первые центры обработки данных корпоративного уровня в Африке, став первым глобальным провайдером, предоставляющим облачные услуги ЦОД на континенте», — прокомментировал событие вице-президент Microsoft Azure Том Кин (Tom Keane).

Компания из Редмонда (штат Вашингтон, США) опередила такого технологического гиганта как Amazon, который тоже стремится открыть дата-центры на континенте. Ранее работающая в сфере электронной коммерции компания объявила, что центры обработки данных AWS начнут работу в Южной Африке в 2020 году.

Microsoft выразила надежду, что открытие ЦОД Azure предоставит новые экономические возможности в регионе. Расположение дата-центра может иметь решающее значение, когда дело доходит до времени загрузки веб-служб и приложений, поскольку данные должны перемещаться максимально быстро. Например, даже несколько миллисекунд задержки могут быть критическими в финансовой индустрии. Если пользователю необходимо передать большие объёмы данных, расположение вычислительной площадки также может оказать заметное влияние на этот процесс.

Другим важным фактором является то, что компании должны соблюдать законы страны, где хранятся их данные. В то время как у многих стран, включая США и страны Европы, существуют различные законы о защите персональных данных, у жителей Южной Африки просто не было возможности реализовать эти принципы, так как ведущие провайдеры не могли обеспечить надлежащие условия для локализации данных.

Постоянный URL: http://servernews.ru/983934
01.03.2019 [16:00], Андрей Крупин

Стали известны характеристики территориально-распределительного ЦОД Минобороны России

Министерство обороны Российской Федерации раскрыло некоторые технические характеристики территориально-распределительного центра обработки данных, обеспечивающего функционирование информационных систем ведомства и всех его структурных подразделений.

Согласно представленным на сайте Минобороны России сведениям, суммарная производительность территориально-распределительного дата-центра военного ведомства достигает 16 петафлопс (квадриллионов операций с плавающей запятой в секунду), при этом суммарный объем системы хранения данных вычислительного комплекса составляет 236 петабайт. Ежедневно более 23 тысяч пользователей обращаются к информационным системам Вооружённых сил РФ. Более 180 тысяч служащих и сотрудников министерства подключены к закрытой сетевой инфраструктуре «Военный Интернет» (официальное название коммуникационной системы — «Закрытый сегмент передачи данных»). Обслуживанием ЦОД занимается Главное управление развития информационных и телекоммуникационных технологий Министерства обороны Российской Федерации (ГУРИТТ МО РФ).

Ранее, напомним, министр обороны РФ Сергей Шойгу выступил с сообщением о том, что потенциал вычислительных платформ, задействованных в курируемых Министерством обороны РФ структурах, по мощности в несколько раз превосходят используемые Министерством обороны США решения. «Компьютерные мощности Национального центра управления обороной Российской Федерации (НЦУ) в 3-4 раза превосходят вычислительные возможности Пентагона, а по объёму хранимой информации — в 19,6 раза», — заявил глава военного ведомства, подчеркнувший важность новых софтверных разработок для НЦУ и квалифицированных специалистов в этой области. Министр пояснил, что Центру необходим огромный объём нового программного обеспечения, разработка которого станет основной задачей новых научных подразделений.

Национальный центр управления обороной РФ предназначен для обеспечения централизованного боевого управления Вооружёнными силами Российской Федерации; обеспечения управления повседневной деятельностью Военно-воздушных сил и Военно-морского флота; сбора, обобщения и анализа информации по военно-политической обстановке в мире, на стратегических направлениях и по общественно-политической обстановке в Российской Федерации в мирное и военное время.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/983646
15.02.2019 [15:10], Сергей Карасёв

Сбербанк предложил корпоративным клиентам «Виртуальный ЦОД»

Сбербанк анонсировал «Виртуальный ЦОД» — инфраструктурное решение для крупного и среднего бизнеса, а также государственных органов и учреждений.

Новое решение использует облачную платформу SberCloud. В рамках виртуального центра обработки данных доступны вычислительные ресурсы, системы хранения, виртуальные сети, инструменты резервного копирования и пр.

«Виртуальный ЦОД» позволит не только сократить финансовые затраты на собственную инфраструктуру, но и значительно ускорит реализацию IT-проектов разного уровня сложности.

Сбербанк подчёркивает, что новое решение обеспечивает высокий уровень безопасности и защиту от актуальных киберугроз. При этом надёжность и доступность облачных сервисов SberCloud обеспечиваются за счёт проверенной архитектуры, георезервирования, двойной репликации данных, проактивного мониторинга и других средств.

«В Сбербанке накоплена огромная экспертиза по построению облачной ИТ-инфраструктуры. Результатом наших разработок стала технология, полностью удовлетворяющая наши потребности и соответствующая всем требованиям кибербезопасности. Решение нашей облачной платформы SberCloud будет востребовано среди бизнес-клиентов Сбербанка, а также федеральных и региональных властей, для которых важен не только продукт и его стоимость, но и оперативность предоставления сервиса», — говорится в сообщении. 

Постоянный URL: http://servernews.ru/982859
11.02.2019 [13:40], Андрей Крупин

HOSTKEY представила готовые конфигурации серверов на базе Intel Core i9-9900K и i7-9700K

Компания HOSTKEY, предоставляющая IT-услуги на базе дата-центров DataPro (Россия), Serverius (Нидерланды) и NY1 (США) уровня Tier III, объявила о расширении вычислительной инфраструктуры и доступности заказчикам готовых конфигураций выделенных серверов на базе процессоров Intel Core i9-9900K и i7-9700K. По заверениям пресс-службы хостинг-провайдера, компания HOSTKEY первая в Европе предложила услугу аренды физических серверов на базе новых процессоров Intel семейства Coffee Lake Refresh.

С технической точки зрения наибольший интерес, естественно, вызывает Core i9-9900K — новый флагманский чип Intel для массового рынка. Он предлагает восемь вычислительных ядер с поддержкой технологии Hyper-Threading, имеет базовую частоту 3,6 ГГц, но при этом, с одной стороны, может автоматически разгоняться до частот 4,7-5,0 ГГц в турборежиме, а с другой — ограничен рамками 95-ваттного теплового пакета. Младший собрат нового флагмана, процессор Core i7-9700K, предлагает примерно то же самое, что и Core i9-9900K, но без поддержки Hyper-Threading и с определёнными ограничениями. Его базовая частота установлена в такие же 3,6 ГГц. При нагрузке на все ядра максимально возможная частота составляет 4,6 ГГц, а при нагрузке на одно ядро — 4,9 ГГц.

Ещё одно важное преимущество чипов Intel Core i9-9900K и i7-9700K заключается в изменении термоинтерфейсного материала, используемого при передаче тепла от процессорного кристалла на теплораспределительную крышку. Впервые со времён Ivy Bridge внутри процессорной сборки используется припой со значительно более высокой теплопроводностью, чем традиционная полимерная термопаста. Это увеличивает эффективность охлаждения CPU, обеспечивает более благоприятный температурный режим во время работы и максимальную производительность даже при самых ресурсоёмких нагрузках.

Предлагаемые компанией HOSTKEY серверы на базе Intel Core i9-9900K и i7-9700K оснащены 32 Гбайт высокоскоростной памяти c повышенной пропускной способностью и сниженной задержкой доступа и допускают подключение до трёх NVMe SSD-накопителей. Благодаря высокой производительности такие машины могут быть использованы для обработки и анализа больших объёмов данных, виртуализации, облачных вычислений и решения задач, связанных с искусственным интеллектом.

«В то время, как запросы клиентов растут быстрее, чем когда бы то ни было, HOSTKEY всегда стремится оптимизировать технику, обеспечивая максимально возможную производительность для своих клиентов. Поэтому наш инженерный отдел провёл тщательные испытания новых процессоров Intel во множестве различных серверных конфигураций. Таким образом мы создали платформы, снижающие нагрузку на процессор и при этом легко решающие задачи, требующие сложных вычислений, делая эти серверы идеальными даже для самых требовательных рабочих нагрузок», — говорит Антонина Огарь, старший менеджер отдела по работе с клиентами HOSTKEY.

Серверы на базе лучших в своём сегменте процессоров Intel Core i9-9900K и i7-9700K располагаются в дата-центрах HOSTKEY в Нидерландах и России. В ближайшем будущем планируется также разместить серверы в США.

Подробную информацию о новых предложениях HOSTKEY можно найти на сайте hostkey.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/982571
Система Orphus