Материалы по тегу: статистика

17.02.2021 [23:41], Владимир Мироненко

Почти 300 Тбит/с: из-за пандемии пиковый глобальный интернет-трафик вырос на 47%

Консалтинговая компания TeleGeography, занимающаяся исследованием глобального рынка телекоммуникаций, составила Глобальную карту интернета 2021 (Global Internet Map), которая отражает актуальные сведения о глобальном обмене интернет-трафиком.

В период с 2019 по 2020 год общая ёмкость глобальной Сети выросла на 35 %, с примерно с 450 до более 600 Тбит/с. Средний международный интернет-трафик увеличился с примерно 120 до 170 Тбит/с за 2020 год, а пиковый приблизился к отметке 300 Тбит/c. В последние годы пиковый трафик рос в среднем на 30% ежегодно. Ожидалось, что за период 2019-2020 г.г. этот показатель будет на уровне 28%, однако из-за пандемии он оказался намного выше — 47%.

Европа оказалась лидером по региональной ёмкости, она же показала и наибольший её рост с 2019 по 2020 год. Самыми нагруженными точками обмена трафиком (IX) в ушедшем году снова стали DE-CIX FRA (Франкфурт, Германия) и AMS-IX (Амстердам, Нидерланды). Пиковый трафик у обеих оказался в среднем около 7 Тбит/с. Вместе с тем 2020 год поставил антирекорд по числу введённых в строй новых IX за последние пять лет.

«Было очень интересно отслеживать глобальные тенденции в отношении пропускной способности и трафика за последний год, а также узнать, как операторы отреагировали на пандемию. Наши последние данные показывают, что глобальная пропускная способность и интернет-трафик резко выросли в 2020 году, в основном за счёт повсеместного распространения удалённой работы и обучения, когда больше людей, чем когда-либо прежде, стало полагаться на интернет, — сообщила Анаи Ребатта (Anahí Rebatta), старший аналитик TeleGeography. — И в этом году мы добавили ещё больше данных об облачной инфраструктуре, включая шесть новых карт поставщиков облачных услуг».

Карта доступна в виде интерактивной онлайн-версии, но можно заказать и печатную версию — постер размером 1,27 x 0,9144 м обойдётся в $250. Спонсором создания карты на этот раз выступила компания Netskope.

Постоянный URL: http://servernews.ru/1032861
18.01.2021 [12:25], Андрей Галадей

Разработчики open source остались востребованнными во время пандемии

Свежий отчёт от Linux Foundation и LISH (The Laboratory for Innovation Science at Harvard) показал, что многие разработчики проектов с открытым исходным кодом (open source) улучшили свои условия работы за период пандемии. Так, 56 % респондентов сообщили, что участие в таких проектах сыграло важную роль в получении работы.

А 55 % заявили, что их участие в проектах с открытым исходным кодом помогло им получить более высокую зарплату или улучшить перспективы трудоустройства. Всего было опрошено 1196 специалистов.

lombardia.it

lombardia.it

Помимо этого, 81 % заявили, что навыки и знания, полученные в результате работы над open source проектами, были ценными для их работодателей. Также сообщается, что за период пандемии только 4 % менеджеров по найму сообщили об увольнениях специалистов по open source.

Из отчёта следует также, что основной мотивацией для специалистов по open source являются не деньги, а возможность удовлетворить потребность в творческой, сложной и/или приятной работе. При этом вопрос безопасности открытого ПО остаётся на повестке дня. Ведь подавляющее большинство респондентов опроса сообщили, что они тратят мало времени на вопросы безопасности.

Постоянный URL: http://servernews.ru/1030293
18.12.2020 [16:02], Андрей Галадей

Seagate: половина малых и средних компаний в России не знает о NAS

Компания Seagate совместно с аналитическим агентством Magram провели количественное исследование, направленное на изучение методик и технологий хранения данных в сегменте малых и средних предприятий (МСП). В опросе принимали участие топ-менеджеры, IT-специалисты и управленцы. Они относились к ряду направлений индустрии — от медиа и финансов до здравоохранения и промышленности.

Как оказалось, всего 41% предприятий использует для обмена данными решения, которые позволяют передавать информацию внутри предприятий. При этом чаще всего (82% случаев) это электронная почта и, что интересно, не всегда корпоративная. Затем — локальная сеть (72%), мессенджеры (62%). При этом в малом бизнесе предпочитают мессенджеры (65% против 55%). А IT-специалисты отдают приоритет локальной сети (78% против 72% в целом).

Для хранения данных чаще всего используется локальная сеть (47%) из нескольких ПК. На втором месте — облачные ресурсы (33%), локальные сервера/СХД (32%) и внешние жесткие диски (30%). Отмечается, что в среднем бизнесе 46% случаев используются решения, при которых данные не покидают организацию. У малого бизнеса этот показатель равен 39%. При этом ситуация с защитой данных тоже выглядит не слишком хорошо.

Почти половина опрошенных компаний (43%) используют классические жесткие диски (HDD). Накопителями для NAS пользуется четверть опрошенных компаний (24%), твердотельными дисками (SSD) — 16%. При этом очень часто из-за неграмотной организации хранения и обработки лишь 32% доступных бизнес-данных активно используются, остальные 68% просто занимают место.

Наконец, половина опрошенных, как выяснилось, вообще не знает о NAS, потому в таких компаниях используются устаревшие и/или ненадёжные решения. Всё это может привести к целому ряду проблем — от банальных утечек и вплоть до нарушений работоспособности компьютерных систем предприятия.

Впрочем, всё это усреднённые показатели — например, IT-компании и IT-специалисты в других компаниях гораздо лучше осведомлены о возможных способах хранения, обмена и защиты данных, чем представители менеджмента.

Постоянный URL: http://servernews.ru/1028139
17.12.2020 [17:14], Сергей Карасёв

Количество уязвимостей в ПО в 2020 году обновило негативный рекорд

Статистика, собранная Компьютерной командой экстренной готовности США (US-CERT), говорит о том, что в нынешнем году установлен новый антирекорд по количеству обнаруженных уязвимостей в программном обеспечении (ПО).

На момент подготовки этого материала данные US-CERT говорили о выявлении в 2020 году 17 550 «дыр» разного уровня опасности в программных продуктах. Для сравнения: в прошлом году число обнаруженных уязвимостей составило 17 306.

Сообщается, что в 2020-м выявлены 4177 уязвимостей с высоким уровнем опасности против 4337 в прошлом году. Основную массу составили «дыры» среднего уровня опасности — 10 776, что ниже прошлогоднего значения в 10 956. А вот число малоопасных уязвимостей поднялось с 2013 до 2597.

Нажмите для увеличения

Нажмите для увеличения

Таким образом, в уходящем году в четвёртый раз подряд поставлен негативный рекорд по количеству новых уязвимостей. Специалисты говорят, что наблюдающаяся картина может объясняться двумя причинами — ухудшающимся качеством программного кода и возросшей активностью «белых» хакеров, которые ищут проблемные места в софте за вознаграждение от разработчиков. 

Основная часть уязвимостей касалась веб-приложений, однако заметен рост и в других сегментах. Например, число обнаруженных дыр в API выросло вдвое, а для Android — втрое. Кроме того, сменились и цели для атак и изучения. Если раньше компании больше беспокоились о проблемах в продуктах, с которыми взаимодействуют их конечные потребители, то теперь внимание уделяется и собственной IT-инфраструктуре, и продуктам, которые используются сотрудниками.

Постоянный URL: http://servernews.ru/1028105
24.08.2020 [22:04], Илья Коваль

Chromium и его наследники ответственны почти за половину трафика к корневым DNS-серверам

APNIC, регистратор, ответственный за Азиатско-Тихоокеанский регион, рассказал в блоге о неожиданных последствиях решения, принятого 10 лет назад разработчиками Chromium, которое используется в Chrome и других браузерах — все вместе они ежедневно генерируют 60 млрд запросов к корневым серверам, без которых можно было бы обойтись.

Адресная строка уже давно является не просто полем ввода для имени сайта — в неё можно ввести любой запрос, который будет отправлен поисковику, установленному по умолчанию. Прямо во время ввода текста она даже показывает подсказки, и за этим механизмом стоят интересные алгоритмы. Как определить на лету, имеет ли ввиду пользователь конкретный сайт или просто пытает найти что-то? Может быть, он хочет зайти на какой-то локальный ресурс в корпоративной сети?

Самый простой способ — запросить у DNS-сервера, есть ли такой домен вообще. Если в ответ была получена ошибка, то текст в адресной строке трактуется как поисковый запрос. В реальной жизни, увы, далеко не все соблюдают стандарты. В частности, некоторые провайдеры (включая очень и очень крупных), отлавливают ответы об ошибках, и они не доходят до браузера. Делается это зачастую для дополнительной монетизации путём перенаправления с ошибочного адреса на собственные сервисы провайдера.

Чтобы понять, занимается ли такой практикой провайдер, браузер обращается к трём случайно сгенерированным доменным именам первого уровня длиной от 7 до 15 символов, которые заведомо не существуют. Если для двух из трёх тестовых запросов будет обнаружено перенаправление провайдером на один и тот же ресурс, то браузер меняет обработку текста в адресной строке. Такие тестовые запросы происходят при старте браузера, а также при смене IP-адреса и DNS-сервера в ОС.

Специалисты APNIC собрали статистику запросов к своим корневым серверам, чтобы оценить влияние браузеров на базе Chromium, среди которых один Chrome занимает порядка 70% рынка веб-браузеров во всём мире. Удивительно, но факт — всего лишь 21,91% запросов были связаны с обращением к реально существующим доменам. Все остальные касались попыток получить информацию о несуществующих именах. Характерными признаками тестовых запросов Chromium является их длина, частота и повторяемость — таковых оказалось 45,80%.

Проще говоря, почти половина обращений к корневым DNS-серверам, по данным APNIC, связано именно с работой Chromium и его наследников, которые таким образом пытаются определить, следуют ли провайдеры интернет-стандартам. Причём рост таких запросов коррелирует с ростом доли этих браузеров за последнее десятилетие. DNS-серверы спокойно выдерживают возрастающую нагрузку, однако, пожалуй, механизм работы Firefox, который имеет ровно те же проблемы с определением типа содержимого в адресной строке, обходится без многочисленных мусорных DNS-запросов.

Постоянный URL: http://servernews.ru/1018985
21.08.2020 [11:32], Юрий Поздеев

Backblaze опубликовала статистику по отказам жестких дисков. Повышается ли их надежность?

Backblaze специализируется на резервном копировании и каждый квартал публикует статистику отказов жестких дисков, начиная с 2013 года. Во 2 квартале 2020 года показатель AFR (годовая частота отказов) оказался самым низким за всю историю: 0,81 процента. По состоянию на конец июня Backblaze использовала 142 630 жестких дисков емкостью от 4 до 16 Тбайт в четырех центрах обработки данных.

Один из 60 дисков Seagate емкостью 16 Тбайт вышел из строя, что дает самый высокий процент отказов, однако это могло быть случайным совпадением или заводским дефектом. Впечатляющие показатели продемонстрировали жесткие диски HGST (Hitachi Global Storage Technologies) емкостью 12 Тбайт: из 13 446 дисков вышли из строя только 22, что соответствует примерно 0,65%.

Диски HGST меньшего объема показали себя еще лучше: из 1000 дисков объемом 8 Тбайт ни один не вышел из строя, а среди дисков 4 Тбайт показатель отказов составил всего 0,3%. Однако, прежде чем броситься покупать диски HGST, обратите внимание, что эту компанию в 2012 году приобрела Western Digital, а в 2018 году бренд HGST был ликвидирован: бизнес, ничего личного.

Впервые за всю историю измерений Backblaze зафиксировал показатели отказа меньше одного процента. Таблица совокупных «дисковых дней» с 2013 года показывает, что диски обычно используются в течение нескольких лет, поэтому повышение частоты отказов — это не просто вопрос использования новых дисков, нужно учитывать показатели за весь срок эксплуатации.

По словам Backblaze, модель Seagate 4 Тбайт имеет «средний возраст» почти пять лет, а гарантийный срок давно истек. Модель диска с самым высоким средним возрастом – Seagate 6 Тбайт, многие из которых старше 5 лет, при этом в текущем квартале не было зафиксировано ни одного сбоя. Какой производитель поставляет самые надежные диски? На этот вопрос у Backblaze нет однозначного ответа: HGST зарекомендовали себя как самые надежные диски, но они больше не выпускаются, а дисков Western Digital и Toshiba недостаточно, чтобы делать подобные выводы.

Если смотреть на цифры, то лидирует HGST, далее идет Toshiba, затем с большим отрывом Seagate (почти в 2 раза больше отказов, чем у Toshiba), а замыкает список Western Digital. Осталось только заметить, что статистика Backblaze не является всеобъемлющей и надежность старых моделей дисков не гарантирует такую же надежность у современных моделей.

Постоянный URL: http://servernews.ru/1018762
06.08.2020 [23:04], Владимир Мироненко

В 2020 году Европа по-прежнему лидирует по уровню энергоэффективности ЦОД

Участники некоммерческого отраслевого консорциума Green Grid, впервые приняв в 2007 году метрику PUE (эффективность использования энергии) для центров обработки данных, согласились с тем, она не предназначена для использования в качестве сравнительного показателя, так как ситуации бывают разные. Поэтому компания Uptime Institute, опубликовав диаграмму, отражающую показатель PUE по регионам, воздержалась от какой-либо критики по этому поводу.

Из диаграммы следует, что в целом в Европе находятся самые энергоэффективные центры обработки данных, а на Ближнем Востоке и в Африке — показатель PUE хуже всего.

Эта диаграмма построена на основе ответа на вопрос, который Uptime Institute каждый год задаёт крупным операторам дата-центров: «Какой среднегодовой PUE для вашего крупнейшего ЦОД?». По итогам опроса 450 респондентов в 2020 году, средний PUE их крупнейших ЦОД составил 1,59. Это число немного снизилось по сравнению с прошлым годом, но фактически была продолжена тенденция к отсутствию улучшений, которая не меняется с 2013 года.

Диаграмма построена на основе части всех собранных данных. Эта выборка касается тех, кто сообщил о PUE в пределах от 1,0 до 2,19. Всего насчитывается 313 таких респондентов. Другие случаи исследователи посчитали частными или крайними отклонениями. Средние показатели по регионам варьируются от 1,46 (Европа) до 1,79 (Африка и Ближний Восток). Для России и СНГ этот показатель равен 1,6, но и выборка тут получилась совсем маленькая. 

Наиболее весомым фактором, влияющим на PUE, является климат. Это наглядно проявляется в Латинской Америке, Африке, Ближнем Востоке и большей части Азиатско-Тихоокеанского региона. В регионах, где температура воздуха выше, чем в зонах с умеренными климатическими условиями, может быть меньше возможностей воспользоваться преимуществами технологий естественного охлаждения (фрикулинга), которые позволяют существенно снизить потребление энергии. Это особенно актуально в районах с высокой влажностью или нехваткой воды.

Наличие проблем с поставками, отсутствие квалифицированных специалистов по обслуживанию или нестабильность энергосистемы могут также вынудить операторов применять менее энергоэффективный подход, чем хотелось бы, но который несёт меньше рисков возникновения ошибок.

В двух регионах с самыми низкими значениями PUE — в Европе и США/Канаде — размеры выборки примерно равны, но средний PUE в Европе ощутимо ниже. Это может быть связано с тем, что цены на энергоносители в Европе, как правило, выше, и/или что операторы и регулирующие органы более тщательно относятся к вопросам экологии и устойчивого развития, чем в США. Ну и климат тоже помогает улучшить PUE. 

В Лондоне, Амстердаме и Франкфурте, где расположена большая часть центров обработки данных на европейском континенте, а также в странах Северной Европы и Дублине, климат — умеренный. А в Азиатско-Тихоокеанском регионе, где по большей части жарко и влажно, более 10% провайдеров сообщило о значении PUE выше 2,19.

Постоянный URL: http://servernews.ru/1017638
01.05.2020 [00:12], Игорь Осколков

Энергоэффективность дата-центров практически перестала расти

Согласно данным Uptime Institute, среднее значение коэффициента PUE (power usage effectiveness) для дата-центров в 2020 году равно 1,59. Это немногим лучше показателя семилетней давности — 1,65. Более того, в прошлом году среднее значение и вовсе подросло до 1,67, тогда как в 2018-м оно составляло 1,58.

PUE указывает на то, насколько эффективно использует электроэнергию IT-система: ЦОД, кластер, суперкомпьютер и т.д. Коэффициент показывает отношение всех энергозатрат объекта к затратам только на вычислительные мощности.

В идеальном случае он равен единице. На практике у наиболее энергоэффективных современных систем PUE составляет менее 1,1. Кроме того, могут быть нюансы с подсчётом суммарного энергопотребления. Например, не все учитывают офисные и хозяйственно-бытовые нужды ЦОД. Как бы то ни было, в 2007 году, когда и была предложена данная метрика, впоследствии ставшая стандартом ISO/IEC, коэффициент PUE составлял в среднем 2,65. До 2013 года он снижался очень быстрыми темпами, после чего скорость падения резко замедлилась.

Uptime Institute объясняет это тем, что на первом этапе были задействованы относительно простые и дешёвые методы повышения эффективности, тогда как дальнейшие этапы оказались намного сложнее и затратнее. Большинство новых, построенных с нуля ЦОД вписываются в диапазон PUE от 1,2 до 1,4. Однако в работе всё ещё находятся тысячи дата-центров «прошлых лет», которые не могут быть обновлены. И не только по экономическим причинам, но и потому, что им, например, необходимо поддерживать высокий уровень доступности.

Источник: Google

Источник: Google

Новые ЦОД чаще строятся гиперскейлерами, и эти дата-центры в целом и крупнее, и энергоэффективнее. По данным Uptime Institute за 2019 год, ЦОД мощностью от 20 МВт имеют более низкий средний показатель PUE. Данные Google показывают такую же общую тенденцию, но значение PUE у дата-центров компании и так ниже среднего по индустрии.

Постоянный URL: http://servernews.ru/1009895
15.01.2018 [16:32], Андрей Крупин

Статистический сервис «Домены России» пополнился данными по DNS-серверам

Созданная Координационным центром доменов .RU/.РФ и Техническим центром Интернет информационная веб-площадка «Домены России» пополнилась новым разделом — «DNS-статистика». В нём представлены актуальные сведения о том, сколько авторитативных серверов имён поддерживают доменные зоны второго уровня в Рунете, и какие это серверы.

Проект «Домены России» функционирует с 2011 года. На страницах ресурса размещена ежедневно обновляемая статистика, охватывающая все аспекты российского сегмента Сети. Благодаря сервису пользователи могут узнать, сколько доменных имён зарегистрировано в Рунете, на скольких из них уже работают сайты, в каком регионе РФ зарегистрировано больше всего доменов и когда ожидается появление новых доменных зон. Помимо доменной статистики на сайте «Домены России» также представлены аналитические материалы и данные по веб-серверам, обслуживающим сайты доменных зон .RU и .РФ, и установленным на серверах операционным системам.

Основными источниками статистических данных, представленных на ресурсе, являются главный реестр доменов .RU и .РФ, данные поискового робота, сканирующего сайты по доменам из реестров, и специализированные счётчики сервиса Openstat. Данные из реестра ежедневно обрабатываются при помощи технических средств Openstat для формирования отчётов, графиков и диаграмм.

Ресурс «Домены России» может быть полезен как для журналистов и аналитиков, специализирующихся на вопросах развития и функционирования доменного пространства и Интернета в целом, так и для широкого круга посетителей, желающих больше узнать о том, как работают российские домены.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/964125
16.11.2017 [19:00], Алексей Степин

77 % новых кластерных систем и суперкомпьютеров используют InfiniBand

Как мы уже неоднократно отмечали, одной из важнейших частей любого суперкомпьютера или кластера является система межузловых соединений. Именно от неё зависит то, насколько эффективно будут распараллеливаться ресурсы, ведь медленная сеть легко может свести на нет все преимущества самых мощных процессоров и ускорителей. Сегодня Ethernet претендует на эту роль весьма активно благодаря развитию новых стандартов и достижению скоростей уровня 200 Гбит/с. Но другая технология, исторически раньше укоренившаяся в суперкомпьютерной отрасли, InfiniBand, похоже, не собирается сдавать позиции.

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Говорим InfiniBand, подразумеваем Mellanox. Именно эта компания является самым активным разработчиком соответствующих устройств на рынке InfiniBand. Такое название, как ConnectX, знакомо любому, кто когда-либо интересовался тематикой высокоскоростных межсерверных соединений. Компания опубликовала последнюю статистику, согласно которой, 77 % всех суперкомпьютеров, вошедших в список TOP500 последними, в период с июня по ноябрь текущего года, используют именно InfiniBand. Таких систем в шесть раз больше, нежели применяющих сети собственной разработки и в 15 раз больше, нежели платформ, объединённых стандартом Ethernet.

А вот новейшие модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

А вот последние модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

Всего на долю InfiniBand приходится 60 % всех систем в списке, из этих 60 % две системы входят в пятёрку наиболее производительных суперкомпьютеров в мире. Как считают представители Mellanox, это закономерно, поскольку InfiniBand обладает рядом преимуществ перед Ethernet. Как минимум, данный протокол с самого начала разрабатывался, как предназначенный именно для использования в системах класса HPC, поэтому его создатели сконцентрировались на достижении не только высокой пропускной способности, но и минимизации задержек. Впрочем, Mellanox не отказывается от Ethernet. Напротив, на выставке-конференции SC17 она представила ряд интересных решений, включая новейшие «умные» ускорители на базе связки чипов ConnectX-5 и Xilinx Kintex UltraScale.

Постоянный URL: http://servernews.ru/961639
Система Orphus