Как устроены дата-центры и почему им стоит доверить сохранность ИТ-инфраструктуры на примере ЦОДа «Санкт-Петербург»
Коронавирус повлиял на все: от театров до финансовых рынков. Но не для всех пандемия оказалась одинаково губительной: в новых условиях востребованы оказались услуги по обеспечению ИТ-инфраструктуры, – и теперь эксперты прогнозируют сохранение роста рынка дата-центров. Вместе с «Ростелеком-ЦОД» разбираемся, чем бизнесу полезны ЦОДы и как устроен дом, в котором хранятся данные, на примере дата-центра «Санкт-Петербург».
В 2020 году крупные компании не только вынуждено перевели сотрудников на удаленную работу, но и всерьез задумались о совершенствовании собственной ИТ-инфраструктуры.
Прямо сейчас мы, вероятно, наблюдаем звездный час всего, что связано с цифровой инфраструктурой: удаленной работы, электронного документооборота, системы дистанционного обучения, использования цифровых приложений в видеосвязи, телемедицине и науке, интернета вещей. Согласно исследованию iKS-Consulting, наметившаяся тенденция позволит обеспечить рост рынка дата-центров на 21–25 процентов.
Представьте загородный дом. Внутри вы наверняка можете разместить нескольких друзей, разложив диван для гостей. Но в случае мощного, разрушительного урагана, потопа, пожара или апокалипсиса вы точно не сможете принять у себя жителей соседней деревни и их ближайших родственников: во-первых, не хватит места, а во-вторых, ваш дом просто для такого не приспособлен.
Точно так же обычный офис не способен обеспечить сохранность объемной ИТ-инфраструктуры: для этого требуется особое помещение, серверная, дорогостоящее ИТ-оборудование и квалифицированный персонал для его обслуживания. При этом даже самое крутое устройство для хранения информации не гарантирует бесперебойность работы на 100 процентов, и нужна страховка на случай сбоя в работе техники.
Дата-центр — это место, сконструированное специально для размещения серверного и сетевого оборудования. Для него важны бесперебойное энергоснабжение и охлаждение. Без первого даже небольшое «моргание» электричества приведет к временной недоступности конечного сервиса (сайта, 1С, CRM-системы, которые работали на оставшемся без питания сервере). Без правильного охлаждения работающее ИТ-оборудование способно нагреть воздух вокруг себя до 70°С всего за час. Такая температура приведет к перегреву и остановке оборудования.
Еще в дата-центре обычно имеется несколько уровней физической безопасности (круглосуточная охрана, видеонаблюдение и СКУД), своя система пожаротушения и пожарообнаружения. ЦОД не может быть автономным, поэтому для связи с внешним миром работает команда телеком-операторов, через которых можно подключаться к своему оборудованию. Но об этом чуть позже.
Каждый дата-центр гарантирует клиенту, что его данные и сервисы будут доступны с минимальным простоем. В 1993 году с целью повышения качества работы дата-центров в США была основана компания Uptime Institute, которая собрала и консолидировала международный опыт строительства и обслуживания дата-центров. На основе этой информации сотрудники компании внедрили классификацию Tier (от англ. «уровень») — шкалу надежности ЦОДов, подразделяющую их на 4 уровня: Tier I, Tier II, Tier III и Tier IV.
Чем выше уровень дата-центра, тем выше защита от отказов его систем и, следовательно, выше надежность.
Другой важный параметр — возможность проводить плановое и профилактическое обслуживание, не останавливая работу дата-центра. В случае Tier I и Tier II такой возможности не предусмотрено, а вот Tier III и Tier IV могут обслуживаться в любой момент без остановки работы ЦОДа.
Разберемся, как работает ЦОД уровня Tier III, на примере дата-центра «Ростелеком-ЦОД» в Санкт-Петербурге. Это охраняемое здание: пропускная система, видеокамеры и наблюдательный пункт, — без приглашения в ЦОД не попасть.
В ЦОДе ИТ-оборудование установлено в машинных залах. Каждый зал располагается в специальной гермозоне, которая дополнительно защищает от воды, пыли и огня. Перед запуском дата-центра все защитные короба проверяют несколько раз: устраивают настоящий потоп — проливают крышу тоннами воды.
Также в ЦОДе расположена инженерная инфраструктура (ИБП, ДГУ, кондиционеры), которая обеспечивает бесперебойную работу ИТ-оборудования: серверов, сетевого оборудования, хранилищ данных. Все это соединено сетевыми кабелями.
Еще одной особенностью машинного зала является то, что все оборудование размещается на фальшполе. Это дополнительный уровень пола, который позволяет размещать под ним все необходимые инженерные коммуникации: розетки, датчики протечек, трубы системы пожаротушения. Он не менее прочный, чем бетонный пол здания, так как должен выдерживать тяжелые нагруженные стойки с серверами.
Когда во всем доме отключается электричество, ваш стационарный компьютер несколько секунд издает неприятный писк. За эти несколько секунд до выключения питания вы можете успеть сохранить нужный файл. Это возможно при наличии источника бесперебойного питания (ИБП). Он помогает обеспечить некоторое время работы компьютера в пределах заданной нормы за счет собственных аккумуляторов.
Однако, если речь идет не о вордовском файле, а о работе целого предприятия, даже за краткосрочными сбоями в электроснабжении последуют огромные убытки. И дата-центр многие из этих рисков берет на себя.
Предположим, в определенном районе или даже во всем городе отключилось электричество. Сбой автоматически фиксируется на главном распределительном щите. Происходит рокировка — переключение с городского энергоснабжения на дизель-генератор. Однако ДГУ нужно время, чтобы завестись, — 30 секунд. Оборудование и техника не будут ждать, а просто-напросто перестанут работать. Чтобы не допустить этого, ЦОД предусмотрительно оснащен источниками бесперебойного питания (ИБП) от аккумуляторных батарей. В дата-центре их больше тысячи — именно они держат всю нагрузку ЦОДа (около 10 минут), предоставляя дизель-генератору возможность завестись.
Что делать, если ДГУ не заводятся больше 10 минут? На этот случай они тоже зарезервированы: в ЦОДе «Санкт-Петербург» есть еще 3 дизель-генератора в дополнение к 3-м основным. Каждый дизель-генератор дата-центра потребляет примерно 300 литров топлива в час.
Вообще у дата-центра уровня Tier III резервирование инфраструктуры и путей дистрибуции (кабелей) должно быть организовано по схеме не ниже N+1, то есть по схеме с одним резервным элементом. Это включает резервирование ДГУ, ИБП и аккумуляторных батарей.
В санкт-петербургском ЦОДе система энергоснабжения зарезервирована по схеме 2N, когда каждый элемент N дублируется. Дата-центр разделен на две части, у обеих — свой энергоцентр, который оборудован источниками бесперебойного питания и дизель-генераторными установками. От энергоцентров питание расходится по всем инженерным системам и ИТ-оборудованию.
Кстати, по стандарту Uptime Institute дата-центр должен проектироваться таким образом, чтобы основным источником питания служил не город, а именно ДГУ. Поэтому в санкт-петербургском ЦОДе сотрудники воспринимают перебои в электросети не как катастрофу, а как штатную ситуацию. Раз в месяц в ЦОДе проводится обязательное тестирование ДГУ. Все дизель-генераторные установки проверяются без остановки работы дата-центра. Это еще одно преимущество уровня Tier III — проводить тесты и ремонтировать оборудование можно без какого-либо ущерба для системы.
Для того чтобы обеспечить автономную работу на 24 часа, рядом с ЦОДом обустроено специальное топливохранилище.
Важно поддерживать климатические условия — влажность и температуру — в норме. Чтобы это обеспечить, в машинных залах работают промышленные кондиционеры.
Все стойки с ИТ-оборудованием в залах ЦОДа расположены по особому принципу: «горячих» и «холодных» коридоров.
Оборудование «забирает» охлажденный воздух из холодного коридора и выбрасывает нагретый воздух в горячий коридор, после чего воздух попадает в кондиционер. Кондиционер подключен к системе жидкостного охлаждения: охлаждающая жидкость «забирает» ненужное тепло и по трубопроводу уносит его к охлаждающей машине на крыше дата-центра — чиллеру. В чиллере хладагент охлаждается и снова подается в систему.
Такая схема помогает поддерживать постоянную рабочую температуру и влажность в холодном коридоре: 25±2 градуса и влажность 30–70 процентов.
Система холодоснабжения зарезервирована по схеме N+1: даже если один из элементов окажется неисправен, это никак не повлияет на работу системы, поскольку нагрузка будет распределена между оставшимся оборудованием.
Если у ЦОДа нет телекоммуникационных сервисов, в таком дата-центре нет никакого смысла — он превращается в склад техники. Поэтому в самом дата-центре должны присутствовать операторы связи. Чем больше операторов, тем лучше, — чтобы клиенты могли подключиться к тому, с кем уже привыкли работать.
Благодаря такой связности пользоваться услугами дата-центра можно даже в том случае, если ваш офис находится в другом городе. От ЦОДа оптоволоконные трассы уходят сначала на точку обмена трафиком (англ. Internet Exchange Point, IX, IXP), а далее распределяются по конечным точкам. Для надежности ЦОДу важно наличие зарезервированных телеком-вводов — их должно быть минимум два.
В ЦОДе «Санкт-Петербург» независимыми маршрутами заведены два телеком-ввода от магистралей «Ростелекома», а также размещаются несколько других провайдеров. Дата-центр готов принять любого телеком-провайдера, удобного клиенту.
Смена ЦОДа — это 15 инженеров и три охранника.
Обеспечение стабильной работы всего ЦОДа также невозможно без системы мониторинга: с ее помощью за всеми системами дата-центра ведется круглосуточное наблюдение. На площадке проводятся регулярные обходы, дежурят инженеры, которые следят за работой дата-центра и встречают клиентов. Кстати, благодаря этому в дата-центр можно приезжать и работать в любое время дня и ночи.
Раньше считалось, что все дата-центры сосредоточены в Москве: там расположен основной бизнес, а значит, всегда есть спрос на услуги хранения данных. Однако в течение последних лет в России активно развивается региональная сеть ЦОД. Кроме запустившегося несколько лет назад ЦОДа в Удомле, за последние полгода «Ростелеком-ЦОД» открыл дата-центры в Санкт-Петербурге, Новосибирске, Екатеринбурге. Сейчас продолжается проектирование и строительство ЦОДов в других регионах.
Побывать в действующем дата-центре и увидеть все воочию можно в дата-центре «Санкт-Петербург». Хотите записаться на экскурсию? Напишите Эльвире в Телеграм (экскурсии 18+).
Наталья Лучкина