Top.Mail.Ru
КОНФИГУРАТОР Серверы
Сетевое оборудование
СХД
IP-телефоны IP-камеры Источники бесперебойного питания (ИБП) Комплектующие Готовые решения Серверы под задачу
О компании Купить в лизинг Блог Отзывы Доставка Гарантия Контакты Работа у нас Реквизиты Спецпредложения Игровые ПК на ISKRAPC Заявка в тех поддержку
Эксперты в подборе IT-оборудования

Температура в серверной: нормы по ГОСТ, контроль и последствия перегрева

20 января 2026
Температура в серверной: нормы по ГОСТ, контроль и последствия перегрева

Серверная комната, в которой +35°C, — это не просто неприятность для админа, зашедшего проверить кабель. Это прямой путь к отключению оборудования, потере данных и простою, который обходится компаниям в среднем в 150 000 рублей за каждый час. При этом от 13 до 45% всех аварий в дата-центрах происходят именно из-за перегрева. Вопрос температуры — не прихоть перфекционистов, а базовое условие работы IT-инфраструктуры.

Проблема в том, что многие компании относятся к климату в серверной по остаточному принципу: поставили обычный кондиционер, повесили один датчик (а то и вообще забыли) — и считают, что этого достаточно. Спойлер: недостаточно. Разбираемся, какие нормы действуют в России, почему перегрев сервера бьёт не только по железу, но и по бюджету, и как настроить контроль температуры так, чтобы спать спокойно.

Какие нормы регулируют температуру в серверных

В России прямого ГОСТа, посвящённого исключительно температурному режиму серверных, нет. Зато есть СН 512-78 — строительные нормы для проектирования технических зданий, которые включают требования к помещениям с вычислительной техникой. Согласно этому документу, в серверной должно быть установлено минимум два датчика температуры с выводом данных на диспетчерский пункт, а система кондиционирования обязана работать автономно, без транзитных коммуникаций (то есть отдельно от общего офисного климат-контроля).

Рекомендуемый диапазон температур по СН 512-78 — от 18 до 27°C, при этом оптимальным считается коридор 20–24°C. Допустимые значения шире: от 15 до 32°C, но находиться в этих границах постоянно — значит играть с огнём. Влажность должна держаться в рамках 20–80% без резких скачков, потому что конденсат или статическое электричество при низкой влажности — тоже источники проблем.

На международном уровне ориентируются на стандарты ASHRAE (Американское общество инженеров по отоплению, охлаждению и кондиционированию). Они делят оборудование на классы A1–A4 и рекомендуют свои диапазоны для каждого:

Класс оборудования Температура (°C) Влажность (%) Применение
A1 15–32 20–80 Корпоративные дата-центры с жёсткими SLA
A2 10–35 20–80 Офисные серверные, облачные провайдеры
A3 5–40 8–85 Периферийные ЦОД, промышленные объекты
A4 5–45 8–90 Временные или мобильные инсталляции

Класс A1 — самый строгий, его выбирают для критичных нагрузок, где отказ недопустим. A4 — максимально терпимый к условиям, но используется редко, обычно там, где нет возможности обеспечить стабильный климат (например, контейнерные ЦОД на стройплощадках).

Для серверных комнат в обычных офисах золотой стандарт — придерживаться класса A1 или A2 и поддерживать температуру в районе 22°C с точностью ±1–2°C. Прецизионные системы кондиционирования справляются с этим лучше бытовых, удерживая параметры с точностью до ±1°C даже при изменении тепловой нагрузки.

Жёсткие диски начинают выходить из строя при 55–60°C. CPU и GPU включают троттлинг (снижение частоты) уже при 90°C, теряя до 40% производительности.

Почему перегрев сервера — это дорого

Когда температура в серверной превышает допустимые значения, первым делом страдают жёсткие диски. HDD рассчитаны на работу при 40–50°C, и при 55–60°C их механика начинает давать сбои: увеличивается количество битых секторов, растёт вероятность отказа головок. SSD чуть выносливее, но и они теряют стабильность при длительном перегреве — контроллеры «глючат», ячейки памяти деградируют быстрее.

Процессоры и видеокарты при 80–90°C активируют thermal throttling — принудительное снижение тактовой частоты, чтобы остыть. Сервер вроде работает, но в режиме «черепахи»: запросы обрабатываются медленнее, пользователи жалуются на тормоза, а производительность падает на 30–50%. Если температура поднимается ещё выше, срабатывает защита, и система просто вырубается. Экстренное отключение — это не только простой, но и риск потери данных, которые не успели записаться на диск.

Самая коварная штука — рециркуляция горячего воздуха. Это когда горячий воздух, выходящий из задних панелей серверов, не успевает эвакуироваться и снова засасывается в передние воздухозаборники. Получается замкнутый круг: оборудование греет само себя, температура растёт по экспоненте, и даже мощный кондиционер не справляется. В большинстве случаев рециркуляция — главная причина локальных перегревов в стойках.

Цена вопроса — не только ремонт или замена «сгоревшего» железа. Простой IT-системы для компании среднего размера обходится в 100–200 тысяч рублей в час, если учитывать потерю выручки, зарплату сотрудников, которые сидят без дела, и репутационные издержки. Восстановление работы после аварийного отключения может занять от нескольких часов до суток — в зависимости от того, насколько повезёт с резервными копиями и скоростью реакции команды.

Есть и долгосрочные эффекты: оборудование, работающее при повышенных температурах, изнашивается быстрее. Срок службы серверов и сетевого оборудования сокращается на 20–30%, растёт частота замены компонентов. Энергопотребление тоже увеличивается — перегретое железо требует больше энергии для выполнения тех же задач.

Рециркуляция горячего воздуха в стойках — главная причина локальных перегревов даже при общей нормальной температуре в помещении. Организация холодных и горячих коридоров решает проблему.

Как контролировать температуру: датчики, системы и автоматизация

Мониторинг температуры — это не «желательно», а обязательно. СН 512-78 требует минимум два датчика с выводом на диспетчеризацию, но на практике для комнаты до 20 м² лучше ставить 4–8 штук, чтобы отслеживать не только общую картину, но и локальные зоны: холодный коридор (перед серверными стойками), горячий коридор (за ними), фальшпол (если он есть, высота 200–300 мм — как раз там скапливается холодный воздух от кондиционера).

Современные датчики умеют не только замерять температуру и влажность, но и отправлять уведомления по SMS или email при превышении порогов. Это позволяет среагировать до того, как проблема станет критической. Например, системы вроде UniPing или testo Saveris 2 настраиваются за полчаса и работают автономно — даже если основной сервер упал, датчики продолжают сигналить через собственный GSM-модуль.

Для тех, кто хочет видеть не просто цифры, а динамику изменений, есть платформы мониторинга: Zabbix, PRTG, Nagios. Они собирают данные с датчиков, строят графики, позволяют анализировать тренды. Если температура постепенно ползёт вверх в течение недель, это повод проверить систему охлаждения, пока она не сдала окончательно. Интеграция с этими системами превращает разрозненные датчики в единую картину происходящего.

Ключевые зоны для мониторинга:

  • Холодный коридор — здесь должна быть самая низкая температура (19–22°C), именно отсюда серверы забирают воздух.
  • Горячий коридор — за стойками температура может достигать 35–40°C, это нормально, если горячий воздух быстро выводится.
  • Фальшпол — если кондиционер подаёт воздух снизу, важно следить, чтобы под полом не застаивался холод (это потери энергии) и не было засоров в перфорации.
  • Верхняя зона — горячий воздух поднимается к потолку, там температура всегда выше. Если разница между полом и потолком больше 5–7°C, вентиляция работает плохо.

Автоматизация — следующий уровень. Можно настроить сценарии: при превышении 27°C система автоматически включает резервный кондиционер или отправляет команду на снижение нагрузки на серверы (например, временно отключает неприоритетные виртуальные машины). Для виртуализированных сред есть функции power management — перераспределение нагрузки между хостами с учётом их температуры.

Системы охлаждения: что выбрать

Обычный офисный кондиционер для серверной — плохая идея. Он не рассчитан на круглосуточную работу под нагрузкой, не обеспечивает точного поддержания температуры и имеет широкий гистерезис (разница между включением и выключением может быть 3–5°C). Для серверной нужны прецизионные системы кондиционирования — они держат температуру с точностью ±1°C, работают 24/7 без перегрузок и управляют не только температурой, но и влажностью.

Прецизионные кондиционеры дороже бытовых в 2–3 раза, но окупаются за счёт надёжности и экономии электроэнергии. Да, на охлаждение уходит до 40% от общих энергозатрат ЦОД — неэффективная система съедает бюджет быстрее, чем кажется.

Для малого бизнеса, у которого нет 500 000 рублей на прецизионную установку, есть компромисс: качественная сплит-система инверторного типа с автоматическим поддержанием температуры плюс резервный блок на случай отказа. Главное — не экономить на установке двух независимых кондиционеров (основной и резервный), потому что летом, когда основной умрёт в пятницу вечером, а сервисная служба приедет только в понедельник, вы вспомните эти строки.

Для крупных инсталляций используют жидкостное охлаждение (liquid cooling) — особенно актуально для высоконагруженных серверов с топовыми процессорами и GPU. Вода отводит тепло эффективнее воздуха, позволяет размещать оборудование плотнее и снижает шум. Правда, такие системы требуют профессионального монтажа и регулярного обслуживания.

Организация воздушных потоков — не менее важна, чем сам кондиционер. Холодные и горячие коридоры создаются за счёт расположения стоек: передние панели серверов смотрят в один коридор (холодный), задние — в другой (горячий). Между коридорами ставятся перегородки или шторы, чтобы потоки не смешивались. Звучит просто, но на практике такая организация снижает температуру в стойках на 5–10°C без дополнительных затрат на охлаждение.

Что делать малому и среднему бизнесу

Если у вас не дата-центр на 500 стоек, а серверная комната на 10–20 м² с парой-тройкой стоек, подход должен быть рациональным. Прецизионный кондиционер за полмиллиона — избыточно. Датчики температуры за 50 000 — тоже перебор. Но и пускать на самотёк нельзя.

Минимальный набор для контроля климата в небольшой серверной:

  • Два кондиционера (основной и резервный), желательно инверторного типа с автоматическим поддержанием температуры. Бюджет — 150–200 тысяч рублей на оба.
  • Три-четыре датчика температуры и влажности с уведомлениями. Подойдут UniPing Server Solution v3 или аналоги за 15–25 тысяч рублей за комплект.
  • Интеграция с системой мониторинга (Zabbix бесплатный, PRTG имеет бесплатную версию на 100 датчиков).
  • Правильная организация стоек: холодный и горячий коридоры, даже если у вас всего две стойки.

Виртуализация помогает не только экономить на железе, но и управлять тепловыделением. Современные гипервизоры (VMware, Hyper-V, Proxmox) умеют мигрировать виртуальные машины между хостами с учётом загрузки и температуры. Если один сервер начинает греться, нагрузку можно автоматически переместить на другой. Это не заменит кондиционер, но даёт дополнительный буфер безопасности.

Регламент обслуживания тоже важен: чистка фильтров кондиционеров раз в квартал, проверка датчиков раз в полгода, контроль состояния уплотнителей на дверях и окнах (чтобы горячий воздух из коридора не просачивался в серверную). Это дешевле, чем устранять последствия аварии.

Сколько стоит не следить за температурой

ROI (возврат инвестиций) от системы контроля температуры считается просто. Датчики и кондиционеры за 200–250 тысяч рублей окупаются после первого же предотвращённого простоя. Если ваша серверная обеспечивает работу компании, которая теряет 150 000 рублей за час простоя, то система мониторинга окупится, даже если предотвратит одну аварию в год. А предотвратит она больше — статистика показывает, что контролируемые серверные сталкиваются с температурными проблемами в 5–7 раз реже, чем те, где климат «на глазок».

Энергосбережение — ещё один аргумент. Эффективная система охлаждения снижает энергозатраты на 20–30%. Если серверная потребляет 50 кВт в месяц, а тариф 6 рублей за кВт·ч, экономия составит 18 000 рублей ежемесячно, или больше 200 000 в год. За три года это перекроет стоимость оборудования с лихвой.

И последнее: спокойствие. Знать, что температура под контролем, что при превышении порога придёт SMS, что резервный кондиционер включится автоматически — это дорогого стоит. Особенно когда вы в отпуске, а не в серверной комнате с градусником в руке.

ПОДПИСКА

НА РАССЫЛКУ
ПОЛЕЗНЫЕ СТАТЬИ, АКЦИИ
И ЗАКРЫТЫЕ РАСПРОДАЖИ
Котик подписка
Похожие статьи
Вам также может быть интересно

ТОП-5 ошибок при выборе сервера
Товар добавлен в список сравнения
Перейти в сравнение
Продолжить просмотр
Заявка в тех поддержку
Консультация
ИТ-специалиста
Перезвоним и ответим на ваши вопросы
или напишите нам
IT-архитектор подберет сервер под вашу задачу
Заказать сервер
Мы свяжемся с вами в течение 15 мин
Зарегистрироваться в бонусной программе
Консультация
ИТ-специалиста
Перезвоним и ответим на ваши вопросы
или напишите нам