Тренды рынка ЦОДов: дефицит мощностей, изменение цен и бум ИИ

Рынок дата-центров в 2026 году столкнулся с серьезным дисбалансом: спрос на мощности растет благодаря ИИ и цифровизации, но темпы ввода новых объектов замедляются из-за дефицита энергии и кадров. В большом интервью технический директор РТК-ЦОД Алексей Забродин, номинант рейтинга «Топ-100 ИТ-лидеров» Global CIO, честно оценивает ситуацию. Эксперт подробно разбирает ключевые вызовы: трансформацию архитектуры под AI-нагрузки, неизбежность жидкостного охлаждения и реальное состояние импортозамещения — от доли российского «железа» до проблем с совместимостью ПО. Отдельное внимание уделено новым технологиям управления через цифровые двойники и перспективам мобильных ЦОД для удаленных регионов.
Как вы оцениваете текущий рост мощностей российского рынка ЦОД в 2026 году по сравнению с предыдущими годами?
Загадывать наперед не хотелось бы, год только начинается. Но ситуация в целом уже сложилась, и она непростая. Оптимистичные заявления ряда игроков в духе «мы много строим и не планируем останавливаться» не вполне соответствуют действительности. Темпы выхода на рынок замедляются, дефицит стойко-мест растет, стоимость мощностей увеличивается еще ощутимее.
Спрос при этом сохраняется: цифровизация управления и производства продолжается, проекты запускаются, потребность в мощностях, в том числе для ИИ, растет. Однако само развертывание новых мощностей сопряжено с трудностями: нормативно-правовые барьеры, длительная окупаемость строительства. Благодаря смягчению денежно-кредитной политики интерес инвесторов к отрасли в ближайшие два года, скорее всего, немного подрастет. А пока общая картина выглядит даже хуже, чем прогнозировали эксперты. Рост цен на мощности, который еще недавно не казался взрывным, может создать у инвесторов иллюзию, что бюджетов и ресурсов хватает, значит, все хорошо. А это не совсем так.
Какие факторы, на ваш взгляд, станут основными драйверами спроса на инфраструктуру ЦОД в ближайшие 2–3 года?
Первый — накопление информации. Об этом много рассуждали раньше, пока не стало понятно: объем данных в мире удваивается каждые полтора-два года. Сегодня этот фактор не утрачивает актуальность. Второй — рост спроса на мощности ЦОД из-за развития нейросетей. Здесь не все однозначно. Нет такой отрасли, где не интересовались бы ИИ, но реального прорыва в масштабе экономики пока нет. Возможности нейросетей активно используют не более 10% компаний, в основном финтех и ИТ-гиганты, причем во внутренних процессах. Но это только пока. Стоит ожидать серьезного роста потребностей в ближайшие пару лет.
Такой «отложенный спрос» возник из-за серьезных препятствий: дефицита мощностей и высокой стоимости оборудования, административных барьеров. Чтобы их преодолеть, надо уже сегодня научиться быстрее строить дата-центры и справляться с нехваткой энергоресурсов. Ускорению процессов поспособствует льготное финансирование, а проблему с электроснабжением возможно решить, если снять ограничение на подключение дата-центров напрямую от питающих центров генерации. Если ничего не предпринять сейчас, завтра мы рискуем столкнуться с серьезным кризисом.
Влияет ли дефицит энергии или другие инфраструктурные ограничения на темпы ввода новых ЦОД в эксплуатацию?
Свободных мощностей для техприсоединения остается все меньше: основная часть либо уже задействована, либо зарезервирована на 2026–2028 годы крупными игроками. Параллельно нарастает проблема масштаба: большие ИИ-площадки требуют от 200 до 500 МВт в одной точке, а горизонт строительства таких подстанций составляет минимум четыре года.
Усугубляет ситуацию перекос географии рынка: около 75% мощностей сконцентрированы в Москве и области, еще 15% приходятся на Петербург. Нам в РТК-ЦОД это хорошо видно: мы строим геораспределенную сеть и знаем, что подключить площадку за пределами мегаполисов технически проще. Но заказчикам нужна надежная канальная связность и географическая доступность. Без параллельного развития телеком-инфраструктуры вынести ЦОД за пределы европейской части получается далеко не всегда.
Облачные решения
Переходит ли рынок к доминированию гибридных и мультиоблачных стратегий, и почему компании выбирают именно такой подход?
Гибридный подход уже стал нормой. Логика понятная: критичные данные и объекты КИИ живут в частном контуре, где контролируется каждый байт, а масштабируемые нагрузки, где это возможно, уходят в публичное облако с оплатой по факту потребления. Получается баланс между безопасностью и экономической гибкостью.
Мультиоблако набирает обороты медленнее. У российских заказчиков оно чаще возникает стихийно: у одного провайдера есть нужный GPU, у другого — привлекательная цена на хранение, у третьего — лучше SLA. Архитектура складывается по ситуации, потом приходится выстраивать единую систему администрирования и сводить биллинг.
В РТК-ЦОД мы видим растущий запрос именно на управляемый гибрид: заказчик хочет, чтобы ему помогли собрать архитектуру и распределить нагрузки, а не просто сдали стойко-место или мощности в облаке. Как сервис-провайдер полного цикла мы закрываем эту потребность в режиме одного окна — инфраструктура на собственных геораспределенных площадках, облачные сервисы, интеграция и сопровождение. Заказчику не приходится собирать пазл из пяти подрядчиков и думать, кто за что отвечает.
Как AI-инфраструктура меняет архитектуру облачных платформ, особенно в части GPU как сервиса?
По прогнозам облачных провайдеров, спрос на GPUaaS в 2026 году вырастет более чем на 50%. Около половины новых проектов в ИТ, промышленности, медицине и финансах будут задействовать GPU-серверы.
Модель GPUaaS работает по OPEX-логике: провайдер вкладывается в отказоустойчивую инфраструктуру, клиент арендует ресурсы по гибким тарифам. Это снимает головную боль потребителя с собственной закупкой «железа», которое устаревает быстрее, чем успеваешь его окупить.
Для облачной платформы это означает принципиально другую архитектуру: высокоплотные стойки с жидкостным охлаждением, мощные электрические подключения, быстрые интерконнекты. Обычный ЦОД на 5–8 кВт на стойку под такие задачи не годится, нужны 35 кВт и выше. Санкционные ограничения осложняют поставки современных GPU, поэтому провайдеры работают с азиатскими подрядчиками и присматриваются к отечественным сборщикам.
Какие вызовы возникают при интеграции AI-нагрузок в облачные среды?
Первый вызов, с которым сталкиваешься на практике, это физика. ИИ-нагрузки потребляют намного большее количество энергии, генерируют много тепла и требуют минимальных задержек между узлами. Установить ускоритель в стандартную стойку — полдела. Обеспечить стабильное охлаждение, бесперебойное питание и сетевую связность — вот где начинаются настоящие инженерные задачи. На сегодня они в основном уже имеют стандартизованные решения.
Второй вызов — кадровый. На рынке катастрофически мало специалистов, которые умеют проектировать и эксплуатировать ИИ-инфраструктуру. Здесь нужны инженеры, которые разбираются в построении высокоплотных инфраструктур, специфике ИИ-фабрик, кастомизации моделей и т. п. Мы в РТК-ЦОД решаем эту задачу комплексно: строим площадки, изначально спроектированные под высокоплотные нагрузки, и параллельно растим внутреннюю экспертизу.
ИТ-рынок в эпоху импортозамещения
На каком этапе находится импортозамещение ИТ-инфраструктуры в России: достигнуты ли ключевые цели?
Фаза экстренной замены закончилась, началась системная перестройка. По оценкам экспертов, более трети организаций достигли высокого уровня зрелости в переходе на отечественное ПО, еще столько же находятся в процессе. Доля российских серверов в поставках перевалила за 60% уже в первой половине 2025 года.
Но слово «миграция» звучит обманчиво легко. Перенести нагрузки, к примеру, с VMware на отечественную виртуализацию порой означает месяцы работы, тестирования, адаптации. Особенно в коммерческом секторе, где никто не горит желанием менять то, что функционирует, ради абстрактного требования. Процесс идет прагматично: компании взвешивают риски, считают деньги и делают ровно столько, сколько требуется.
Барьеров три, и они переплетены. Компонентная база: процессоры и память по-прежнему импортные. Программный стек: виртуализация, мониторинг, оркестрация подтягиваются, но совместимость между российскими решениями на низком уровне. Кадры: переучить команду за недельный курс не получится, нужны месяцы практики. При этом государство остается крупнейшим заказчиком: на госсектор приходится более половины проектов по облачной ИТ инфраструктуре.
Новые технологии в ЦОД
Станет ли жидкостное охлаждение отраслевым стандартом в ЦОД из-за роста плотности GPU-кластеров?
Стандартом в полном смысле слова пока нет, сейчас это скорее развивающееся решение. В 2025 году жидкостное охлаждение в мире вошло в базовый набор технологий для новых проектов. Крупные игроки по всему миру активно наращивали экспертизу в этом сегменте, в том числе через сделки M&A. Тот же путь ожидает и нас.
Логика здесь понятна. Когда стойка потребляет 35 и более кВт, воздух физически перестает справляться с отводом тепла. Жидкость отводит тепло непосредственно от источника, коэффициент теплообмена в 25–50 раз выше. Это экономит площадь, снижает операционные расходы и позволяет наращивать плотность без строительства дополнительных залов.
Для массового внедрения в России не хватает проверенных отечественных решений. Поэтому мы двигаемся поэтапно, от гибридных систем к полноценным жидкостным.
Как цифровые двойники и ИИ меняют управление жизненным циклом ЦОД, от проектирования до эксплуатации?
Цифровой двойник ЦОД, то есть виртуальная копия дата-центра, интегрируется с DCIM-платформой и превращается в инструмент предиктивной аналитики. Машинное обучение на данных с сотен датчиков определяет оптимальные режимы работы охлаждения, предсказывает точки перегрева до их возникновения, помогает спланировать размещение нагрузок с учетом теплового моделирования.
Конкретный пример: загрязнение теплообменных поверхностей всего на пару миллиметров увеличивает энергопотребление охлаждения на 10–15%. Человеку заметить это сложно, а алгоритмы ловят такие отклонения автоматически. На стадии проектирования двойник позволяет «прогнать» сотни сценариев компоновки оборудования и воздушных потоков, выявить потенциальные «горячие точки» и устранить их до начала строительства.
Массовым явлением в российских ЦОД цифровые двойники пока не стали, рынку не хватает зрелых программных инструментов. Мы в РТК-ЦОД применяем DCIM и элементы ИИ-аналитики для мониторинга геораспределенной сети, но индустрию от полноценного внедрения отделяют еще год-два работы. Сейчас у нас стартует большой проект применения технологий DCIM на все ИТ-оборудование и виртуальные мощности облаков.
В каких сценариях мобильные ЦОД востребованы, и какие перспективы у отечественного оборудования до 2030 года?
Мобильные ЦОД работают в трех сценариях. Первый, удаленные регионы: нефтегазовые месторождения, Арктика, горнодобыча. Там нет капитальной инфраструктуры, а обработка данных нужна на месте. Контейнерное решение мощностью от 100 до 600 кВт приезжает на объект, разворачивается за считанные дни и работает автономно от дизельной или газовой генерации. Ну и, конечно, такой ЦОД может следовать за перемещением самого объекта, например за партией геологоразведки.
Второй сценарий — это временные проекты, такие как крупные мероприятия, строительные площадки, сезонные пиковые нагрузки. Быстрое развертывание, минимальные требования к подготовке участка, возможность перевезти и переиспользовать.
Третий сценарий — Edge-вычисления, которые стали главной точкой роста спроса на мобильные ЦОДы. Камеры, IoT-датчики, системы видеоаналитики и другие устройства генерируют потоки, которым физически невозможно добраться до центрального ЦОД без потери скорости. Микро-ЦОД на краю сети решает эту задачу.
Если говорить шире о перспективах отечественного оборудования: доля российских серверов к концу 2026 года может достичь 75% поставок. Вендоры наращивают предложение, появляются решения с GPU для ИИ. Но процессоры и память по-прежнему из Азии, и диверсификация каналов снабжения остается задачей номер один. До 2030 года я ожидаю два ключевых сдвига: появление рабочих отечественных ускорителей для инференса и стандартизацию под различные нужды инженерных систем ЦОД.