Перенос основного дата-центра банка в сторонний ЦОД

Заказчик:
Банк Оранжевый
Руководитель проекта со стороны заказчика
Поставщик
ООО «Филанко СПб»
Год завершения проекта
2025
Сроки выполнения проекта
декабрь, 2024 — февраль, 2025
Масштаб проекта
650 человеко-часов
Цели

  1. Повышение отказоустойчивости и доступности сервисов

    ЦОД обеспечивает многоуровневое резервирование всех основных инженерных систем (электропитание, охлаждение, сетевые подключения).

  2. Усиление физической и информационной безопасности

    ЦОД оснащен системами контроля доступа, круглосуточным видеонаблюдением, противопожарными системами и защитой от DDoS-атак.

  3. Масштабируемость и гибкость инфраструктуры

    Размещение оборудования в ЦОД в формате colocation позволяет оперативно размещать дополнительное оборудование адаптируя инфраструктуру под растущие нагрузки без расширение собственного дата-центра.

  4. Снижение капитальных затрат (CAPEX)

    Сокращение инвестиции в модернизацию и обслуживание собственного дата-центра.

  5. Соответствие регуляторным требованиям

ЦОД проходит сертифицикацию по международным и национальным стандартам, что упрощает прохождение аудитов и соблюдение требований регуляторов в финансовой сфере.


Результаты

Перенос серверной инфраструктуры банка в сторонний ЦОД в формате colocation позволил оптимизировать управление серверной инфраструктурой, с внутренней команды банка были сняты задачи по обслуживанию инженерных систем, необходимых для функционирования серверного оборудования: электропитание, охлаждение, магистральные каналы связи. Снизились общие операционные расходы за счет снижения оплаты на электроэнергию и обслуживание системы охлаждения собственного дата-центра. Из бюджета исключена статья капитальных затратах на модернизацию и расширение собственного дата-центра. В связи с присутствием в ЦОД большинства крупных операторов связи значительно упростился процесс подключения новых каналов передачи данных.

Благодаря тому, что наиболее сложный и технологичный элемент инфраструктуры – дата-центр, теперь не привязан к точкам присутствия банка, повысилась общая мобильность всей инфраструктуры банка.

Уникальность проекта

Все работы по проекту были выполнены в максимально сжатые сроки. Активная фаза проекта заняла менее месяца: от заключения договора с ЦОД - 27.01.2025 до перевозки последней партии оборудования - 23.02.2025.

Перенос всей серверной инфраструктуры банка (70 серверов, 10 СХД, 30 единиц коммуникационного оборудования) был выполнен без остановки деятельности банка. Это удалось реализовать за счет использования кластерной архитектуры основных вычислительных комплексов и организации единого сетевого пространства включающего дата-центр банка и сегмент сети новой ИТ-площадки банка в ЦОД.


Использованное ПО

Программно-аппаратный комплекс "С-Терра VPN" Версия 4.3 исполнение "3-9"

Ethernet-коммутатор L3 Eltex-MES2448B+4SFP


Сложность реализации

К сложностям проекта можно в первую очередь отнести сжаты сроки и ограниченные ресурсы в части персонала, все участники проекта со стороны ИТ-подразделений банка в ходе проекта продолжали выполнять свои основные обязанности по поддержанию работоспособности действующей ИТ-инфраструктуры. Также значительно усложняла задачу необходимость обеспечить непрерывность основной деятельности банка, в связи с этим нельзя было одномоментно отключить и перевезти на новое место сразу все оборудование. Непрерывность основной деятельности была обеспечена за счет использования возможностей кластерной архитектуры основных вычислительных комплексов и путем организации единого сетевого пространства включающего дата-центр банка и сегмент сети новой ИТ-площадки банка в ЦОД, что позволило реализовать поэтапное перемещение основных вычислительных систем без их остановки.

Описание проекта

В рамках мероприятий по смене места расположения головного офиса банка, на территории которого располагался основной дата-центр банка, руководством была поставлена задача провести анализ различных вариантов размещения дата-центра: построение собственного дата-центра в новом помещении головного офиса, аренда стойко-мест в специализированных ЦОД (Colocation), аренда облачных ресурсов для размещения информационных систем банка.

Предварительная фаза проекта (изучение рынка, переговоры с поставщиками услуг, обработка предложений и сравнительный анализ полученных вариантов) заняли немногим более месяца - с декабря 2024 по январь 2025 года. В итоге выбор был сделан в сторону аренды стойко-мест в специализированном ЦОД (colocation). 27.01.2025 был заключен договор с ЦОД, а 23.02.2025 уже была перевезена и подключена последняя партия оборудования. Таким образом активная фаза проекта заняла менее одного месяца.

В соответствии с договором, банку были предоставлены отдельные закрытые серверные шкафы, которые были оборудованы СКУД, обеспечено круглосуточное видеонаблюдение за участком машинного зала, на котором размещены шкафы с оборудованием банка и организован доступ к оборудованию только для уполномоченных сотрудников банка. Перевозка основного оборудования дата-центра банка (70 серверов, 10 СХД, 30 единиц коммуникационного оборудования) было выполнено в несколько этапов транспортной службой ЦОД. Специалисты транспортной службы ЦОД выполняли упаковку оборудования, его погрузку, перевозку, разгрузку на территории ЦОД и доставку до места установки. Работы по демонтажу, монтажу и настройке оборудования выполнялись сотрудниками ИТ-службы банка.

Перемещение всей серверной инфраструктуры был выполнен без остановки деятельности банка. Реализовать это удалось за счет использования возможностей кластерной архитектуры основных вычислительных комплексов и организации единого сетевого пространства включающего дата-центр банка и сегмент сети новой ИТ-площадки банка в ЦОД.

При построении инфраструктуры в ЦОД частично решалась и задача импортозамещения - были использованы отечественные решения в части оборудования: защита канала между банком и ЦОД обеспечивалась установкой ПАК "С-Терра VPN", сетевое взаимодействие в ЦОД было реализовано на Ethernet-коммутаторах Eltex.

География проекта

г. Санкт-Петербург

Коментарии: 10

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

  • Сергей Вотяков
    Рейтинг: 101
    NARPA(Национальная Академия Роботизации и Процессной Автоматизации); РУССОФТ
    Учредитель NARPA; Председатель Правления и руководитель комитета ИИ РУССОФТ
    16.12.2025 18:17

    Отличный кейс в условиях ограничений! Так держать.

    • Николай Барташев Сергей
      Рейтинг: 356
      Банк Оранжевый
      Начальник Управления сопровождения информационных систем
      16.12.2025 18:29

      Добрый день, Сергей.Спасибо за оценку!

  • Евгений Богорад
    Рейтинг: 43
    Улыбка радуги
    Руководитель отдела ИТ-сервисов
    23.12.2025 16:28

    Как решали задачу распределения оборудования с высоким энергопотреблением по стойкам? Какая максимальная мощность на стойку (кВт)? Есть ли возможность увеличить/уменьшить мощность в процессе эксплуатации или она фиксируется при аренде стойки?

    • Николай Барташев Евгений
      Рейтинг: 356
      Банк Оранжевый
      Начальник Управления сопровождения информационных систем
      23.12.2025 16:49

      Добрый день, Евгений. Мы постарались самое мощное оборудование - СХД и блэйд-системы равномерно распределить между стойками. Это немного усложнило коммуникацию между оборудованием, но зато позволило оптимизировать нагрузку на каждую стойку. Стандартная мощность выделяемая на стойку и входящая в арендную плату - 5 кВт, возможно повышение до 10 кВт. Превышение лимита 5 кВт оплачивается дополнительно, можно по факту за каждый кВт, но выгоднее сразу включить в заявку дополнительную мощность (есть возможность набрать нужное значение по 100 Вт и по 1 кВт).

  • Артем Завьялов
    Рейтинг: 43
    ТеплоЭнергоСервис
    CEO
    27.12.2025 00:03

    С учетом описанных обстоятельств и околоэкономических предпосылок решение поддерживаю. Изменился ли "внутренний" SLA в связи с тем, что могут возникнуть трудности при любом обслуживании, требующим доступа к серверам (как минимум к своим серверам теперь нужно добираться на транспорте ну и другие нюансы)?

    • Николай Барташев Артем
      Рейтинг: 356
      Банк Оранжевый
      Начальник Управления сопровождения информационных систем
      29.12.2025 10:16

      Добрый день, Артем. Да, SLA изменился, т.к. время физического доступа системных администраторов к оборудования увеличилось с 5 минут до 30 минут (минимальное время, за которое можно доехать до ЦОД от банка). И еще надо учитывать, что размещение нового оборудования в стойках требует время на его оформление (требование пропускного режима ЦОД) – от 10 до 15 мин. Кроме того, в ЦОД пришлось разместить самый необходимый комплект запчастей, чтобы не терять время на его доставку со склада в банке.

  • Роман Цыганков
    Рейтинг: 1390
    АВТОЗАВОД Санкт-Петербург
    Директор по информационным технологиям
    30.12.2025 08:16

    Добрый день., Николай.Интересный проект, особенно у текущих условиях, когда много вызовов. Можете раскрыть как решалась задача ограничения и контроля доступа к вашему оборудованию в ЦОД? Стойки уже были оборудованы системой контроля доступа и системой видеонаблюдения или средства защиты были установлены дополнительно? За чей счет было проведено дооборудование стоек средствами защиты от несанкционированного доступа?

    • Николай Барташев Роман
      Рейтинг: 356
      Банк Оранжевый
      Начальник Управления сопровождения информационных систем
      30.12.2025 11:35

      Добрый день, Роман. Стойки предлагались к аренде стандартные, которые закрываются только на механические замки. Электронную систему контроля доступа на них установили по нашей заявке, оплачивалось это как дополнительная услуга. Видеонаблюдение осуществляется штатными устройствами ЦОД, доступ к системе наблюдения за нашим участком машинного зала и хранение архива видеозаписей оплачивается по отдельному соглашению.

  • Вячеслав Чупраков
    Рейтинг: 1280
    Прагматика Эксперт
    Заместитель ИТ директора по инфраструктуре и сервисам
    06.01.2026 14:32

    Добрый день. Николай, были ли у вас проблемы с подключением ЦОД к внешним коммуникационным сетям и с организацией выделенных каналов связи? Можно ли было завести каналы своих провайдеров, которых не было в ЦОД? За чей счет выполнялась внутренняя коммуникации от приемного оборудования провайдеров до ваших стоек?

    • Николай Барташев Вячеслав
      Рейтинг: 356
      Банк Оранжевый
      Начальник Управления сопровождения информационных систем
      06.01.2026 15:48

      Добрый день, Вячеслав. Проблем с каналами связи не было. Компания Филанко сама оказывает услуги связи в качестве провайдера. Это помогло нам оперативно организовать выделенный канал между старой точкой расположения серверной и ЦОД. Не было проблем и с тем, чтобы завести в ЦОД своего провайдера, ЦОД этому всячески содействует и в организационном и техническом плане. Внутренняя коммуникации от приемного оборудования провайдеров до наших стоек оплачивается по разному, если провайдер заходит через оборудование ЦОД, то это входит в стоимость услуги, а если линия тянется от оборудования провайдера, которое физически находится в ЦОД, то внутреннюю коммуникацию оплачиваем мы. 

Год
Предметная область
Отрасль
Управление
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.