Консолидация корпоративной серверной инфраструктуры университета и централизованное предоставление ресурсов

Заказчик
ФГАОУ ВО «УрФУ имени первого Президента России Б.Н. Ельцина»
Руководитель проекта со стороны заказчика
Год завершения проекта
2022
Сроки выполнения проекта
Июнь, 2017 - Июнь, 2022
Масштаб проекта
50000 человеко-часов
Цели
Целью проекта являлась консолидация разрозненных по подразделениям вычислительных ресурсов, позволяющая:
  • повысить утилизацию имеющихся вычислительных мощностей;
  • упростить управление инфраструктурой;
  • повысить доступность сервисов и обеспечить централизованное резервное копирование;
  • улучшить энергоэффективность и повысить пожарную безопасность;
  • перенести часть проектов из иностранных облачных сервисов внутрь организации.

Уникальность проекта

Уникальность проекта заключается в построении частного вычислительного облака с учётом задач учебного заведения. Модель взаимодействия между Дирекцией ИТ, предоставляющей ресурсы, и подразделениями, получающими их для собственных проектов, похожа на модель предоставления услуг профессиональным провайдерами, но в то же время процесс выделения мощностей подчиняется правилам корпоративного регулирования.
Разделение зон ответственности при обслуживании инженерной инфраструктуры и виртуальных машин и администрировании прикладного программного обеспечения позволяет научным коллективам и разработчикам корпоративных сервисов абстрагироваться от инфраструктурных вопросов и сконцентрироваться на содержательной части своих разработок.
Проект решает задачи импортозамещения
Да
Использованное ПО
Основу частного облака составляют гипервизоры VMWare, Hyper-V и СКАЛА-Р: в зависимости от потребностей гостевых систем выделяются те или иные ресурсы. Предоставление доступа к ресурсам базируется на самостоятельно разработанном программном обеспечении, обеспечивающем интеграцию с единым каталогом пользователей университета, распределением прав доступа к ресурсам и предоставление доступа к консоли виртуальных машин для их администраторов.
Инженерное обеспечение предусматривает резервирование электропитания, резервирование источников бесперебойного питания по схеме 2N и резервирование охлаждения по схеме 2N+1.

Сложность реализации
  • Невозможность остановки большинства рабочих процессов более, чем на несколько часов. Даже в период каникул некоторые информационные системы Университета оказались загруженными.
  • Миграция производилось не только на новое оборудование, но и зачастую на оборудование, высвобождаемое на предыдущих этапах миграции.
  • В процессе миграции постоянно осуществляюсь взаимодействие с администраторами более чем ста структурных подразделений, владеющими полутысячей виртуальных машин, каждая из которых требовала индивидуального подхода из-за переноса в другую сетевую адресацию и, иногда, в другой тип гипервизора.
  • Большинство подразделений Университета могут самостоятельно приобретать сервера или ресурсы во внешнем облаке, поэтому было необходимо создать условия, при которых подразделения будут заинтересованы в использовании централизованного решения без административного принуждения.
  • Злоупотребление предоставляемыми ресурсами и их нецелевое использование некоторыми подразделениями.

Описание проекта
Уральский федеральный университет сформирован в результате объединения в 2010-2011 годах политехнического и классического университетов. В настоящее время в нём обучается более 35 тыс. студентов и работает более 7 тыс. сотрудников. УрФУ реализует политику в области цифровой трансформации (программа Приоритет-2030), направленную на создание вуза нового поколения. Университет является структурой с широкой автономией подразделений (институтов, кафедр, департаментов и т.д.) и практически каждое из них для решения своих задач в рамках трансформации нуждается в гибком предоставлении вычислительных ресурсов по требованию. 
Проект начался в 2017 году, когда Университет завершил инженерное оснащение нового ЦОД на 100 кВт, почти полностью соответствующего Tier III (но без сертификации). Возникла задача сбора вычислительных мощностей, разрозненных по различным серверным университета (зачастую не имеющим подходящего оснащения). В рамках проекта по консолидации вычислительных ресурсов было выполнено следующее.
  • Оптимизация ресурсов и выделение среди мощностей Дирекции ИТ свободного оборудования для формирования первичной базы миграции. Постепенный перенос виртуальных ресурсов с последующим переносом освобождённых аппаратных ресурсов. Многостадийный процесс позволил не приобретать большое количество промежуточного оборудования для миграции в новый ЦОД.
  • В процессе миграции производилась инвентаризация вычислительных ресурсов, уточнение ответственных лиц и обновление программного обеспечения.
  • Разработка программного обеспечения делегирования административных прав на облачные ресурсы различных кластеров через «единое окно».
  • В дополнение к основному ЦОД, на базе ранее освобождённой серверной, была оснащена территориально удалённая резервная площадка обработки данных на 20 кВт, предназначенная для хранения резервных копий облака, размещённого в основном ЦОД.
  • Разработка регламентов администрирования и резервного копирования виртуальных машин.
Все операции по миграции проводились с минимальными перерывами в обслуживании, что сделало перенос ресурсов бесшовным для пользователей. Это потребовало целого ряда сложных организационных и технических мер с вовлечением большого количества персонала, однако это позволило модернизировать инфраструктуру максимально комфортно для потребителей.
Ликвидация «серверов под столами» и создание современной цифровой инфраструктуры имели стратегическую важность для создания цифрового университета. Полная миграция вычислительных мощностей на основную и резервные площадки была завершена в июне 2022 года, но уже в начале 2020 результаты миграции хорошо себя показали во время начала пандемии COVID-19, позволив оперативно перейти к дистанционным и гибридным форматам обучения с внедрением новых цифровых сервисов.
На основе созданной инфраструктуры в дальнейшем будут начаты проекты по её развитию не только в качественном (увеличение доли импортозамещённой виртуализации), но и количественном (увеличение глубины резервного копирования и наращивание вычислительных мощностей) направлении.
География проекта
Россия, Свердловская область, г. Екатеринбург, Уральский федеральный университет
Дополнительные презентации:
Проект консолидации.jpg
Резервная площадка.jpg
ЦОД УрФУ.jpg
Коментарии: 5

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

  • Максим Часовиков
    Рейтинг: 4767
    РАНХиГС
    Директор Проектов проектного офиса ректора
    05.01.2023 19:15

    Добрый день, вы пишите: Целью проекта являлась консолидация разрозненных по подразделениям вычислительных ресурсов, позволяющая:
    повысить утилизацию имеющихся вычислительных мощностей;
    упростить управление инфраструктурой;
    повысить доступность сервисов и обеспечить централизованное резервное копирование;
    улучшить энергоэффективность и повысить пожарную безопасность;
    перенести часть проектов из иностранных облачных сервисов внутрь организации.

    А вариант переезда в ГосТех или ГЕОП не рассматривали?

    • Максим Золотых Максим
      Рейтинг: 308
      ФГАОУ ВО «УрФУ имени первого Президента России Б.Н. Ельцина»
      Начальник Управления информационно-телекоммуникационной инфраструктуры
      07.01.2023 14:56

      Спасибо за вопрос! Это действительно важный момент. Наш проект является «долгоиграющим». С 2017 года мы начали процесс миграции в новую инженерную инфраструктуру (ЦОД) из разрозненных серверных, но само строительство инфраструктуры началось ещё раньше: проектирование и строительство самого ЦОД началось ещё за несколько лет до этого. На момент принятия решения о строительстве собственной вычислительной инфраструктуры Гособлако существовало ещё только на уровне концепции, и мы не могли рассчитывать не него полноценно. Позже, при окончании строительства ЦОД, мы уже имели капитальные вложения и действующую инфраструктуру, поэтому привлекательность облачных решений резко снижалась.

      • Роман Унесихин Максим
        Рейтинг: 36
        НКО Министерство финансов Пермского края
        ИТ директор
        07.01.2023 15:25

        А как вы обходитесь с системами защиты конфиденциальной информации? В текущих условиях развёртывание средств защиты составляет весомую часть расходов на поддержание собственных систем виртуализации. Использование государственных «облаков» позволило бы снять часть проблем в этой области.

        • Максим Золотых Роман
          Рейтинг: 308
          ФГАОУ ВО «УрФУ имени первого Президента России Б.Н. Ельцина»
          Начальник Управления информационно-телекоммуникационной инфраструктуры
          08.01.2023 16:15

          Действительно, системы виртуализации, построенные по требованиям к защите, например, ПДн, дорого создавать и обслуживать. Но в нашем случае речь идёт о создании виртуального частного облака в собственном ЦОД для задач общего назначения: информационные сайты, машины для вычислений, машины для лабораторных работ, машины для обработки обезличенных данных и т.д. Поэтому мы не применяем сертифицированные средства СЗИ для описываемого проекта. Для нужд защиты информации у нас есть отдельный кластер с ограниченным числом информационных систем. Как раз для этого кластера мы рассматривает варианты аутсорсинга частного облака.

      • Андрей Полтавец Максим
        Рейтинг: 315
        Уральский федеральный университет им.первого Президента России Б.Н.Ельцина, ФГАОУ ВО
        проректор по ИТ
        07.01.2023 15:29

        Я хотел бы дополнить предыдущий ответ: на самом деле мы постоянно рассматривали возможность облачного размещения сервисов, однако горизонт рынка российского облачного хостинга не так «безоблачен», как это кажется на первый взгляд. Я имею ввиду не только государственные проекты, но и игроков российского рынка. Цены и условия хостинга достаточно подвижны во времени, а облачные сервисы - это не та вещь, где легко можно изменить поставщика. При иллюзии конкуренции в целом на рынке, осуществив миграцию - мы жёстко привязываемся к выбранному провайдеру. Процесс бесшовного переноса систем (в нашем случае более 500 виртуальных машин) - это огромные финансовые и временные затраты, поэтому смена облачного оператора в случае любых разногласий с ним, например, в части цены, это очень нежелательный процесс. Как было отмечено выше, при наличии капитальных вложений в инженерную инфраструктуру, процесс поддержания работоспособности вычислительных мощностей сопоставим по стоимости с облачными решениями (если не учитывать разовые скидки и акции).

Год
Предметная область
Отрасль
Управление
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.