Консолидация корпоративной серверной инфраструктуры университета и централизованное предоставление ресурсов
- Заказчик:
- ФГАОУ ВО «УрФУ имени первого Президента России Б.Н. Ельцина»
- Руководитель проекта со стороны заказчика
- Год завершения проекта
- 2022
- Сроки выполнения проекта
- Июнь, 2017 - Июнь, 2022
- Масштаб проекта
- 50000 человеко-часов
- Цели
- Целью проекта являлась консолидация разрозненных по подразделениям вычислительных ресурсов, позволяющая:
- повысить утилизацию имеющихся вычислительных мощностей;
- упростить управление инфраструктурой;
- повысить доступность сервисов и обеспечить централизованное резервное копирование;
- улучшить энергоэффективность и повысить пожарную безопасность;
- перенести часть проектов из иностранных облачных сервисов внутрь организации.
Уникальность проекта
Уникальность проекта заключается в построении частного вычислительного облака с учётом задач учебного заведения. Модель взаимодействия между Дирекцией ИТ, предоставляющей ресурсы, и подразделениями, получающими их для собственных проектов, похожа на модель предоставления услуг профессиональным провайдерами, но в то же время процесс выделения мощностей подчиняется правилам корпоративного регулирования.Разделение зон ответственности при обслуживании инженерной инфраструктуры и виртуальных машин и администрировании прикладного программного обеспечения позволяет научным коллективам и разработчикам корпоративных сервисов абстрагироваться от инфраструктурных вопросов и сконцентрироваться на содержательной части своих разработок.
- Проект решает задачи импортозамещения
- Да
- Использованное ПО
- Основу частного облака составляют гипервизоры VMWare, Hyper-V и СКАЛА-Р: в зависимости от потребностей гостевых систем выделяются те или иные ресурсы. Предоставление доступа к ресурсам базируется на самостоятельно разработанном программном обеспечении, обеспечивающем интеграцию с единым каталогом пользователей университета, распределением прав доступа к ресурсам и предоставление доступа к консоли виртуальных машин для их администраторов.
Инженерное обеспечение предусматривает резервирование электропитания, резервирование источников бесперебойного питания по схеме 2N и резервирование охлаждения по схеме 2N+1. - Сложность реализации
- Невозможность остановки большинства рабочих процессов более, чем на несколько часов. Даже в период каникул некоторые информационные системы Университета оказались загруженными.
- Миграция производилось не только на новое оборудование, но и зачастую на оборудование, высвобождаемое на предыдущих этапах миграции.
- В процессе миграции постоянно осуществляюсь взаимодействие с администраторами более чем ста структурных подразделений, владеющими полутысячей виртуальных машин, каждая из которых требовала индивидуального подхода из-за переноса в другую сетевую адресацию и, иногда, в другой тип гипервизора.
- Большинство подразделений Университета могут самостоятельно приобретать сервера или ресурсы во внешнем облаке, поэтому было необходимо создать условия, при которых подразделения будут заинтересованы в использовании централизованного решения без административного принуждения.
- Злоупотребление предоставляемыми ресурсами и их нецелевое использование некоторыми подразделениями.
- Описание проекта
- Уральский федеральный университет сформирован в результате объединения в 2010-2011 годах политехнического и классического университетов. В настоящее время в нём обучается более 35 тыс. студентов и работает более 7 тыс. сотрудников. УрФУ реализует политику в области цифровой трансформации (программа Приоритет-2030), направленную на создание вуза нового поколения. Университет является структурой с широкой автономией подразделений (институтов, кафедр, департаментов и т.д.) и практически каждое из них для решения своих задач в рамках трансформации нуждается в гибком предоставлении вычислительных ресурсов по требованию.
Проект начался в 2017 году, когда Университет завершил инженерное оснащение нового ЦОД на 100 кВт, почти полностью соответствующего Tier III (но без сертификации). Возникла задача сбора вычислительных мощностей, разрозненных по различным серверным университета (зачастую не имеющим подходящего оснащения). В рамках проекта по консолидации вычислительных ресурсов было выполнено следующее.
- Оптимизация ресурсов и выделение среди мощностей Дирекции ИТ свободного оборудования для формирования первичной базы миграции. Постепенный перенос виртуальных ресурсов с последующим переносом освобождённых аппаратных ресурсов. Многостадийный процесс позволил не приобретать большое количество промежуточного оборудования для миграции в новый ЦОД.
- В процессе миграции производилась инвентаризация вычислительных ресурсов, уточнение ответственных лиц и обновление программного обеспечения.
- Разработка программного обеспечения делегирования административных прав на облачные ресурсы различных кластеров через «единое окно».
- В дополнение к основному ЦОД, на базе ранее освобождённой серверной, была оснащена территориально удалённая резервная площадка обработки данных на 20 кВт, предназначенная для хранения резервных копий облака, размещённого в основном ЦОД.
- Разработка регламентов администрирования и резервного копирования виртуальных машин.
Ликвидация «серверов под столами» и создание современной цифровой инфраструктуры имели стратегическую важность для создания цифрового университета. Полная миграция вычислительных мощностей на основную и резервные площадки была завершена в июне 2022 года, но уже в начале 2020 результаты миграции хорошо себя показали во время начала пандемии COVID-19, позволив оперативно перейти к дистанционным и гибридным форматам обучения с внедрением новых цифровых сервисов.
На основе созданной инфраструктуры в дальнейшем будут начаты проекты по её развитию не только в качественном (увеличение доли импортозамещённой виртуализации), но и количественном (увеличение глубины резервного копирования и наращивание вычислительных мощностей) направлении. - География проекта
- Россия, Свердловская область, г. Екатеринбург, Уральский федеральный университет
- Дополнительные презентации:
- Проект консолидации.jpgРезервная площадка.jpgЦОД УрФУ.jpg