Техническое Задание
на конкурс по выбору поставщика на модернизацию существующего аппаратного комплекса и построения катастрофоустойчивого решения вычислительного комплекса
Байкальского банка Сбербанка России
Настоящий документ является техническим заданием для проведения конкурса по выбору поставщика на модернизацию существующего аппаратного комплекса и построение катастрофоустойчивого резервного вычислительного центра для АБС “Гамма” и “Централизованная база данных счетов физических лиц” АС ЦОД в Байкальском банке Сбербанка России в 2006 г.
В документе определены цели создания системы, требования к системе в целом, содержится исходная информация о технических характеристиках предмета конкурса.
В документе не рассматриваются вопросы строительства Резервного вычислительного центра, оснащение его инженерными системами жизнеобеспечения и средствами связи.
1. Основные положения
Предметом конкурса является право на поставку, пуско-наладку, гарантийное и сервисное обслуживание оборудования для модернизации существующего аппаратного комплекса и построения катастрофоустойчивого резервного вычислительного центра для АБС “Гамма” и “Централизованная база данных счетов физических лиц” АС ЦОД в Байкальском банке Сбербанка России
Настоящий документ содержит исходные данные для участников конкурса, условия и процедуры его осуществления.
Конкурс проводится в соответствии с требованиями Сбербанка России.
Для получения дополнительной информации для подготовки проекта необходимо обращаться к Заместителю директора управления информатики и автоматизации банковских работ Байкальского банка Сбербанка России - Попову Владимиру Васильевичу
тел. +7(3952) 25-42-96;
факс: +7(3952) 25-42-20;
e-mail: vpopov@sbank.irk.ru.
2. Общие требования к проекту
Проект предусматривает модернизацию существующей системы хранения в основном вычислительном центре и построение программно-аппаратного комплекса в резервном вычислительном центре для создания катастрофоустойчивого решения функционирования АБС “Гамма” и АС ЦОД.
При выполнении работ по построению аппаратно-программного комплекса (АПК) до уровня катастрофоустойчивого решения должно быть обеспечено выполнение следующих требований:
- Обеспечение требований по работе аппаратно-программного комплекса в качестве катастрофоустойчивого решения.
Перевод резервного сервера с основной вычислительной площадки на планируемую резервную площадку.
Инсталляция и подключение к существующему АПК систем хранения данных на резервной площадке.
Внедрение в существующую сеть хранения данных (СХД) узловых коммутаторов, позволяющих объединить серверы и дисковые массивы на основной и резервной площадке и обеспечить подключения устройств с учетом роста СХД.
Обеспечение мониторинга программно-аппаратных компонентов основного и резервных центров на отдельной территориально удаленной от этих вычислительных центров площадке.
Инсталляция и настройка решения по построению катастрофоустойчивого кластера.
Развертывание системы архивирования резервной площадки.
3. Характеристики существующего оборудования
Основными компонентами существующего вычислительного комплекса являются:
- HP Integrity Superdome32 под управлением ОС HP-UX 11.23.
Sun Fire E6900 под управлением ОС Solaris 9.
Дисковый массив HP XP1024.
Серверы объединены в отказоустойчивые локальные кластеры под управлением MC/ServiceGuard и Veritas Cluster server.
Резервное копирование осуществляется средствами архивирования на базе HP DataProtector.
4. Гарантийное и сервисное обслуживание
- Период гарантийного и сервисного обслуживания на оборудование и ПО, входящего в ПАК, должен составлять не менее 60 месяцев.
Время отклика на принятую заявку о проблеме в работе оборудования и конкретные рекомендации по решению возникшей проблемы не должно превышать 4-х часов.
Гарантированное время восстановления работоспособности оборудования после критичного сбоя (прекращение выполнения ПАК своих функций) не должно превышать 24 часа.
Замена вышедших из строя узлов комплекса в течение не более 5 дней при условии сохранения работоспособности второго узла кластера.
Обеспечение “горячей телефонной линии” по устранению неисправностей оборудования и вопросам, связанным с функционированием программного обеспечения по схеме 24х7х365.
Выезды сервисного специалиста на место эксплуатации по схеме 24х7х365 без дополнительной оплаты для проведения работ по устранению неисправностей оборудования и обновлению программного обеспечения, которые требуют вмешательств сертифицированного компанией-изготовителем инженера.
5. Эксплуатационные требования
- Сохранение работоспособности при температурах в помещении серверной от 10 до 30 градусов Цельсия.
Все поставляемые компоненты аппаратно-программного комплекса (АПК) должны обеспечивать работу в круглосуточном режиме в течение всего года.
Связь сети хранения данных между вычислительными центрами должна обеспечиваться минимум по 2-м территориально разнесенным каналам с суммарной пропускной способностью используемых в настоящий момент интерфейсов системы хранения.
Требования по размещению оборудования, обеспечению питанием и его охлаждению зависит от конечной конфигурации и определяются производителем оборудования.
Обеспечение электробезопасности в соответствии с требованиями “Правил техники безопасности при эксплуатации электроустановок потребителей”, а также в соответствии с требованиями техники безопасности, изложенных в паспортах и инструкциях по эксплуатации контрольно-измерительных приборов, используемых при работе с указанными техническими средствами.
6. Требования к системе
Проект должен включать в себя следующие системы:
- Систему хранения данных резервного вычислительного центра (РВЦ).
Решение по синхронизации данных основного и резервного вычислительных центров.
Подсистему сетевой инфраструктуры хранения данных.
Подсистему резервного копирования данных РВЦ.
Подсистему мониторинга и управление катастрофоустойчивым кластером.
7. Требования к системе хранения
Для обеспечения возросших требований по объему хранимых данных, связанных с необходимостью подключения к дисковому массиву серверного оборудования функциональных подсистем АБС “Гамма”, реализованных на MS SQL а также данных серверов приложений необходимо в рамках проекта расширить объем сырого (без использования уровней защиты) пространства существующего дискового массива до 11 ТБ. Спецификация оборудования для расширения дискового пространства приведена в Приложении № 1 настоящего Технического Задания.
Для организации катастрофоустойчивого решения, необходима установка в резервном центре дискового массива НР, аналогичного по производительности, масштабируемости и объему дискового пространства дисковому массиву ХР1024, установленному в основном вычислительном центре после проведенной модернизации.
Дисковый массив резервного вычислительного центра необходим для построения катастрофоустойчивого решения и предназначен для обеспечения работы АПК в случае выхода их строя системы хранения данных основного вычислительного центра (ОВЦ). Массив РВЦ должен обладать идентичными функциональными возможностями с массивом ОВЦ и максимально приближен к системе хранения данных ОВЦ по своим количественными и качественным характеристиками. В состав АПК должно быть включено решение, обеспечивающее идентичность хранимых данных систем хранения данных ОВЦ и РВЦ и интегрированное с программным обеспечением катастрофоустойчивого кластера. Система хранения данных должна иметь в наличие средства для создания локальных копий ( snapclone) томов дискового массива.
Количество лицензий для программного обеспечения создания локальных копий должно быть достаточно для создания полной копии данных АБС “Гамма”, ЦОД и баз данных функциональных подсистем АБС “Гамма”, реализованных на MS SQL.
Спецификация, имеющегося в наличии дискового массива основного вычислительного центра приведена в Приложение № 2 настоящего Технического Задания.
8. Требования к системе синхронизации данных
Решение по построению и функционированию катастрофоустойчивого кластера должно обеспечивать идентичность данных систем хранения данных ОВЦ и РВЦ и поддерживаться соответствующим решением подсистемы мониторинга и управления катастрофоустойчивым кластером. Идентичность данных должна обеспечиваться синхронным режимом записи данных автоматизированных банковских систем на дисковые системы ОВЦ и РВЦ. Синхронный режим может обеспечиваться за счет соединения дисковых систем выделенными каналами для передачи управляющей информации. Количество лицензий для обеспечения работы синхронной репликации должно быть достаточным для репликации данных АБС “Гамма”, ЦОД и других функциональных подсистем АБС “Гамма”.
9. Требования к системе сетевой инфраструктуры хранения данных
Система сетевой инфраструктуры хранения данных предназначена для объединения различных физических устройств хранения в единую систему хранения данных и обеспечения доступа серверов к ресурсам систем хранения данных.
Для объединения серверов и дисковых массивов в резервном вычислительном центре необходима установка двух центральных оптических коммутаторов, совместимых и идентичных по своим функциональным возможностям с коммутаторами ОВЦ. Установка в вычислительных центрах двух коммутаторов должна быть сделана с целью организации альтернативных оптических каналов связи, что должно обеспечивать бесперебойную работу в случае выхода из строя одиночного компонента сети хранения (коммутатора, оптического кабелей, трансивера).
Оптические коммутаторы системы сетевой инфраструктуры хранения данных должны удовлетворять следующим требованиям:
- Коммутаторы должны обладать высокой надежностью и иметь не менее 16 активных портов каждый с пропускной способностью не менее 2Гб/с на порт.
В порты каждого коммутатора необходимо установить коротковолновые излучатели (трансиверы) по количеству активных соединений с оборудованием РВЦ.
Обеспечить полную совместимость с существующими оптическими коммутаторами (B-series HP Switch 2/16, B-series HP Switch 2/8).
Обеспечить управление с единой консоли нескольких фабрик с построением топологии сети хранения из 12 и более коммутаторов.
Коммутаторы сети хранения должны иметь возможность удаленного web-управления, конфигурирования и настройки.
Коммутаторы сети хранения должны иметь встроенные средства диагностики и удаленного контроля работоспособности через web, а также оповещение по протоколу SNMP v.3. Необходимо обеспечить возможность ограничения доступа к оптическому коммутатору для определенных серверов.
Коммутаторы сети хранения должны обеспечивать функциональные возможности следующего ПО: Fabric Watch, ISL Trunking, Extended Fabric, Remote Switch, Advanced Performance Monitoring).
Коммутаторы сети хранения должны иметь возможность объединения физических каналов в логические транковые соединения, обеспечивая пропускную способность между двумя коммутаторами до 32Гб/с.
Коммутаторы должны поддерживать балансировку нагрузки и обеспечивать работоспособность в случае выхода из строя одного или нескольких физических каналов.
Должно быть предусмотрено наращивание следующих функциональных возможностей: перечисление коммутаторов и устройств, входящих в фабрику; создание политики доступа к управлению фабрикой; ведение журнала доступа.
Должна поддерживаться реализация логически независимых сетей хранения на основе единой физической инфраструктуры.
ПО, поставляемое с коммутатором, должно отслеживать возникающие события и на ранней стадии выявлять и изолировать проблемные порты и трансиверы.
Поставщик должен обеспечить систему поддержки на все оптические коммутаторы сети хранения данных.
В каждый коммутатор в ОВЦ и РВЦ необходимо добавить в активные порты длинноволновые излучатели (трансиверы) по количеству планируемых (прогнозируемых) соединений между ОВЦ и РВЦ.
10. Требования к системе архивирования РВЦ
Система архивирования должна включать:
- Сервер архивирования, имеющегося в наличии в Банке.
Роботизированную библиотеку с необходимым программным обеспечением, полностью автоматизирующую процесс создания и восстановления резервных копий.
Обеспечивать производительность архивирования данных не менее 1.2 ТБ/час.
Иметь начальную конфигурацию по емкости хранения не менее 125 ТБ.
Предусматривать подключение системы резервного копирования к сети SAN.
Быть совместимой с имеющимся в наличии ПО HP OpenView Data Protector.
Приводы роботизированной библиотеки РВЦ должны поддерживать работу с носителям, используемыми в библиотеке ОВЦ.
Приводы роботизированной библиотеки ОВЦ должны поддерживать работу с носителям, используемыми в библиотеке РВЦ.
Библиотека должна поддерживать возможность переключения работы приводов библиотеки между различными “плечами” сети SAN.
Для обеспечения минимального времени простоя автоматизированных банковских систем резервные копии планируется осуществлять с snapclonе-томов системы хранения данных.
11. Требования к подсистеме управления и
мониторинга катастрофоустойчивого кластера
Подсистема управления и мониторинга катастрофоустойчивого кластера предназначена для контроля и управления работой оборудования Основного и Резервного вычислительных центров, сетевого оборудования, серверов, общесистемного и прикладного программного обеспечения.
Подсистема должна обеспечивать реализацию следующего набора действий:
- Осуществлять мониторинг состояния компонентов распределенного кластера.
Управлять работой кластера – переключать выполнение ответственных бизнес приложений серверов в случая выхода из строя оборудования одной из вычислительных площадок.
Время запуска автоматизированной банковской системы на РВЦ не должно превышать 15 минут с момента обнаружения сбоя на основной вычислительной площадке.
Для подсистемы управления и мониторинга кластера должен быть предусмотрен выделенный сервер, совместимый с ПО контроля работы катастрофоустойчивого кластера и обладающий минимальными средствами повышения отказоустойчивости.
Дисковые модули должны быть защищены аппаратными или программными средствами “зеркалирования” данных по схеме RAID 1.
Сервер должен быть укомплектован резервными источниками питания. Основные и резервные блоки питания должны подключаться раздельно.
Дисковые модули, блоки питания должны поддерживать операции “замены на ходу”, т.е. без выключения электропитания и разборки конструктива сервера.
Сервер должен быть укомплектован средствами удаленного управления, позволяющими выполнять операции диагностики аппаратного обеспечения, включения, выключения сервера, перезагрузки ОС дистанционно.
12. Требования к подсистеме управления и
мониторинга катастрофоустойчивого вычислительного комплекса
Подсистема управления и мониторинга катастрофоустойчивого вычислительного комплекса предназначена для контроля режимов функционирования сетевого оборудования, серверов, общесистемного и прикладного программного обеспечения Банка средствами объектового мониторинга и управления.
Подсистема должна обеспечивать реализацию следующего набора действий:
- Мониторинг состояния компонентов информационной инфраструктуры.
- Подсистема должна поддерживать гетерогенную среду и обеспечивать возможность работы программных агентов на следующих операционных системах - HP-UX, Linux, Solaris, Windows.
- Возможность обеспечения мониторинга сервисов - оценка влияния работы того или иного компонента системы на качество предоставляемого сервиса (расчетная задача, сеть и т.п.).
- Осуществление корректирующих действий, направленных на восстановление штатного функционирование системы в ручном и автоматизированном режимах.
- Возможность настройки корректирующих действий, направленных на восстановление штатного функционирование системы в ручном и автоматическом режимах.
- Корреляционную обработку сообщений.
- Сбор информации о производительности системных или сетевых ресурсов с последующей генерацией сообщения для анализа и выработки корректирующего решения.
- Формирование сообщений с данными об обобщенном состоянии функционирования контролируемых ресурсов.
13. Обучение
Требования по обучению:
- Все администраторы Банка, обеспечивающие работу программно-аппаратного комплекса, должны пройти специальные курсы обучения и сертификации в учебном центре победителя Конкурса или в других сертифицированных учебных центрах.
Объем полученных знаний должен обеспечивать квалифицированную эксплуатацию, диагностику и выявление неисправных компонент программно-аппаратного комплекса.
Сроки и порядок обучения администраторов устанавливаются Банком по согласованию с победителем Конкурса.
14. Дополнительные условия
Для обеспечения работы всего комплекса и во избежание технических и технологических ошибок при проектировании, необходимо обеспечить оценочную экспертизу и согласовать предлагаемое решение в компании Hewlett-Packard на предмет совместимости предлагаемого оборудования, программного обеспечения и возможности комплексной поддержки предлагаемого решения в целом.
В предложение должно быть предусмотрено обучение сотрудников Банка по настройке и управлению дисковыми массивами.
В предложение должна быть учтена цена доставки, монтажа и пуско-наладки оборудования.
Банк оставляет за собой право выбрать для себя необходимую окончательную конфигурацию резервного вычислительного центра и проведение поэтапной ее реализации при согласовании договора на поставку.
Приложение 1
Спецификация для расширения дискового массива основного вычислительного центра
Расширение дискового массива HP SureStore XP1024 ОВЦ |
A7873A |
HP Disk Array XP1024/128 Upg Solution |
1 |
A7930U |
XP1024 146GB 10k rpm,FC 4-disk grp upg |
5 |
T1614AC |
LUN Conf/Sec Mgr XP 1TB LTU (7-15TB) |
3 |
T1613AB |
Business Copy XP 1TB LTU (2-6TB) |
3 |
T1613AC |
Business Copy XP 1TB LTU (7-15TB) |
1 |
T1711AA |
HP Continuous Access XP 1TB LTU (0-1TB) |
1 |
T1711AB |
HP Continuous Access XP 1TB LTU (2-6TB) |
3 |
HA111A3 |
HP 3y Proactive 24 Service |
1 |
HA111A3 8EK |
LUN Cfg/Sec Mgr 1TB (7-15) Support |
3 |
HA111A3 8F8 |
XP1024/128 FC Array Group upgr. Support |
5 |
HA111A3 8FY |
HP BC/Snapshot 1TB 2-6TB LTU Supp |
3 |
HA111A3 8FZ |
HP BC/Snapshot 1TB 7-15TB LTU Supp |
1 |
HA111A3 8FQ |
Cont Access Upgrd 1TB (2-6) Support |
3 |
HA111A3 8FP |
Continuous Access LTU 1TB Support |
1 |
A7873A |
HP Disk Array XP1024/128 Upg Solution |
1 |
A7930U |
XP1024 146GB 10k rpm,FC 4-disk grp upg |
5 |
T1614AC |
LUN Conf/Sec Mgr XP 1TB LTU (7-15TB) |
3 |
Приложение 2
Спецификация существующего дискового массива основного вычислительного центра
Дисковый массив HP SureStore XP1024 ОВЦ |
A7905A |
HP StorageWorks Disk Array XP1024 Solution |
1 |
A7906A |
XP1024 Disk Control Frame (DKC) |
1 |
A7906A 006 |
3 Phase 50Hz/30A for XP1024 |
1 |
A7912B |
XP1024/128 8-port 1-2Gb/sec FC Enh Chip |
1 |
A7918A |
XP1024/128 2 GB Cache Memory Module |
14 |
A7921A |
XP1024/128 512 MB Shared Memory Module |
2 |
A7925A |
XP1024 Disk Array Frame |
1 |
A7925A 006 |
3 Phase 50Hz/30Amp for XP1024 DKU |
1 |
A7930A |
XP1024 146GB 10k rpm,FC,4-disks |
15 |
A7930S |
XP1024 146GB 10k rpm FC spare disk dr |
2 |
B9357AJ |
HP Command View XP LTU |
1 |
T1610A |
RAID Manager XP LTU |
1 |
T1613AA |
Business Copy XP 1TB LTU (up to 1TB) |
1 |
T1613AB |
Business Copy XP 1TB LTU (2-6TB) |
2 |
T1614AA |
LUN Conf/Sec Mgr XP 1TB LTU (up to 1TB) |
1 |
T1614AB |
LUN Conf/Sec Mgr XP 1TB LTU (2-6TB) |
5 |
T1614AC |
LUN Conf/Sec Mgr XP 1TB LTU (7-15TB) |
3 |