Введение
Отказоустойчивая система ЕССМ выполняется по схеме резервирования Active-Active с использованием VIP-адреса — Virtual IP, — что позволяет использовать единый адрес для доступа к каждому узлу системы и хранить на них актуальные данные. Для настройки отказоустойчивой схемы требуется выделить не менее трех серверов. В схеме резервирования также предусмотрено разделение ЕССМ на сервер с БД и сервер с ЕССМ, использующим данную базу — для таких случаев требуется выделить 5 серверов.
Стандартная схема отказоустойчивой системы
Общая схема отказоустойчивой системы представляет из себя кластер, состоящий из трех узлов: master-, slave-, witness-ноды. Взаимодействие с WEB-интерфейсом происходит при помощи VIP, находящего на текущем мастере Keepalived. За состоянием баз данных PostgreSQL и Redis наблюдает узел witness и переключает мастерство Repmgr и Redis Sentinel при необходимости.
Подготовка серверов
Перед запуском ЕССМ в отказоустойчивой системе по любой из ранее представленных схем, необходимо подготовить конфигурационные и вспомогательные файлы.
Настройка файла .env.cluster
Перед запуском ЕССМ в отказоустойчивой системе, необходимо подготовить конфигурационный файл .env.cluster, находящийся в корневой директории проекта.
.env.cluster описано в статье Инструкция по установку и запуску.Подготовка конфигурационного файла для запуска ЕССМ в стандартной схеме отказоустойчивой системы
Необходимо открыть файл .env.cluster на Master-ноде при помощи любого текстового редактора и для минимальной настройки заполнить следующие переменные:
ALLOWED_HOSTS— переменная, указывающая разрешенные IP-адреса. Значение переменной должно соответствовать IP-адресам всех используемых нод;MASTER_HOST— переменная, указывающая IP-адрес Master-ноды;SLAVE_HOST— переменная, указывающая IP-адрес Slave-ноды;WITNESS_HOST— переменная, указывающая IP-адрес Witness-ноды;SENTINEL_MASTER_NAME— переменная, содержащая уникальное произвольное имя, присваиваемое кластеру баз данных для их мониторинга;SENTINEL_PASSWORD— переменная, содержащая пароль, используемый службой мониторинга для подключения к кластеру баз данных и получения информации о состоянии серверов.
Если не указывать данные переменные — база данных PostgreSQL на сервере не будет запущена и завершится с ошибкой.
Синхронизация файлов конфигурации
Все конфигурационные файлы должны быть идентичные между всеми нодами кластера. Для синхронизации файлов конфигурации между серверами, можно воспользоваться утилитой rsync. Пример установки утилиты:
sudo apt install rsync
Для передачи файлов конфигурации кластера используйте следующую команду:
sudo rsync -av --delete --rsync-path="sudo rsync" <полный_путь_до_директории_eccm>/.env.cluster <имя_пользователя_сервера>@<IP-адрес_сервера_назначения>:<полный_путь_до_директории_eccm>
После выполнения команды для каждого сервера назначения, файл конфигурации будет соответствовать настроенному ранее.
Настройка SSL/TLS для связи узлов кластера
Репликация между базами данных PostgreSQL и Redis происходит по умолчанию в безопасном режиме. Для настройки безопасности репликации необходимо настроить сертификаты шифрования. Предусмотрено как генерация таких сертификатов, так и использование уже готовых.
Создание самоподписанного сертификата
В отсутствии корпоративного сертификата, предусмотрен скрипт root-ca-generator/generate-cluster-cert.sh. Перед запуском предварительно отредактируйте файл root-ca-generator/cluster.cnf: пропишите IP-адреса всех узлов кластера в формате "IP.<№> = <IP-адрес узла>".
После этого запустите скрипт root-ca-generator/generate-cluster-cert.sh, который сгенерирует все необходимые сертификаты и ключи в директорию cluster-cert/:
cd root-ca-generator && ./generate-cluster-cert.sh
Состав директории root-ca-generator/cluster-cert:
ca.crt— корневой CA-сертификат;cluster.crt— сертификат кластера, подписанный CA;cluster.key— приватный ключ кластера.
При запуске ЕССМ будет также сгенерирован Java Truststore: Java-сервисы ECCM не читают ca.crt напрямую — они используют Java KeyStore в формате PKCS12. Сервис truststore-initer автоматически конвертирует ca.crt из cluster-cert/ в truststore.p12 и сохраняет его.
Синхронизация сертификатов безопасности
Для синхронизации файлов из директории cluster-cert/ между узлами отказоустойчивой системы рекомендуем воспользоваться утилитой rsync. Пример установки утилиты был описан в пункте "Синхронизация файлов конфигурации".
Для передачи сертификатов кластера используйте следующую команду:
sudo rsync -av --delete --rsync-path="sudo rsync" <полный_путь_до_директории_eccm>/cluster-cert/* <имя_пользователя_сервера>@<IP-адрес_сервера_назначения>:<полный_путь_до_директории_eccm>/cluster-cert
После выполнения команды для каждого сервера назначения, сертификаты на узлах будут соответствовать друг другу.
Настройка VIP
Для получения доступа к WEB-интерфейсу необходимо установить утилиту Keepalived на каждой ноде с сервисами ЕССМ. Пример установки утилиты:
sudo apt install keepalived
В директории keepalived подготовлены конфигурационные файлы для утилиты:
keepalived.conf— конфигурационный файл Keppalived, настраивающий VRRP для отказоустойчивой системы;check_app.sh— скрипт, проверяющий состояние сервисов ЕССМ. При падении сервиса снижает приоритет сервера для последующей смены мастерства.
После установки скопируйте все конфигурационные файлы из директории keepalived/ в директорию /etc/keepalived/:
cp ./keepalived/* /etc/keepalived/
Убедитесь, что у скрипта check_app.sh есть права на выполнение. Если данного права нет, используйте следующую команду:
chmod +x /etc/keepalived/check_app.sh
При помощи любого текстового редактора откройте конфигурационный файл /etc/keepalived/keepalived.conf. На сервере, где будет находиться приложение ЕССМ с ролью мастер, измените следующие параметры:
INTERFACE_NAME— сетевой интерфейс, на котором будет находится ЕССМ. Выставляется индивидуально для каждого сервера;ROUTER_ID— идентификатор виртуального маршрутизатора, принимающий значения от 0 до 255. Одинаковый на всех серверах;PRIORITY— приоритет текущей ноды, принимающий значения от 0 до 255. Необходимо, чтобы данное значение было больше параметраweight,в ином случае мастерство переключаться не будет;PASSWORD— пароль VRRP-аутентификации. Одинаковый на всех серверах;VIP_IP_ADDRESS— Виртуальный IP-адрес, через который будет получаться доступ к WEB-интерфейсу. Одинаковый на всех серверах.
Далее перейдите на сервер, где будет находится приложение ЕССМ с ролью слейв, и измените ранее описанные параметры.
Если необходимо, чтобы при переключении мастерства и восстановлении исходного мастера мастерство возвращалось исходному — на Master-узле выставьте приоритет на 1 больше, чем на Slave-узле. Если такая опция не нужна — установите одинаковое значение на каждом узле.
Рекомендуемые значения:
- Если необходимо, чтобы мастерство возвращалось исходному мастеру:
- Master-узел должен иметь приоритет 101;
- Slave-узел должен иметь приоритет 100;
- Если нет необходимости в возвращении мастерства исходному мастеру:
- На всех узлах выставить приоритет 100.
После этого запустите Keepalived на каждом узле. Пример запуска и добавления в автозагрузку:
sudo systemctl start keepalived sudo systemctl enable keepalived
Убедитесь, что роли между узлами были распределены при помощи следующей команды:
sudo systemctl status keepalived
В журнале вы должны увидеть Entering BACKUP STATE и Entering MASTER STATE.
Запуск ЕССМ в отказоустойчивой системе стандартной схемы
Для запуска ЕССМ в отказоустойчивой системе в стандартной схеме необходимо перейти на сервер будущего Master-узла. При помощи bash-скрипта произвести запуск мастера с необходимыми параметрами, пример запуска:
./compose-tools.sh --install # установит docker, если он отсутствует в системе ./compose-tools.sh -s <MASTER_HOST> --cluster master
После того, как мастер будет инициализирован и готов к работе, перейдите на сервер Slave-узла. При помощи bash-скрипта произвести запуск слейва с необходимыми параметрами, пример запуска с обязательными параметрами:
./compose-tools.sh --install # установит docker, если он отсутствует в системе ./compose-tools.sh -s <SLAVE_HOST> --cluster slave
Параллельно с запуском Slave-ноды, допустим запуск Witness-узла. Подключитесь к Witness-ноде. При помощи bash-скрипта произвести запуск наблюдателя с необходимыми параметрами, пример запуска с обязательными параметрами:
./compose-tools.sh --install # установит docker, если он отсутствует в системе ./compose-tools.sh -s <WITNESS_HOST> --cluster witness
После инициализации перейдите по ранее установленному VIP адресу в формате http://<VIP>/ — будет доступен WEB-интерфейс ЕССМ.