Обновление с версии 3.14.16 на 3.17
1 Подготовка хостов к обновлению
В процессе обновления с версии 3.14.16 на версию 3.17 будет заменена База Данных с MySQL на PostgreSQL. Для работы PostgreSQL требуется отдельный раздел дискового пространства - партиция, которая должна быть смонтирована в директорию → "/srv/ecss/ecss-postgres-bdr-ssw". В версии 3.14.16 такая партиция не предусматривалась, поэтому ее требуется создать. Размерность данной партиции от 100G и более.
Вариантов несколько:
- При наличии нераспределенного пространства на HDD/SSD → создать новую партицию с файловой системой ext4.
- Подключить еще один физический (в случае виртуализации виртуальный) диск. Создать на нем нужную нам партицию postgres с точкой монтирования "/srv/ecss/ecss-postgres-bdr-ssw".
Данную операцию необходимо выполнить для двух хостов поочередно (порядок не важен).
2 Подготовительные действия на ecss2
- Если нужны последние данные биллинга, то необходимо финализировать текущую cdr и скачать CDR файлы на удаленный сервер:
/domain/test_domain/cdr/make_finalize_cdr Created file(s): cdr_20260122_11_51_16_1_c.csv
- Включить настройку для автоматической синхронизации файлов, находящихся в сплите (по большему размеру). Подробнее см. "Проблемы связанные с возникновением split-brain" .на ecss1
sudo gluster volume set ecss_volume cluster.favorite-child-policy size
- Остановить репликации MySQL.
Убедитесь, что значения параметровSlave_IO_RunningиSlave_SQL_RunningравныNo.на ecss1/ecss2sudo mysql -uroot -p -e 'STOP SLAVE;'
на ecss1/ecss2sudo mysql -uroot -p -e 'SHOW SLAVE STATUS \G;' | grep -E "Slave_IO_Running:|Slave_SQL_Running:"
Пример:sudo mysql -uroot -p -e 'SHOW SLAVE STATUS \G;' | grep -E "Slave_IO_Running:|Slave_SQL_Running:" . . . Slave_IO_Running: No Slave_SQL_Running: No . . . - При обновлении кластера следует обновлять сервера по очереди. Таким образом, при обновлении один из серверов будет всегда запущен и работа сервисов не будет прервана. Для разделения кластера следует использовать инструмент ecss-control на обоих серверах (Описание команд утилиты приведено в «Приложении Н»).
Обмен sip сигнализацией происходит через SIP-VRRP IP адрес. Аналогичным образом, через MySQL-VRRP IP адрес, происходит подключение к MySQL. Этот функционал реализован для возможности миграции Ip адреса на другой хост в случае падения/отключения/техобслуживания основного хоста. Контроль миграции IP адресов осуществляется сервисом keepalive на каждом хосте. Для перевода трафика на первый сервер (ecss1), необходимо выключить keepalive на втором хосте (ecss2). В этом случае оба SIP-VRRP IP адреса, а так же MySQL-VRRP IP адрес, будут находится на первом хосте (ecss1). Выполнить следующую команду:на ecss2sudo systemctl disable --now keepalived.service
- Командой ifconfig проверить, что все VRRP IP-адреса находятся на ecss1 (VRRP-mysql/VRRP-SIP1/VRRP-SIP2).на ecss1
ifconfig
- Необходимо замаскировать все ноды на сервере, который будет обновляться первым, отключаем автозапуск нод:на ecss2
sudo systemctl mask --now ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
- На ecss1 выполнить разделение SSW на два независимых сервера следующей командой:
Команда ecss-control работает со стандартными именами хостов : ecss1/ecss2.
Проверить статус:на ecss1sudo ecss-control detach
на ecss1sudo ecss-control status
Результат:sudo ecss-control detach detach host: ecss2, ip: 10.0.10.82 complete sudo ecss-control status locked ip: 10.0.10.82
Нода sorm идет одна на кластер. В случае её работы на ecss1, при выполнении приложенной команды будет уведомление.
Unit /etc/systemd/system/ecss-sorm.service is masked, ignoring.
Данное сообщение не является ошибкой. Продолжать выполнение процедуры.
3 Подготовка к обновлению сервисов SSW на ecss2
- Актуализировать репозиторий ssw:на обоих хостах
sudo sh -c "echo deb [arch=amd64] http://archive.eltex.org/ssw/jammy/3.17 stable main extras external > /etc/apt/sources.list.d/eltex-ecss10-stable.list"
- Выполнить обновление пакетов:на обоих хостах
sudo apt update
4 Обновление сервисов SSW на ecss2
- Устанавливаем новую БД Postgres (сначала на ecss1, далее на ecss2)на обоих хостах, сначала на ecss1, потом на ecss2
sudo apt install ecss-postgres-bdr-ssw
!!!Если при установки пакета, выдается:!!!
ecss-postgres-bdr-ssw : Depends: docker-compose-plugin but it is not installable --> выполнить следующие команды:
на всех хостахsudo install -m 0755 -d /etc/apt/keyrings
на всех хостахsudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
на всех хостахsudo chmod a+r /etc/apt/keyrings/docker.asc
на всех хостахecho \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \ $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/nullна всех хостахsudo apt update
на обоих хостах, сначала на ecss1, потом на ecss2sudo apt install ecss-postgres-bdr-ssw
В процессе установки будут заданы вопросы:
-- Выбираем адрес для репликации из списка (на двух хостах )
-- хотим установку в кластере (на двух хостах)
-- да я мастер (на ecss1)/ нет я не мастер (на ecss2)
-- на ecss2, указываем адрес мастера, (указанный в ответе на вопрос 1 для ecss1) - Проверить корректность настройки репликации.
Во время установки в директорию /srv/ecss/ecss-postgres-bdr-ssw устанавливаются скрипт postgresbdr_ssw.sh.
Для проверки репликации выполнить следующие команды:Для проверки репликации выполнить команду на обоих хостах:cd /srv/ecss/ecss-postgres-bdr-ssw
Для проверки репликации выполнить команду на обоих хостах:sudo ./postgresbdr_ssw.sh check
Вывод на хостах ecss1/ecss2 должен быль одинаковый.Пример:sudo ./postgresbdr_ssw.sh check Enter master ip please Like 10.150.150.15 10.0.10.81 Enter slave ip please 10.0.10.82 Press enter with empty password Просто щелкайте Enter не вводя пароль q - выход из просмотра таблицы (если необходимо) таблица нод на мастере по ecss_storekeeper_db таблица нод на слейве по ecss_storekeeper_db таблица коннекций на мастер по ecss_storekeeper_db conn_sysid | conn_dsn ---------------------+--------------------------------------------------------------------------------------- 7569499877813944343 | host=10.0.10.81 port=5439 dbname=ecss_storekeeper_db user=postgres password=postgres1 7569514001040228374 | host=10.0.10.82 port=5439 dbname=ecss_storekeeper_db user=postgres password=postgres1 (2 rows) таблица коннекций на слейве по ecss_storekeeper_db conn_sysid | conn_dsn ---------------------+--------------------------------------------------------------------------------------- 7569499877813944343 | host=10.0.10.81 port=5439 dbname=ecss_storekeeper_db user=postgres password=postgres1 7569514001040228374 | host=10.0.10.82 port=5439 dbname=ecss_storekeeper_db user=postgres password=postgres1 (2 rows) - Обновление пакета ecss-dns-env:на ecss2
sudo apt install ecss-dns-env
После обновления, нужно актуализировать конфигурацию, выполнив команду. Ответы на вопросы аналогичны процедуре инсталляции:При обновлении нужно применить новые конфигурационные файлы (подтверждением -Y)
на ecss2sudo dpkg-reconfigure ecss-dns-env
- Выполнить обновление пакета ecss-user:на ecss2
sudo apt install ecss-user
- Выполнить обновление пакета ecss-utils:на ecss2
sudo apt install ecss-utils
- Выполнить обновление пакета ecss-node:на ecss2
sudo apt install ecss-node
ВОПРОСЫ НА УСТАНОВКУ ecss-node:
* ECSS-node ID in DNS format: <Согласно лицензии>.
* Default configuration: yes
* Global config: yes!!!Принимаем все изменения файлов конфигурации.!!
- Выполнить миграцию пользователей cocon(audit_database):на ecss2
/usr/bin/migrate_cocon.exs
В скобках, указаны дефолтные значения (соответственно, вводим свои, при использовании не дефолтных).При выполнении скрипта миграции необходимо будет ввести следующие параметры:
MySQL database hostname (cocon.mysql.ecss):
MySQL database port (3306):
ecss_audit database username (audit):
ecss_audit database password (audit): - Включаем ноды.
Включить сервисы ssw следующими командами:на ecss2sudo systemctl unmask ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
на ecss2sudo systemctl enable ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
- Запуск SSW на ecss2. Запустить следующие сервисы:
ecss-myceliumecss-dsна ecss2sudo systemctl start ecss-mycelium
ecss-coreна ecss2sudo systemctl start ecss-ds
ecss-mediatorна ecss2sudo systemctl start ecss-core
на ecss2sudo systemctl start ecss-mediator
Если лицензия поддерживает СОРМ3, то запустить также сервис ecss-sorm.
на ecss2sudo systemctl start ecss-sorm
Если сервис ecss-sorm оказался замаскирован, то выполнить следующие команды:
на ecss2sudo systemctl unmask ecss-sorm sudo systemctl start ecss-sorm
Для корректной работы SORM3 необходимо выполнить коррекцию команды для sorm экстрактора. Данную команду необходимо выполнить для каждого домена в SSW.
выполняется в CoCon/domain/<Имя_домена>/sorm3/set extractor_node sorm1@ecss2
Для примера:/domain/test_domain/sorm3/info┌──────────────────┬───────────┬───────────┐│ Property │ Domain │ Value │├──────────────────┼───────────┼───────────┤│adaptation │test_domain│undefined ││enabled │test_domain│false ││entrypoint_profile│test_domain│ ││extractor_ip │test_domain│127.0.0.1 ││extractor_node │test_domain│sorm1@ecss1│└──────────────────┴───────────┴───────────┘/domain/test_domain/sorm3/set extractor_node sorm1@ecss2Property "extractor_node" successfully changed from:sorm1@ecss1tosorm1@ecss2./domain/test_domain/sorm3/info┌──────────────────┬───────────┬───────────┐│ Property │ Domain │ Value │├──────────────────┼───────────┼───────────┤│adaptation │test_domain│undefined ││enabled │test_domain│false ││entrypoint_profile│test_domain│ ││extractor_ip │test_domain│127.0.0.1 ││extractor_node │test_domain│sorm1@ecss2│└──────────────────┴───────────┴───────────┘Команду повторить для всех доменов в SSW
!!!ПОКА НЕ ЗАПУСКАЕМ PA-SIP!!!
- Проверить статус сервисов, для этого выполнить в CoCon команду system-status:выполняется в CoCon
/system-status Checking... ┌─┬───────────────┬────────────────────────────┬───────────────┬────────────┬──────┐ │ │ Node │ Release │ Erlang nodes │Mnesia nodes│Uptime│ ├─┼───────────────┼────────────────────────────┼───────────────┼────────────┼──────┤ │ │core1@ecss2 │ecss-core-3.17.1.0.1771 │core1@ecss2 │not running │2m 27s│ │ │ds1@ecss2 │ecss-ds-3.17.1.0.1771 │ds1@ecss2 │ds1@ecss2 │2m 32s│ │ │md1@ecss2 │ecss-mediator-3.17.1.0.1771 │md1@ecss2 │md1@ecss2 │2m 16s│ │ │mycelium1@ecss2│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss2│not running │2m 39s│ │ │sorm1@ecss2 │ecss-sorm-3.17.1.0.1771 │sorm1@ecss2 │not running │1m 56s│ └─┴───────────────┴────────────────────────────┴───────────────┴────────────┴──────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬─────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼─────────────┼───────────┼───────────┤ │ core1@ecss2 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:00:10 │ │ │ msr.ecss2 │ 3.14.16.1.0 │ connected │ 00:00:10 │ └─────────────┴───────────┴─────────────┴───────────┴───────────┘
- Выполнить миграции таблиц DB подробное описание:
Проверить, какие данные доступны для переноса, можно командой:выполняется в CoCon/system/postgresql/migration/check <DATABASE> *где DATABASE:address_bookauditcallsdialerhistorymeetingssubscribers
Пример:/system/postgresql/migration/check address_book * --hostname ecss1 --username ******* --password ******* ┌────────────┬────────────────┬────────────────────────────────────┬───────────────────────────────┐ │ DB │ Table │ Status │ Description │ ├────────────┼────────────────┼────────────────────────────────────┼───────────────────────────────┤ │address_book│contact │Needs migration. │Depends on: `source`. │ │ │ │Meegrated: 0 / 1785 │ │ │ │ │ │ │ │- │label │Needs migration. │No dependencies. │ │ │ │Meegrated: 0 / 5 │ │ │ │ │ │ │ │- │phone │Needs migration. │Depends on: `contact`, `label`.│ │ │ │Meegrated: 0 / 2493 │ │ │ │ │ │ │ │- │changes │Needs migration. │No dependencies. │ │ │ │Meegrated: 0 / 5 │ │ │ │ │ │ │ │- │email │Needs migration. │Depends on: `contact`. │ │ │ │Meegrated: 0 / 588 │ │ └────────────┴────────────────┴────────────────────────────────────┴───────────────────────────────┘
Миграцию выполнить командой:Проверить прохождение миграции можно командой:выполняется в CoCon/system/postgresql/migration/do <DATABASE> <TABLE> --hostname ecss1
выполняется в CoCon/system/postgresql/migration/info <DATABASE> <TABLE>
Пример:/system/postgresql/migration/info address_book ┌────┬────────────┬────────────────────┬──────────┬────────────────┬───────────────────┬───────────────────┐ │ ID │ DB │ Table │ Status │ Props │ Start Time │ End Time │ ├────┼────────────┼────────────────────┼──────────┼────────────────┼───────────────────┼───────────────────┤ │1 │address_book│source │finished │current: 2 │22.01.2026 13:14:20│22.01.2026 13:14:20│ │ │ │ │ │overall: 2 │ │ │ │2 │address_book│label │failed │current: 0 │22.01.2026 13:14:30│22.01.2026 13:14:30│ │ │ │ │ │overall: 5 │ │ │ │3 │address_book│changes │failed │current: 0 │22.01.2026 13:14:49│22.01.2026 13:14:49│ │ │ │ │ │overall: 5 │ │ │ │4 │address_book│contact │finished │current: 1785 │22.01.2026 13:14:56│22.01.2026 13:14:56│ │ │ │ │ │overall: 1785 │ │ │ │5 │address_book│phone │finished │current: 2493 │22.01.2026 13:15:03│22.01.2026 13:15:03│ │ │ │ │ │overall: 2493 │ │ │ │6 │address_book│email │finished │current: 588 │22.01.2026 13:15:07│22.01.2026 13:15:07│ │ │ │ │ │overall: 588 │ │ │ └────┴────────────┴────────────────────┴──────────┴────────────────┴───────────────────┴───────────────────┘
- Обновление пакета ecss-restfs.Принять все новые конфигурационные файлы, выбирая Y.на ecss2
sudo apt install ecss-restfs
- Обновление пакета ecss-media-server.
Media Server анализирует конфигурацию в файлах находящихся в директории /etc/ecss/ecss-media-server/. В версии 3.17 реализована новая функция контроля приоритетности кодеков. Если по какой то причине в нескольких файлах присутствует секция "codec" в которой несколько раз прописывается один и тот же кодек, то после обновления возникнет конфликт и Media Server работать не будет.
Поэтому в конфигурационных файлах одного Media Server не должно быть конфликтов по приоритетам кодеков (запись об одном кодеке должна быть одна и не повторяться в других файлах). Какие именно фалы требуется сконфигурировать - на усмотрение администратора системы.
Предварительно отключить регистрацию на рабочий хост ecss1. Для этого надо закомментировать в конфигурационном файле строку с realm рабочего хоста (в примере realm="sip:10.0.20.81:5000"), следующей командой (добавив <!- - вначале строки , и - -> в конце строки ), следующей командой:на ecss2sudo nano /etc/ecss/ecss-media-server/conf.d/default.xml
Выполнить обновление:пример<?xml version="1.0"?> <config> <accounts> <!--<dynamic msr_name="msr.ecss2" realm="sip:10.0.20.81:5000" dtmf_mode="rfc+inband+info" auth_name="user" auth_password="password"/>--> <dynamic msr_name="msr.ecss2" realm="sip:10.0.20.82:5000" dtmf_mode="rfc+inband+info" auth_name="user" auth_password="password"/> </accounts> </config>Актуализировать конфигурацию:на ecss2sudo apt install ecss-media-server
Выполнить проверку, и при необходимости отредактировать файл командой :на ecss2sudo dpkg-reconfigure ecss-media-server
на ecss2sudo nano /etc/ecss/ecss-media-server/config.xml
- Обновление пакета ecss-media-resources:на ecss2
sudo apt install ecss-media-resources
- Обновление пакета ecss-web-confна ecss2
sudo apt install ecss-web-conf
- Переносим актуальные регистрации абонентов:
Перед переводом keepalived на обновленный хост необходимо скопировать актуальную базу ds с ecss1 (иначе база регистраций будет пустая). Поэтому сначала делаем backup БД Mnesia на ecss1:выполняется в CoCon/node/ds1@ecss1/oasys/backup
Останавливаем ecss-ds на ecss2:/node/ds1@ecss1/oasys/backup Backup was successfully created at the path: "/var/lib/ecss/oasys/Mnesia.ds1@ecss1_20250930081517"
Командой scp копируем backup c ecss1 на ecss2.на ecss2sudo systemctl stop ecss-ds
Выполняем локальную копию текущей конфигурации:на ecss2scp -r ecss@ecss1:/var/lib/ecss/oasys/Mnesia.ds1@ecss1_20250930081517 /var/lib/ecss/oasys
Заменяем локальную конфигурацию на конфигурацию backup c ecss1:на ecss2sudo cp -a /var/lib/ecss/oasys/Mnesia.ds1@ecss2 /var/lib/ecss/oasys/Mnesia.ds1@ecss2-bkp
на ecss2sudo mv /var/lib/ecss/oasys/Mnesia.ds1@ecss1_20250930081517 /var/lib/ecss/oasys/Mnesia.ds1@ecss2
Запустить ecss-ds и ecss-pa-sip (чтобы подгрузились актуальные регистрации абонентов):на ecss2sudo chown -R ssw:ssw /var/lib/ecss/oasys
на ecss2sudo systemctl start ecss-ds
Проверить статус сервисов командой /system-status :на ecss2sudo systemctl start ecss-pa-sip
Выполнить проверку переезда активных регистраций на обновленный хост. Для этого выполнить контроль зарегистрированы абонентов на одном(3.114.16) и втором (3.17) хостах. выполнить команду в CoCon:выполняется в CoCon/system-status Checking... ┌─┬───────────────┬────────────────────────────┬───────────────┬────────────┬──────┐ │ │ Node │ Release │ Erlang nodes │Mnesia nodes│Uptime│ ├─┼───────────────┼────────────────────────────┼───────────────┼────────────┼──────┤ │ │core1@ecss2 │ecss-core-3.17.1.0.1771 │core1@ecss2 │not running │2m 27s│ │ │ds1@ecss2 │ecss-ds-3.17.1.0.1771 │ds1@ecss2 │ds1@ecss2 │2m 32s│ │ │md1@ecss2 │ecss-mediator-3.17.1.0.1771 │md1@ecss2 │md1@ecss2 │2m 16s│ │ │mycelium1@ecss2│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss2│not running │2m 39s│ │ │sip1@ecss2 │ecss-pa-sip-3.17.1.0.1771 │sip1@ecss2 │sip1@ecss2 │2m 22s│ │ │sorm1@ecss2 │ecss-sorm-3.17.1.0.1771 │sorm1@ecss2 │not running │1m 56s│ └─┴───────────────┴────────────────────────────┴───────────────┴────────────┴──────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬─────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼─────────────┼───────────┼───────────┤ │ core1@ecss2 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:00:10 │ │ │ msr.ecss2 │ 3.17.1.0.28 │ connected │ 00:00:10 │ └─────────────┴───────────┴─────────────┴───────────┴───────────┘
выполняется в CoCon на ecss2/domain/test_domain/sip/user/registered sip * 450 make users list ... [**********************************************************************] 28mks 450 users information read ... [**********************************************************************] 1ms Executed on the sip1@ecss2 ┌───────────────┐ │ elements: 436 │ └───────────────┘
выполняется в CoCon на ecss1/domain/test_domain/sip/user/registered sip * 450 make users list ... [**********************************************************************] 28mks 450 users information read ... [**********************************************************************] 1ms Executed on the sip1@ecss1 ┌───────────────┐ │ elements: 438 │ └───────────────┘
- Запуск сервиса keepalivedна ecss2
sudo systemctl enable --now keepalived
5 Подготовительные действия на ecss1
- Подготовить ecss1 к обновлению, для этого, перевести весь трафик на ecss2 (команда выполняется на ecss1):на ecss1
sudo systemctl disable --now keepalived.service
- Командой ifconfig проверьте, что все VRRP адреса (VRRP IP-mysql / VRRP IP-SIP1 / VRRP IP-SIP2) находятся на ecss2.на ecss2
ifconfig
- После разделения кластера необходимо выключить все ноды на сервере ecss1:на ecss1
sudo systemctl mask --now ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
- Выполнить миграции таблиц DB подробное описание:
Проверить, какие данные доступны для переноса, можно командой:выполняется в CoCon/system/postgresql/migration/check <DATABASE> *где DATABASE:address_bookauditcallsdialerhistorymeetingssubscribers
Пример:/system/postgresql/migration/check address_book * --username ******* --password ******* ┌────────────┬────────────────┬────────────────────────────────────┬───────────────────────────────┐ │ DB │ Table │ Status │ Description │ ├────────────┼────────────────┼────────────────────────────────────┼───────────────────────────────┤ │address_book│contact │Needs migration. │Depends on: `source`. │ │ │ │Meegrated: 0 / 1785 │ │ │ │ │ │ │ │- │label │Needs migration. │No dependencies. │ │ │ │Meegrated: 0 / 5 │ │ │ │ │ │ │ │- │phone │Needs migration. │Depends on: `contact`, `label`.│ │ │ │Meegrated: 0 / 2493 │ │ │ │ │ │ │ │- │changes │Needs migration. │No dependencies. │ │ │ │Meegrated: 0 / 5 │ │ │ │ │ │ │ │- │email │Needs migration. │Depends on: `contact`. │ │ │ │Meegrated: 0 / 588 │ │ └────────────┴────────────────┴────────────────────────────────────┴───────────────────────────────┘
Миграцию выполнить командой:Проверить прохождение миграции можно командой:выполняется в CoCon/system/postgresql/migration/do <DATABASE> <TABLE>
выполняется в CoCon/system/postgresql/migration/info <DATABASE> <TABLE>
Пример:/system/postgresql/migration/info address_book ┌────┬────────────┬────────────────────┬──────────┬────────────────┬───────────────────┬───────────────────┐ │ ID │ DB │ Table │ Status │ Props │ Start Time │ End Time │ ├────┼────────────┼────────────────────┼──────────┼────────────────┼───────────────────┼───────────────────┤ │1 │address_book│source │finished │current: 2 │22.01.2026 13:14:20│22.01.2026 13:14:20│ │ │ │ │ │overall: 2 │ │ │ │2 │address_book│label │failed │current: 0 │22.01.2026 13:14:30│22.01.2026 13:14:30│ │ │ │ │ │overall: 5 │ │ │ │3 │address_book│changes │failed │current: 0 │22.01.2026 13:14:49│22.01.2026 13:14:49│ │ │ │ │ │overall: 5 │ │ │ │4 │address_book│contact │finished │current: 1785 │22.01.2026 13:14:56│22.01.2026 13:14:56│ │ │ │ │ │overall: 1785 │ │ │ │5 │address_book│phone │finished │current: 2493 │22.01.2026 13:15:03│22.01.2026 13:15:03│ │ │ │ │ │overall: 2493 │ │ │ │6 │address_book│email │finished │current: 588 │22.01.2026 13:15:07│22.01.2026 13:15:07│ │ │ │ │ │overall: 588 │ │ │ └────┴────────────┴────────────────────┴──────────┴────────────────┴───────────────────┴───────────────────┘
6 Обновление сервисов SSW на ecss1
- Выполнить на ecss2 объединение в кластер:на ecss2
sudo ecss-control attach
- Активация сервиса Keepalived.на ecss1
sudo systemctl enable --now keepalived
- Обновление пакета ecss-dns-env.на ecss1
sudo apt install ecss-dns-env
После обновления актуализировать конфигурацию командой:При обновлении принимать новые конфигурационные файлы -Y.на ecss1sudo dpkg-reconfigure ecss-dns-env
- Обновление пакета ecss-user:на ecss1
sudo apt install ecss-user
- Обновление пакета ecss-utils:на ecss1
sudo apt install ecss-utils
- Обновление пакета ecss-node:на ecss1
sudo apt install ecss-node
на ecss1
ВОПРОСЫ НА УСТАНОВКУ ecss-node:
* ECSS-node ID in DNS format: <Согласно лицензии>.
* Default configuration: yes
* Global config: yes!!!Принимаем все изменения файлов конфигурации.!!
- Включить сервисы ssw: на ecss1
sudo systemctl unmask ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
на ecss1sudo systemctl enable ecss-ds ecss-mycelium ecss-mediator ecss-core ecss-pa-sip ecss-sorm
- Сервис ecss-sorm на ecss1 сразу замаскировать, т.к. у нас заявлена работа ecss-sorm на одном хосте в кластере. на ecss1
sudo systemctl mask ecss-sorm
- На ecss1 запустите сервис mycelium и в CoCon проверьте, что сервис поднялся и видно ноды mycelium хостов ecss1/ ecss2:на ecss1
sudo systemctl start ecss-mycelium
выполняется в CoCon/system-status Checking... ┌─┬───────────────┬────────────────────────────┬───────────────────────────────┬────────────┬───────┐ │ │ Node │ Release │ Erlang nodes │Mnesia nodes│Uptime │ ├─┼───────────────┼────────────────────────────┼───────────────────────────────┼────────────┼───────┤ │ │core1@ecss2 │ecss-core-3.17.1.0.1771 │core1@ecss2 │not running │3h 5m │ │ │ds1@ecss2 │ecss-ds-3.17.1.0.1771 │ds1@ecss2 │ds1@ecss2 │3h 5m │ │ │md1@ecss2 │ecss-mediator-3.17.1.0.1771 │md1@ecss2 │md1@ecss2 │3h 5m │ │ │mycelium1@ecss1│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │10m 42s│ │ │mycelium1@ecss2│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │3h 5m │ │ │sip1@ecss2 │ecss-pa-sip-3.17.1.0.1771 │sip1@ecss2 │sip1@ecss2 │3h 5m │ │ │sorm1@ecss2 │ecss-sorm-3.17.1.0.1771 │sorm1@ecss2 │not running │3h 5m │ └─┴───────────────┴────────────────────────────┴───────────────────────────────┴────────────┴───────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬───────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼───────────────┼───────────┼───────────┤ │ core1@ecss2 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:21:09 │ │ │ msr.ecss2 │ 3.17.1.0.28 │ connected │ 00:00:59 │ └─────────────┴───────────┴───────────────┴───────────┴───────────┘
- Перед запуском ecss-ds на ecss1 необходимо сделать backup директории /var/lib/ecss/oasys и удалить ее, для того чтобы с другого хоста загрузить актуальную БД. Сделать это можно переименовав существующую директорию:
После этого ecss-ds на хосте ecss1 загрузит БД с хоста ecss2.
на ecss1sudo mv /var/lib/ecss/oasys /var/lib/ecss/oasys-$(date +%Y%m%d-%H_%M)
- На ecss1 запустите сервис ds и в CoCon проверить, что сервис ds доступен на обоих хостах ecss1/ ecss2:на ecss1
sudo systemctl start ecss-ds
выполняется в CoCon/system-status Checking... ┌─┬───────────────┬────────────────────────────┬───────────────────────────────┬───────────────────┬───────┐ │ │ Node │ Release │ Erlang nodes │ Mnesia nodes │Uptime │ ├─┼───────────────┼────────────────────────────┼───────────────────────────────┼───────────────────┼───────┤ │ │core1@ecss2 │ecss-core-3.17.1.0.1771 │core1@ecss2 │not running │3h 13m │ │ │ds1@ecss1 │ecss-ds-3.17.1.0.1771 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2│12s │ │ │ds1@ecss2 │ecss-ds-3.17.1.0.1771 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2│3h 13m │ │ │md1@ecss2 │ecss-mediator-3.17.1.0.1771 │md1@ecss2 │md1@ecss2 │3h 13m │ │ │mycelium1@ecss1│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │18m 33s│ │ │mycelium1@ecss2│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │3h 13m │ │ │sip1@ecss2 │ecss-pa-sip-3.17.1.0.1771 │sip1@ecss2 │sip1@ecss2 │3h 13m │ │ │sorm1@ecss2 │ecss-sorm-3.17.1.0.1771 │sorm1@ecss2 │not running │3h 12m │ └─┴───────────────┴────────────────────────────┴───────────────────────────────┴───────────────────┴───────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬───────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼───────────────┼───────────┼───────────┤ │ core1@ecss2 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:29:01 │ │ │ msr.ecss2 │ 3.17.1.0.28 │ connected │ 00:08:50 │ └─────────────┴───────────┴───────────────┴───────────┴───────────┘
- Далее такими же действиями запустить сервисы: ecss-mediator, ecss-pa-sip, ecss-core следующими командами:на ecss1
sudo systemctl start ecss-core
на ecss1sudo systemctl start ecss-mediator
Проверить статус в CoCom:на ecss1sudo systemctl start ecss-pa-sip
Результат:/system-status Checking... ┌─┬───────────────┬────────────────────────────┬───────────────────────────────┬─────────────────────┬──────┐ │ │ Node │ Release │ Erlang nodes │ Mnesia nodes │Uptime│ ├─┼───────────────┼────────────────────────────┼───────────────────────────────┼─────────────────────┼──────┤ │ │core1@ecss1 │ecss-core-3.17.1.0.1771 │core1@ecss1,core1@ecss2 │not running │3m 50s│ │ │core1@ecss2 │ecss-core-3.17.1.0.1771 │core1@ecss1,core1@ecss2 │not running │3h 22m│ │ │ds1@ecss1 │ecss-ds-3.17.1.0.1771 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │9m 42s│ │ │ds1@ecss2 │ecss-ds-3.17.1.0.1771 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │3h 22m│ │ │md1@ecss1 │ecss-mediator-3.17.1.0.1771 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │5m 22s│ │ │md1@ecss2 │ecss-mediator-3.17.1.0.1771 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │3h 22m│ │ │mycelium1@ecss1│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │28m 4s│ │ │mycelium1@ecss2│ecss-mycelium-3.17.1.0.1771 │mycelium1@ecss1,mycelium1@ecss2│not running │3h 23m│ │ │sip1@ecss1 │ecss-pa-sip-3.17.1.0.1771 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2│4m 40s│ │ │sip1@ecss2 │ecss-pa-sip-3.17.1.0.1771 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2│3h 22m│ │ │sorm1@ecss2 │ecss-sorm-3.17.1.0.1771 │sorm1@ecss2 │not running │3h 22m│ └─┴───────────────┴────────────────────────────┴───────────────────────────────┴─────────────────────┴──────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬───────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼───────────────┼───────────┼───────────┤ │ core1@ecss1 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:02:37 │ │ core1@ecss2 │ msr.ecss1 │ 3.14.16.1.0 │ connected │ 00:38:31 │ │ │ msr.ecss2 │ 3.17.1.0.28 │ connected │ 00:18:20 │ └─────────────┴───────────┴───────────────┴───────────┴───────────┘
- Обновление пакета ecss-restfs:на ecss1
sudo apt install ecss-restfs
- Обновление пакета ecss-media-server:Актуализировать конфигурацию:на ecss1
sudo apt install ecss-media-server
Проверить и при необходимости исправить вручную файл → /etc/ecss/ecss-media-server/config.xmlна ecss1sudo dpkg-reconfigure ecss-media-server
Так же, для регистрации media-server`a с ecss2 на ecss1 надо убрать ранее добавленные комментирование из файла /etc/ecss/ecss-media-server/conf.d/default.xml на ecss2:
После чего перезапустить сервис:на ecss2sudo systemctl restart ecss-media-server.service
- Обновление пакета ecss-media-resources:на ecss1
sudo apt install ecss-media-resources
- Обновление пакета ecss-web-conf:на ecss1
sudo apt install ecss-web-conf
7 Проверка обновления
- После выполнения обновления проверить работу всех сервисов SSW.