Первоначальная установка системы 3.18 без резервирования с одним сервером
Исходные данные
Исходные данные
В данном разделе использованы специфичные для данного продукта термины, ознакомиться с ними можно здесь.
Требуется интеграция программного коммутатора 5 класса ECSS-10 (SSW) на 1 физическом сервере с поддержкой SIP со следующими параметрами на нагрузку:
- Максимальное количество абонентов – 15000 (MUL — Max user limit);
- Максимальное количество одновременных соединений — 2000 (MCL — Max call limit);
- Резервирование системы не требуется;
- Количество сетевых интерфейсов ethernet — 4.
По техническому заданию требуется определить аппаратную платформу.
Актуальная информация с требованиями к серверам, которые должны использоваться для работы комплекса ECSS-10.
| № | Требования к серверам SSW | Серия Light+ | Серия Midi | Серия Heavy | Серия Супер Heavy | Серия Top (1) |
|---|---|---|---|---|---|---|
| 1 | Характеристики системы | |||||
| 1.1 | Максимальное количество абонентов | 5000 | 10000 | 20000 | 40000 | - |
| 1.2 | Максимальная нагрузка одновременных соединений class 5 | 800 | 1500 | 3000 | 6000 | - |
| 1.3 | Максимальная нагрузка одновременных соединений class 4 | 2400 | 4500 | 9000 | 20000 | 80000 |
| 2 | Характеристики сервера | |||||
| 2.1 | Марка | HP (Lenovo) | HP (Lenovo) | HP (Lenovo) | HP (Lenovo) | HP /Lenovo /Depo |
| 2.2 | Серия | DL20 Gen10/DL 360 Gen10 (SR530) | DL360 Gen10 (SR530/SR630) | DL360 Gen10 (SR630) | DL360 Gen10 (SR630) | DL360 Gen10 /SR650 V2 /Storm 3450 |
| 2.3 | Процессор | Intel Xeon 4214 | Intel Xeon 5220 | Intel Xeon 6240 | Intel Xeon 8268 | Intel Xeon 8380 |
| 2.4 | Количество процессоров | 1 | 1 | 2 | 2 | 2 |
| 2.5 | Оперативная память | 16 Gb | 24 Gb | 32 Gb | 64 Gb | 1024 Gb |
| 2.6 | HDD | От 3X500 SATA (от 7200 rpm) | От 3x300 Gb SAS (от 10000 rpm) | От 3x600 Gb SAS (от 10000 rpm) 2x150Gb SSD | От 6x800 Gb SSD, 2x300Gb M.2 SSD | От 6x1.2 Tb SSD, 2x300Gb M.2 SSD |
| 2.7 | RAID | no raid board | HW Raid, от 1Gb cache+battery | HW Raid, от 1Gb cache+battery | HW Raid, от 2Gb Flash cache, поддержка RAID-5 | HW Raid, от 2Gb Flash cache, поддержка RAID-5 |
| 3 | Дополнительные комплектующие сервера (в базовый комплект не входят) | |||||
| 3.1 | Лицензия на удалённое управление | по желанию | + | + | + | + |
| 3.2 | Резервный источник питания | по желанию | + | + | + | + |
| 3.3 | Организация хранилища записей разговоров | Дополнительные HDD, объединенные в RAID-5 | Лицензия на HW Raid с поддержкой RAID-5, дополнительные HDD для хранения записей | Лицензия на HW Raid с поддержкой RAID-5, дополнительные HDD для хранения записей | Лицензия на HW Raid с поддержкой RAID-5, дополнительные HDD для хранения записей | Лицензия на HW Raid с поддержкой RAID-5, дополнительные HDD для хранения записей |
Полоса пропускания СПД
Требуемая полоса пропускания СПД не менее 1000Mb/s
Минимальные требования при установке ECSS-10 на виртуальные машины*
| № | Требования к серверам SSW | Уровень Light (2)(3) | Уровень Light+ | Уровень Midi | Уровень Heavy | Уровень Супер Heavy | Уровень Top (1) |
|---|---|---|---|---|---|---|---|
| 1 | Характеристики системы | ||||||
| 1.1 | Максимальное количество абонентов | 1000 | 5000 | 10000 | 20000 | 40000 | - |
| 1.2 | Максимальная нагрузка одновременных соединений class 5 | 250 | 800 | 1500 | 3000 | 6000 | - |
| 1.3 | Максимальная нагрузка одновременных соединений class 4 | 1000 | 4500 | 9000 | 20000 | 80000 | - |
| 2 | Характеристики сервера | ||||||
| 2.4 | Количество ядер/потоков (vCore) | 8С | 12С/24T | 18С/36T | 36С/72T | 48С/96T | 80С/160T и более |
| 2.5 | Частота процессора | от 2.4 Ghz | от 3 Ghz | от 3Ghz | от 3.6 Ghz | от 3.4 Ghz | от 3.2 Ghz |
| 2.6 | Оперативная память | 8 Gb | 16 Gb | 24 Gb | 32 Gb | от 64 Gb | от 512 Gb |
| 2.7 | HDD | От 50 GB, 75 IOPS | От 500 GB SATA (от 7200 rpm, от 75 IOPS) | От 500 Gb SAS (от 10000 rpm, 170 IOPS) | От 500 Gb SAS (от 10000 rpm, 170 IOPS) и 150Gb SSD | от 800 Gb SSD и 300Gb M.2 SSD | От 1.2 Tb SSD и 300Gb M.2 SSD |
C - core, они же ядра
T - thread = поток, vCore
(1) — серия Top на текущий момент рассчитана для реализации контроллера транковых шлюзов (работа по 4 классу).
(2) — уровень Light применяется только для расчета виртуальных машин, для физических серверов минимальная рекомендуемая конфигурация — Light+.
(3) — уровень Light является минимальным рекомендуемым. При запросе расчета ВМ для малого числа абонентов (до 1000: 100, 200...) используем его.
*Если на системе планируется использование таких сервисов как КЦ, запись разговоров, видео-вызовы, то необходимо согласовать требования с технической поддержкой
Устройство | Требуемый ресурс | Серия аппаратного продукта | |
|---|---|---|---|
MCL | MUL | ||
Сервер 1 | 2500 | 15000 | Heavy |
После определения по требованиям проекта составляем предварительную сетевую карту.
Пример разнесения составляющих по адресному пространству для одной ноды:
Имя сервера (хоста) | Роль | Интерфейс | Адрес | Адрес вашего проекта | Порт |
|---|---|---|---|---|---|
Статические адреса программного коммутатора | |||||
ecss1 | Адрес сервера | net.10 (mgm) | 10.0.10.10/24 | - | |
ecss1 | Адрес протокольного адаптера | net.20 (voip) | 10.0.20.10/24 | - | |
ecss1 | Адрес шлюза | net.10 (mgm) | 10.0.10.1 | - | |
ecss1 | Адреса DNS-серверов | net.10 (mgm) | 10.0.10.1, 8.8.8.8 | - | |
Внутренние адреса программного коммутатора | |||||
ecss1 | Адрес ядра (ecss-core) | lo | 127.0.0.1/24 | 5000 | |
ecss1 | Адрес медиасервера (ecss-media-server (MSR)) | lo | 127.0.0.1/24 | 5040 | |
Включение в сеть
Топологию включения сервера в сеть для обеспечения резервирования рекомендуется делать с использованием 2-х коммутаторов.
Рисунок 1 — Схема организации связи
Вариант 1. Схема active-backup
Коммутаторы связаны между собой в erps-кольцо.
Все 4 физических сетевых интерфейса объединяются в 1 агрегированный линк (bond). Агрегация портов сервера настраивается в режиме active-backup, т.е. в работе всегда находится только 1 сетевой интерфейс. Сетевые интерфейсы сервера попарно включены в коммутаторы, на которых агрегация портов (port-channel) также настраивается в режиме active-backup.
Например, eth1 и eth2 включаются в первый коммутатор, а eth3 и eth4 — во второй.
Вариант 2. Схема LACP
Коммутаторы связаны между собой в стек. Стек должен логически работать как один коммутатор, способный обеспечивать агрегацию портов в режиме LACP между разными физическими коммутаторами. Пример — коммутаторы MES3124 со специализированной прошивкой.
Все 4 физических сетевых интерфейса также объединяются в 1 агрегированный линк (bond). Агрегация портов сервера настраивается в режиме 802.3ad. Создаются агрегированные группы сетевых карт с одинаковой скоростью и дуплексом. При таком объединении передача задействует все каналы в активной агрегации согласно стандарту IEEE 802.3ad. Выбор, через какой интерфейс отправлять пакет, определяется политикой. По умолчанию это XOR-политика, можно использовать «xmit_hash» политику. Подробнее в разделе Приложение Е. Netplan.
Требования:
- Поддержка Ethtool в драйвере для получения информации о скорости и дуплексе на каждом сетевом интерфейсе;
- Поддержка на коммутаторе стандарта IEEE 802.3ad;
Сетевые интерфейсы сервера также попарно включены в коммутаторы, на которых агрегация портов (port-channel) настраивается в режиме LACP. Например, eth1 и eth2 включаются в первый коммутатор (port-channel 1), а eth3 и eth4 — во второй (port-channel 2).
Последовательность установки SSW ECSS10 на одном сервере
Установка SSW ECSS10 состоит из 2-х основных частей :
Подготовительной - Установка ОС Ubuntu 22.04, обновлений пакетов OC Ubuntu , "оптимизация" OC, установка дополнительных пакетов программ, подготовка сетевых интерфейсов, /etc/hosts, ssh-keygen
- Установка приложений Eltex ECSS10
Подготовительный этап
В этом разделе приведено описание инсталляции операционной системы, а также необходимых и дополнительных пакетов. Система ECSS-10 версии 3.18 работает под управлением ОС Ubuntu 22.04.
Предварительные требования
- Установочный загрузочный носитель с дистрибутивом операционной системы;
- Подготовленный сервер с обновленным BIOS, ILO (если есть), подключенная сеть для доступа в сеть Интернет;
- Выставленный первый приоритет загрузки с установочного носителя — USB Flash или CD/DVD в BIOS;
- Достаточный объем дискового пространства и памяти в соответствии с проектом.
Установка ОС
Для установки ОС необходимо выполнить следующее:
- После загрузки с установочного носителя выбрать "Install Ubuntu Server".
- Выбрать язык системы и раскладку клавиатуры.
Настроить сетевой интерфейс для подключения к сети Интернет:
- Создать партиции на диске в соответствии с таблицей 1
- Настроить имена сервера и пользователя
- Установить OpenSSH server
- Перезагрузить успешно установленную ОС
































Ubuntu Linux Server установлен
Таблица 1 — Вариант размещения информации в файловой системе на физических носителях для серверов
| 1 | Загрузочный раздел операционной системы (создается автоматически) | boot | raid 1:hdd1,hdd2 | boot | /boot | ext4 | 1 Gb | Первичный |
| 2 | Корневой раздел операционной системы | root | raid 1:hdd1,hdd2 | root | / | ext4 | 30 Gb | Логический |
| 3 | Информация локальных баз данных | mnesia | raid 1:hdd1, hdd2 | mnesia | /var/lib/ecss | ext4 | 10 Gb | Логический |
| 4 | Распределенная БД для хранения медиаресурсов | glusterfs | raid 1:hdd1, hdd2 или hdd3 | glusterfs | /var/lib/ecss/restfs | ext4 | Max Gb | Логический |
| 5 | Журналы функционирования подсистем ОС | log | raid 1:hdd1,hdd2 или hdd3 | log | /var/log | ext4 | 20 Gb | Логический |
| 6 | Журналы функционирования подсистем ECSS | ecss_log | raid 1:hdd1,hdd2 или hdd3 | ecss_log | /var/log/ecss | ext4 | 20 Gb | Логический |
| 7 | Базы данных | ecss_db | raid 1:hdd1,hdd2 или hdd3 | ecss_db | /srv/ecss/ecss-postgres-bdr-ssw/ | ext4 | 100–400 Gb* | Логический |
| 8 | Файлы пользователя | home | raid 1:hdd1,hdd2 или hdd3 | home | /home | ext4 | 10 Gb | Логический |
* Рекомендуемое значение для серий Light, Light+, Midi — 100 Gb. Рекомендуемое значение для серии Heavy — 200 Gb, Super Heavy — 400 Gb.
Для работы системы необходимо как минимум 256 Gb свободного пространства.
На серверах системы необходимо настроить параметр "hostname".
На всех серверах системы желательно указать одинаковое имя пользователя (любое, кроме ssw). Лицензия ECSS-10 привязывается к ключу eToken/ruToken и к имени компьютера (hostname). Системный пользователь ssw создается при инсталляции пакета ecss-user.
Если используется один сервер, рекомендуемое значение hostname — ecss1;
Настройка сети
Согласно параметрам, заданным в техническом задании, выполним сетевые настройки. В данном примере считается, что необходимая операционная система уже установлена.
Рекомендуется разделять трафик, используемый в разных целях. Например, трафик управления и трафик VoIP. Для этого создаются 2 или более vlan. При небольшой нагрузке для простоты можно обойтись и одним vlan, но это будет в будущем доставлять неудобства при снятии дампов трафика и его анализе. В соответствии с техническим заданием на vlan настраиваются IP-адреса самого хоста, шлюзы, DNS и маршрутизация в другие сети.
В данном примере согласно ТЗ будем использовать адреса:
- 10.0.10.41/24 — для управления, vlan 10;
- 10.0.20.41/24 — для VoIP.
Внутри серверной платформы существует адресная структура и используются внутренние адреса для взаимодействия между подсистемами (нодами) в кластере. Например, внутренний адрес для кластера на одном сервере 127.0.0.1, при этом ядро (ecss-core) взаимодействует с сервером обработки мультимедиа-данных (ecss-media-server). Их взаимодействие происходит с использованием одного и того же адреса, но у каждой программной части свой транспортный порт: ecss-core — 5000, ecss-msr — 5040.
Для всех нод кластера определяется единый адрес для обращения к базе данных, например адрес 127.0.0.1. Таким образом, выполняется условие единообразия, при котором все ноды кластера имеют полностью одинаковые данные о текущем состоянии динамических составляющих программного коммутатора (например, история вызовов).
Подготовка сетевых интерфейсов системы
Согласно ТЗ, система имеет 4 сетевых интерфейса. Информацию об их состоянии можно посмотреть с помощью команды ifconfig или ip a:
| eth0: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500 ether 36:10:28:73:63:01 txqueuelen 1000 (Ethernet) eth1: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500 ether 36:10:28:73:63:01 txqueuelen 1000 (Ethernet) eth2: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500 ether be:77:ea:52:4d:39 txqueuelen 1000 (Ethernet) eth3: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST> mtu 1500 ether be:77:ea:52:4d:39 txqueuelen 1000 (Ethernet) lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 |
Сначала настраиваются сетевые интерфейсы. В Ubuntu 22 для их настройки используется утилита netplan.
Данная утилита позволяет настроить сетевую конфигурацию и затем загрузить ее в систему с помощью сетевого менеджера networkd или NetworkManager.
sudo nano /etc/netplan/ecss_netplan.yaml
Все другие файлы из этого каталога обязательно нужно переместить в другое место или удалить.
В конфигурациях для каждого хоста в первую очередь мы объявляем секцию ethernets, в которой описываются существующие в системе ethernet-интерфейсы, используемые в дальнейшем. Для каждого интерфейса необходимо отключить использование динамического распределения адресов (DHCP).
Далее настраиваются vlan, на которых опционально определяются шлюзы для связи с внешним миром и адреса DNS-серверов, а также непосредственно IP-адреса для каждого интерфейса.
ВАЖНО
Обратите внимание, что во время редактирования netplan необходимо соблюдать правила разметки YAML:
- Обязательное наличие минимум двух пробелов перед каждой строкой (кроме network);
- Каждая подсекция дополнительно сдвигается на 2 пробела:
→ Секция |network
→ Подсекция |_'_'bonds:
→ Подсекция описания секции bonds |_'_'_'_'bonded_one:
→ и т.д. |_'_'_'_'...
- Перед знаком ":" нет пробела, после — один пробел;
- Перед знаком "-" количество пробелов такое, как будто начинается новый подраздел, после — один пробел.
Пример настройки файла ecss-netplan.yaml для варианта включения active-backup
# Netplan для хоста ecss1 программного коммутатора
# Обратите внимание на обязательное наличие минимум двух пробелов в каждой строке и секции (кроме строки секции network)
network:
version: 2 # Версия netplan
renderer: networkd # Исполнитель конфигураций netplan
ethernets: # Раздел описания интерфейсов ethernet
enp0s3: # Название интерфейса ВМ к интернет
dhcp4: no # Отключаем на интерфейсах динамическое распределение IP-адреса
dhcp6: no
addresses: [192.168.56.41/24]
enp0s8: # Название интерфейса для SSW
dhcp4: no # Отключаем на интерфейсах динамическое распределение IP-адреса
dhcp6: no
vlans:
net.10: # Интерфейс управления
id: 10
link: enp0s3
addresses: [10.0.10.41/24]
net.20: # Интерфейс для VoIP
id: 20
link: enp0s8
addresses: [10.0.20.41/24]
Следующие настройки bonds обязательны для сервера ECSS, чтобы схема работала верно:
mode: active-backup - задаёт режим работы, когда один из линков выбирается активным, а остальные остаются в резерве;
primary-reselect-policy: failure - указывает, что выбирать новый активный линк следует только тогда, когда текущий активный линк переходит в состоянии аварии. Это позволяет избежать лишних переключений;
gratuitous-arp: 5 - при смене активного линка в сторону коммутатора отправляются пять запросов gratuitous ARP, чтобы обновить на нём таблицу коммутации. Способствует более быстрому переключению;
all-slaves-active: true - заставляет принимать входящие кадры на backup интерфейсах. Таким образом балансировка трафика на MESе не мешает работе. Данные в сторону сервера идут со всех линков, а сервер отправляет данные только с active линка;
mii-monitor-interval: 100 - активирует мониторинг линков через интерфейс MII и указывает интервал опроса в 100мс;
up-delay: 1000 - указывает считать поднявшийся интерфейс доступным для работы не сразу, а сделать задержку в одну секунду после того, как интерфейс поднялся. Необходимо для того, чтобы избежать лишних переключений в случае, когда порт "прыгает" несколько раз из состояния "включено" в состояние "выключено" и обратно.
Так же рекомендуется проверить отсутствие в каталоге /etc/netplan/ еще каких либо файлов, если другие файлы присутствуют , то их нужно переместить в другой каталог или удалить, в противном случае возможна некорректная настройка сетевых интерфейсов и некорректная работа SSW.
Применим установленные параметры командой:
sudo netplan apply
На серверах системы необходимо настроить параметр "hostname".
На всех серверах системы желательно указать одинаковое имя пользователя (любое, кроме ssw). Лицензия ECSS-10 привязывается к ключу eToken/ruToken и к имени компьютера (hostname), поэтому необходимо использовать стандартные значения. Системный пользователь ssw создается при инсталляции пакета ecss-user.
Если используется один сервер, рекомендуемое значение hostname — ecss1;
Другие имена хостов возможны только при согласовании проекта, это потребуется для генерации лицензий.
Указать имя хоста: ecss1 в файле /etc/hostname:
sudo nano /etc/hostname
Указать реальный Ipadd и имя хоста (для примера 10.0.20.41 ecss1) в файле /etc/hosts:
127.0.0.1 localhost # Адрес локальной петли, используется некоторыми сервисами ecss
10.0.20.41 ecss1 # Адрес хоста
"Оптимизация" Операционной Системы
Выставить параметры ОС в режим производительности
Используем утилиту cpufrequtils.
sudo apt install cpufrequtils
по умолчанию после инсталляции Ubuntu использует режим "ondemand" - "по запросу" (производительность CPU по запросу приложений, экономит электроэнергию , но ниже производительность):
cat /etc/init.d/cpufrequtils | grep GOVERNOR=
в выходном сообщении системы , режим работы по умолчанию после инсталляции - "ondemand" :
GOVERNOR="ondemand"
Установить режим - результативность/производительность - в файле /etc/init.d/cpufrequtils значение "ondemand" заменить на "performance"
sudo sed -i 's/GOVERNOR="ondemand"/GOVERNOR="performance"/g' /etc/init.d/cpufrequtils
Перезапустить утилиту:
sudo /etc/init.d/cpufrequtils restart
Затем выполнить команду:
sudo systemctl daemon-reload
Отключить SWAP
Ubuntu сервер SSW работает в реальном масштабе времени , поэтому все необходимые данные должны находится в оперативной памяти, использование файла подкачки (swap-файл - /swap. img) может привести к увеличению времени обработки вызовов приложения SSW ECSS10 , что недопустимо. Swap - отключаем.
Выполнить последовательно три команды:
Отключение Swap:
sudo swapoff -a
Удалить файл swap.img.
sudo rm /swap.img
Закомментировать строку - /swap.img none swap sw 0 0 - в файле /etc/fstab -
привести ее к виду # /swap.img none swap sw 0 0
либо удалить эту строчку (/swap.img none swap sw 0 0)
sudo nano /etc/fstab
# /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> # / was on /dev/sda2 during curtin installation /dev/disk/by-uuid/731728e2-4d6b-499a-afea-9362fd6726b2 / ext4 defaults 0 1
Для проверки выполните команду free -h:
free -h
Размер Swap равен 0 - то есть он выключен
free -h
total used free shared buff/cache available
Mem: 3,9G 110M 3,2G 820K 535M 3,5G
Swap: 0B 0B 0B
Установка часового пояса
При инсталляции Ubuntu-22 не предлагается установить часовой пояс(по умолчанию устанавливается время UTC). Его нужно установить вручную (для корректной работы системы тарификации , работ по расписанию и т.д. ), например:
sudo timedatectl set-timezone Asia/Novosibirsk
Улучшение работы высоконагруженных серверов
Улучшить работу высоконагруженных серверов можно увеличив лимит открытых файлов.
Для установки лимита открытых файлов необходимо:
Проверить текущий лимит командой:
ulimit -a
результат :
eltex@ecss1:~$ ulimit -a core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited scheduling priority (-e) 0 file size (blocks, -f) unlimited pending signals (-i) 15515 max locked memory (kbytes, -l) 65536 max memory size (kbytes, -m) unlimited open files (-n) 1024 pipe size (512 bytes, -p) 8 POSIX message queues (bytes, -q) 819200 real-time priority (-r) 0 stack size (kbytes, -s) 8192 cpu time (seconds, -t) unlimited max user processes (-u) 15515 virtual memory (kbytes, -v) unlimited file locks (-x) unlimited
Данного лимита ( open files 1024 ) недостаточно для нормальной работы высоконагруженных серверов.
Установить лимит открытых файл для каждого пользователя:
sudo sed -i '55i\* soft nproc 65536\n* hard nproc 131072\n* soft nofile 65536\n* hard nofile 131072\nroot - memlock unlimited' /etc/security/limits.conf
# /etc/security/limits.conf##Each line describes a limit for a user in the form:##<domain> <type> <item> <value>##Where:#<domain> can be:# - a user name# - a group name, with @group syntax# - the wildcard *, for default entry# - the wildcard %, can be also used with %group syntax,# for maxlogin limit# - NOTE: group and wildcard limits are not applied to root.# To apply a limit to the root user, <domain> must be# the literal username root.##<type> can have the two values:# - "soft" for enforcing the soft limits# - "hard" for enforcing hard limits##<item> can be one of the following:# - core - limits the core file size (KB)# - data - max data size (KB)# - fsize - maximum filesize (KB)# - memlock - max locked-in-memory address space (KB)# - nofile - max number of open files# - rss - max resident set size (KB)# - stack - max stack size (KB)# - cpu - max CPU time (MIN)# - nproc - max number of processes# - as - address space limit (KB)# - maxlogins - max number of logins for this user# - maxsyslogins - max number of logins on the system# - priority - the priority to run user process with# - locks - max number of file locks the user can hold# - sigpending - max number of pending signals# - msgqueue - max memory used by POSIX message queues (bytes)# - nice - max nice priority allowed to raise to values: [-20, 19]# - rtprio - max realtime priority# - chroot - change root to directory (Debian-specific)##<domain> <type> <item> <value>#
#* soft core 0#root hard core 100000#* hard rss 10000#@student hard nproc 20#@faculty soft nproc 20#@faculty hard nproc 50#ftp hard nproc 0#ftp - chroot /ftp#@student - maxlogins 4* soft nproc 65536* hard nproc 131072* soft nofile 65536* hard nofile 131072root - memlock unlimited
# End of file
ВАЖНО
Установку пакетов требуется делать НЕ из-под пользователя ssw.Обновление программного обеспечения операционной системы
Для установки системы ECSS-10 необходимо добавить репозиторий ELTEX:
sudo sh -c "echo 'deb [arch=amd64] http://archive.eltex.org/ssw/jammy/3.18 stable main extras external' > /etc/apt/sources.list.d/eltex-ecss10-stable.list"
Далее необходимо выполнить импорт ключа командой:
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 33CB2B750F8BB6A5
Перед началом установки необходимо обновить ОС:
sudo apt update
Если вы видите такое сообщение системы:
W: http://archive.eltex.org/ssw/jammy/3.18/dists/unstable/InRelease: Key is stored in legacy trusted.gpg keyring (/etc/apt/trusted.gpg), see the DEPRECATION section in apt-key(8) for details.
Выполните следующую команду:
на обоих хостах
sudo cp /etc/apt/trusted.gpg /etc/apt/trusted.gpg.d
sudo apt upgrade
Установка и настройка программного обеспечения
установка пакетов deb
┌ версия ПО ECSS. Сейчас в заявке на сертификацию она заявлена как 3.
| Мы её менять не будем до следующей сертификации или │ выпуска принципиально новой версии системы. │ │ ┌ версия System Release. Общая версия для всех компонент входящих в конкретный релиз.
| | Меняем её централизовано, когда
│ │ принимаем решение о выпуске нового релиза. Релизы между собой обычно не совместимы.
┌─┴┐ ┌──┴─┐
ECSS.SysRel.SubMaj.SubMin
└──┬─┘ └──┬─┘
│ └ версия Subsystem minor. Минорную версию подсистемы устанавливает разработчик подсистемы. | Минорную версию
│ меняем при добавлении патча. Как правило, минорные версии в рамках одной мажорной версии
│ совместимы между собой и отличаются в рамках конкретных патчей.
│
└ версия Subsystem major. Мажорная версия устанавливается разработчиком подсистемы. Мажорную версию подсистемы необходимо менять при внесении в подсистему существенных изменений.
Утилита установки пакетов APT анализирует версию пакета слева направо, для примера мы имеем пакет 14.14.7.7 ,
в репозитории находятся пакеты
14.14.7.8
14.14.7.9
14.14.8.1
14.14.20 -14.14.28
то при выполнении команды sudo apt install имя пакета → будет автоматически проверен и установлен пакет 14.14.28 , так как он самый последний, анализ будет выполнен по 3-й позиции (major), анализ по 4-й (minor) выполнен не будет (аналогичным образом будет выполнятся команда sudo apt upgrade).
В случае если для конкретной ситуации требуется перейти с версии 14.14.7.7 на версию 14.14.7.9 , стандартная команда → sudo apt upgrade , нам не поможет, так как будет выбран самый новый пакет, в данной ситуации нам необходимо в явном виде указать какую версию пакета мы хотим установить, в данном примере мы должны выбрать команду → sudo apt install имя пакета=14.14.7.9 . Обычно это необходимо для тестирования определенного патча, для стандартных обновлений достаточно выбора привычной команды установки /обновления пакета
Устанавливаем все предложенные пакеты:
sudo apt install ntp ntpdate tcpdump vlan dnsmasq aptitude atop ethtool htop iotop mc minicom mtr-tiny nmap pptpd pv screen ssh tftpd vim sngrep tshark cpanminus gnuplot libgraph-easy-perl debconf-utils
Список обязательного сервисного программного обеспечения:
sudo apt install ntp tcpdump vlan dnsmasq
| ntp | NTP-сервер |
| tcpdump | сниффер пакетов |
| vlan | управление VLAN |
| dnsmasq | легковесный DNS/DHCP-сервер |
Список рекомендуемого диагностического и вспомогательного программного обеспечения:
sudo apt install aptitude atop ethtool htop mc screen ssh tftpd sngrep tshark gnuplot libgraph-easy-perl debconf-utils iotop
| aptitude | установка программ из репозиториев, рекомендуется использовать вместо программы apt/apt-get |
| atop | мониторинг загрузки хоста с функцией периодического сохранения информации в файлы |
| ethtool | просмотр статистики сетевых интерфейсов |
| htop | мониторинг процессов |
| mc | файловый менеджер |
| screen | мультиплексор терминалов |
| ssh | сервер и клиент SSH |
| tftpd | TFTP-сервер |
| sngrep | трассировка sip |
| tshark | консольный аналог wireshark |
| gnuplot | вывод графиков статистики |
| libgraph-easy-perl | Perl-модуль для преобразования или рендеринга графиков (в ASCII, HTML, SVG или через Graphviz) |
| debconf-utils | набор утилит для работы с базой debconf |
| iotop | инструмент для мониторинга использования ввода-вывода (IO) на диске в реальном времени в Linux |
Данное программное обеспечение не требуется для работы системы ECSS-10, однако может упростить сервисное обслуживание системы и её отдельных компонентов со стороны инженеров эксплуатации и техподдержки.
Перед началом установки пакетов ecss , нужно убедится в соответствии полосы пропускания СПД необходимым требованиям.
Для этого выполнить команду sudo ethtool <имя интерфейса> для всех физических интерфейсов.
sudo ethtool net.20Settings for net.20: Supported ports: [ TP ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Supported pause frame use: No Supports auto-negotiation: Yes Supported FEC modes: Not reported Advertised link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Advertised pause frame use: No Advertised auto-negotiation: Yes Advertised FEC modes: Not reported Speed: 1000Mb/s Duplex: Full Auto-negotiation: on Port: Twisted Pair PHYAD: 0 Transceiver: internal MDI-X: off (auto) Link detected: yes
Проверить значение следующих параметров:
Advertised auto-negotiation: Yes
Speed: 1000Mb/s (не менее)
Duplex: Full
Настройка пакета ecss-dns-env
Выполнить следующую команду:
sudo apt install -y ecss-dns-env
Настройщик предложит выбрать разделы для настройки, не выбираем ничего просто нажать Enter.
Установка Postgres
Примечание
Перед установкой ecss-postgres-bdr-ssw в системе, в apt sources, должен быть добавлен docker для этого выполнить следующие команды:
на обоих хостах
sudo install -m 0755 -d /etc/apt/keyrings
на всех хостах
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
на всех хостах
sudo chmod a+r /etc/apt/keyrings/docker.asc
на всех хостах
sudo sh -c "echo 'deb [arch=amd64 signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu jammy stable' >> /etc/apt/sources.list.d/docker.list"
на всех хостах - Выполнить обновление :
sudo apt update && sudo apt upgrade
Установка пакета ecss-postgres-bdr-ssw
ecss1
sudo apt install -y ecss-postgres-bdr-ssw
При конфигурации пакета ecss-postgres-bdr-ssw будут заданы вопросы:
| Вопросы ecss-postgres-bdr-ssw | Ответы для ecss1 | Пример |
|---|---|---|
| Текущий IP-адрес сетевого интерфейса. | Выбрать из списка IP-адрес для работы с Postgres |
|
| Установка в кластере? | No (необходимо выбрать) |
|
======================================================= ======================================================= ecss-postgres-bdr-ssw successfully installed/updated! ======================================================= ======================================================= ┏┓┏┓┏┓┏┳┓┏┓┳┓┏┓┏┓ ┳┓┳┓┳┓ ┏┓┏┓┓ ┏ ┃┃┃┃┗┓ ┃ ┃┓┣┫┣ ┗┓ ┣┫┃┃┣┫ ┗┓┗┓┃┃┃ ┣┛┗┛┗┛ ┻ ┗┛┛┗┗┛┗┛ ┻┛┻┛┛┗ ┗┛┗┛┗┻┛
Установка ecss-node
Установка обязательного пакета ecss-node включает в себя установку и первоначальную настройку основных подсистем.
В системе уже должен быть установлен пакет ecss-postgres-bdr-ssw
Для установки пакета ecss-node выполните команду:
ecss1
sudo apt install -y ecss-node
Во время установки пакета создается пользователь ssw, от имени которого запускаются все сервисы ecss*. Создаются необходимые каталоги, выполняется настройка DNS, идет настройка SSL-сертификатов.
При установки так же будет установлен пакет ecss-user
Установка на сервере ecss1
Во время установки будет предложено настроить параметры, необходимые для формирования конфигурационных файлов, примеры ответов следует ниже.
| Вопросы ecss-user | Ответы для ecss1 | Пример |
|---|---|---|
| Хотите ли вы использовать стандартные настройки? | Yes (значение по умолчанию) |
|
| Вопросы ecss-node | Ответы для ecss1 | Пример |
Идентификатор ECSS-узла в формате DNS (Настройка имени кластера): (любое уникальное имя, в примере abf.test) | abf.test (необходимо ввести) Формат ECSS_ID [A-Za-z0-9][A-Za-z0-9.-][A-Za-z0-9] |
|
| Хотите ли вы использовать стандартные настройки? | No (необходимо выбрать) |
|
| Выберите пункты, которые хотите настроить: | ntp + cookie (необходимо выбрать) |
|
| Внешние NTP серверы через пробел: | ntp.ubuntu.com (значение по умолчанию) |
|
| NTP: Вы хотите использовать настройки для кластера? | No (необходимо выбрать) |
|
| NTP: Вы хотите определить сети вручную, у которых должен быть доступ до ntp? | Yes (значение по умолчанию) |
|
| NTP: Сети у которых должен быть доступ до ntp через пробел: (в примере 10.0.10.0|255.255.255.0 10.0.20.0|255.255.255.0) | 10.0.10.0|255.255.255.0 10.0.20.0|255.255.255.0 (необходимо ввести) |
|
| Cookie для ноды core: (указать уникальный cookie для core , в примере ecss-core-example ) | ecss-core-example (необходимо ввести) |
|
| Cookie для ноды ds: (указать уникальный cookie для ds , в примере ecss-ds-example ) | ecss-ds-example (необходимо ввести) |
|
| Cookie для ноды mediator: (указать уникальный cookie для mediator , в примере ecss-mediator-example ) | ecss-mediator-example (необходимо ввести) |
|
| Cookie для ноды pa-sip: (указать уникальный cookie для pa-sip , в примере ecss-pa-sip-example) | ecss-pa-sip-example (необходимо ввести) |
|
| Cookie для ноды mycelium: (указать уникальный cookie для mycelium , в примере ecss-mycelium-example) | ecss-mycelium-example (необходимо ввести) |
|
| Cookie для ноды sorm: (указать уникальный cookie для sorm , в примере ecss-sorm-example) | ecss-sorm-example (необходимо ввести) |
|
| Вопросы ecss-user | Ответы для ecss1 | Пример |
| Максимальный размер несжатого дампа в байтах. | 8G (значение по умолчанию) |
|
| Максимальный размер сжатого дампа в байтах. | 2G (значение по умолчанию) |
|
| Максимальный размер, который может занять каталог /var/lib/systemd/coredump: | default (значение по умолчанию) |
|
| Минимальный объем свободного дискового пространства в байтах. | 30G (значение по умолчанию) |
|
Сохраните в безопасное место и удалите файл /etc/ecss/ssl/ecss10root.key! | Ok (значение по умолчанию) |
|
Проверить статус сервисов следующей командой:
systemctl is-active ecss-core ecss-pa-sip ecss-ds ecss-mediator ecss-mycelium
В случае статуса "active" продолжаем дальше, в случае статуса "inactive" выполнить команду "sudo systemctl restart ecss-<имя пакета>"
systemctl is-active ecss-core ecss-pa-sip ecss-ds ecss-mediator ecss-mycelium active active active active active
Для просмотра информации о состоянии синхронизации c NTP, используется команда ntpq –p . Если использовать дополнительный ключ –n, вместо имени сервера будет указан IP-адрес:
ntpq -p
remote refid st t when poll reach delay offset jitter
==============================================================================
*185.125.190.56 17.253.28.253 2 u 45 64 1 83.893 +0.470 2.177
Установка лицензии
Система ECSS-10 использует ELM-лицензирование – сервис распределения лицензий ECSS-экосистемы, состоит из ecss-license-agent и ecss-license-master .
- ECSS License Agent - Адаптер для работы с EcssLicenseMaster (LM). Получает список хостов EcssLicenseMaster, реализует логику подключения и переподключения к LM.
- Отвечает за получение, валидацию и дальнейшую отправку лицензий клиенту.
- Отправляет статусы подключения и полученные лицензии клиенту.
- Предоставляет API для отправки HTTP запросов и WS событий на LM.
- Ecss License Master - Сервис оркестрации параметров лицензии для ECSS-узлов.
- Отвечает за:
- Получение лицензии для конкретного ECSS-узла (SSW / AuP) либо устройства (SMG)
- Распределение параметров лицензии между ECSS-узлами и ECSS-сервисами
- Контроль активности ECSS-узлов и их валидация во избежание тиражирования лицензии сверх указанных лимитов
- Контроль изменения указанных лимитов на ECSS-узлах, и их динамическое распределение в соответствии с текущей нагрузкой.
- Отвечает за:
Для установки пакета ecss-license-master необходимо добавить репозиторий следующей командой:
sudo sh -c "echo deb [arch=amd64] https://archive.eltex.org/ssw/jammy/aup/2.0 stable main extras external >> /etc/apt/sources.list.d/lm-stable.list"
Выполнить обновление из добавленного репозитория командой:
sudo apt update
Установить пакет LM (ecss-license-master)
sudo apt install ecss-license-master
При установке пакета ecss-license-master будут заданы вопросы:
| Вопросы | Ответы | Примеры |
|---|---|---|
Адрес для соединения c License Master: | 0.0.0.0 (значение по умолчанию) |
|
| Порт для соединения c License Master: License Master listen port: | 4321 (значение по умолчанию) |
|
| Выберите уровень логирования: Log level: | info (значение по умолчанию), возможные варианты: debug, error, info |
|
| Ключ-имя кластера резервирования: License Master cluster key: | указать уникальное имя
Менеджеры с одинаковыми именами
попытаются собраться в кластер и резервировать друг друга. |
|
Данные сохраняются в файле - /etc/ecss/ecss-license-master/config.env :
ECSS_LM_HOST=0.0.0.0 ECSS_LM_PORT=4321 ECSS_LM_LOG_LEVEL=info RELEASE_COOKIE=ecss-abf-lm-cluster
Конфигурация LM
Сервис ecss-license-master использует два конфигурационных файла: /etc/ecss/ecss-license-master/config.env и /etc/ecss/ecss-license-master/config.yaml.
В файл config.env информация сохраняется в момент установки пакета ecss-license-master.
Сonfig.yaml файл содержит основные настройки для подключения к ELM серверу, откуда брать лицензии, какие лицензии, и куда их потом передавать, все это нужно сконфигурировать вручную.
Выполнить команду:
sudo nano /etc/ecss/ecss-license-master/config.yaml
информация в файле после установки
elm_addresses: []
licenses: []
ecss_nodes: []
В поле elm_adresses нужно прописать список серверов ELM к которым мы хотим подключаться для получения лицензий. Первый адрес в списке используется как основной. Дополнительные строки с адресами работают как резерв.
Данные ELM сервера(ов) получить у менеджера проекта.
пример:
- "elm-1.eltex.loc:8099"
- "192.168.111.22:8099"
- "elm-3.eltex.loc:8099"
Дальше задаются сами лицензии в поле licenses.
- id – может быть любой, главное чтоб был уникальный у каждой лицензии. Влияет только на адрес лицензии на самом LM (например 0,1,2,3).
- kind – для SSW поддерживается только ssw.
- type – выбирается как elm если запрашивать данную лицензию нужно с ELM сервера. Если нужно использовать файловую лицензию SSW, то тип выбирается как ecss_license.
- при elm типе, необходимо задать поля license_key и product_id для идентификации лицензии.
- при ecss_license типе, задается поле license содержащее ключ статичной лицензии
Параметры license_key и product_id должны быть согласованы с данными загруженными на ELM сервере .
Значение параметров license_key, product_id или license, passport нужно получить у менеджера проекта.
Блок ecss_nodes.
В нем нужно задать данные сервисов которые будут получать лицензию. В нашем случае SSW. Сервис задается тремя параметрами:
- id – идентификатор сервиса, должен совпадать с ECSS_ID лицензируемого SSW.
- kind – тип лицензируемого сервиса. по аналогии с блоком лицензий, для SSW поддерживается только ssw.
- license_id – идентификатор лицензии которая будет отправляться на данный сервис. Соответствует идентификаторам лицензии из блока licenses
Кроме того, два SSW с одинаковыми ECSS_ID не смогут одновременно получать одну и ту же лицензию с одного LM,
поэтому крайне важно корректно устанавливать свой ECSS_ID и делать его уникальным как минимум в зоне видимости используемого LM.
Формат ECSS_ID
Начинается и заканчивается обязательно латинской буквой или цифрой, в теле же могут использоваться точки и тире.
[A-Za-z0-9][A-Za-z0-9.-][A-Za-z0-9]
Для SSW работающего в кластере указываем только одну запись в блок ecss_nodes на кластер, индивидуально для каждого хоста указывать нельзя. Иначе будут генерироваться два запроса с одинаковым ECSS_ID что недопустимо.
Пример: файла config.yaml
elm_addresses:
- "elm-1.eltex.loc:8099"
- "192.168.111.22:8099"
- "elm-3.eltex.loc:8099"
licenses:
- id: 0
kind: SSW
type: elm
license_key: "ssw1test"
product_id: "ECSS1000001"
- id: 1
kind: ssw
type: ecss_license
license: "af615ebb92d381125ff"
ecss_nodes:
- id: abf.test
kind: ssw
license_id: 0
Выполнить перезагрузку сервиса ecss-license-master.service для обновления конфигурации из файла /etc/ecss/ecss-license-master/config.yaml следующей командой:
если кластер, то на обоих хостах
sudo systemctl restart ecss-license-master.service
В случае если LM уже установлен и используется в локальной сети требуется добавить параметры нового SSW в конфигурационный файл /etc/ecss/ecss-license-master/config.yaml в блоках licenses и ecss_nodes.
Выполнить команду:
если кластер, то на обоих хостах
sudo nano /etc/ecss/ecss-license-master/config.yaml
для примера:
Было:
elm_addresses:
- "elm-1.eltex.loc:8099"
- "192.168.111.22:8099"
- "elm-3.eltex.loc:8099"
licenses:
- id: 0
kind: SSW
type: elm
license_key: "ssw1test"
product_id: "ECSS1000001"
- id: 1
kind: ssw
type: ecss_license
license: "af615ebb92d381125ff"
- id: 2
kind: SSW
type: elm
license_key: "ssw2test"
product_id: "ECSS1000002"
ecss_nodes:
- id: 1.test
kind: ssw
license_id: 0
- id: 2.test
kind: ssw
license_id: 1
- id: 3.test
kind: ssw
license_id: 2
Стало:
elm_addresses:
- "elm-1.eltex.loc:8099"
- "192.168.111.22:8099"
- "elm-3.eltex.loc:8099"
licenses:
- id: 0
kind: SSW
type: elm
license_key: "ssw1test"
product_id: "ECSS1000001"
- id: 1
kind: ssw
type: ecss_license
license: "af615ebb92d381125ff"
- id: 2
kind: SSW
type: elm
license_key: "ssw2test"
product_id: "ECSS1000002"
- id: 3
kind: SSW
type: elm
license_key: "ssw3test"
product_id: "ECSS1000003"
ecss_nodes:
- id: 1.test
kind: ssw
license_id: 0
- id: 2.test
kind: ssw
license_id: 1
- id: 3.test
kind: ssw
license_id: 2
- id: abf.test
kind: ssw
license_id: 3
Выполнить перезагрузку сервиса ecss-license-master.service для обновления конфигурации из файла /etc/ecss/ecss-license-master/config.yaml следующей командой:
sudo systemctl restart ecss-license-master.service
Подключение SSW к Менеджера Лицензий
Выполнить конфигурацию подключения SSW к LM следующей командой в CoCon, (в примере LM , IPadd 10.0.10.51. значение порта из файла /etc/ecss/ecss-license-master/config.env по умолчанию 4321):
выполняется в CoCon
/system/licence/manager/set --hosts [https://10.0.10.51:4321]
В случае установки LM на SSW указывать IP адреса OAM
После выполнения проверить статус подключения командой:
выполняется в CoCon
/system/licence/manager/show-status
┌───────────────────────┬───────┬─────┐
│ Host │Current│Alive│
├───────────────────────┼───────┼─────┤
│https://10.0.10.51:4321│* │true │
└───────────────────────┴───────┴─────┘
Должны иметь статус alive=true, и быть "current".
- Current - отображает к какому хосту подключён SSW. Если есть подключение, указывается *, если нет - ничего не указано.
- Alive - отображает статус доступности хоста (healthcheck).
Подключение к License Manager
Отсутствие подключения к License Manager \ ELM будет равноценно отсутствию доступа к токену, что приведёт к критическим авариям, переходу в аварийный режим по истечению которого, если связь не будет восстановлена, система перейдёт на дефолтную лицензию.
данное поведение применимо только при работе в elm режиме
Если статус к LM показан current, можно посылать запрос на загрузку лицензии на SSW командой:
выполняется в CoCon
/cluster/storage/ds1/licence/request
type=elm
/cluster/storage/ds1/licence/request
Licence received
[******* ] 6s 2ms
Success: Licence parameters applied
В режиме "type=ecss_license" команда /cluster/storage/ds1/licence/request выполнится только в случае если был предварительно загружен паспорт.
type=ecss_license
/cluster/storage/ds1/licence/request
Waiting for licence...
[******* ] 6s
┌─┬─────────────────────────────────────────────────────┬─────────┬────────────────────────────────────────┐
│A│ Description │Old Value│ New Value │
├─┼─────────────────────────────────────────────────────┼─────────┼────────────────────────────────────────┤
│^│Support for reservation of call-processes │false │true │
│^│Maximum call duration (in seconds) │60 │2678400 │
│^│Maximum number of simultaneous calls │5 │10000 │
│^│Elph │ │ │
│^│ total count of members of the one Elph group │10 │100 │
│^│Subscribers limit │10 │500000 │
│^│Virtual subscribers limit │infinity │1000 │
│^│Add-on conferences │ │ │
│^│ total count │30 │1000 │
│^│Add-on conferences │ │ │
│^│ members of the one add-on conference │16 │300 │
│^│Chat rooms │ │ │
│^│ total count │30 │100 │
│^│Chat rooms │ │ │
│^│ members of the one chatroom │16 │300 │
│^│Meet Me │ │ │
│^│ total count │0 │100 │
│^│Meet Me │ │ │
│^│ members of the one Meet Me conference │0 │300 │
│^│SORM │ │ │
│^│ enabled │false │true │
│+│ channels on SORM mediator │ │64 │
│^│Sorm extractor │none │mfi │
│^│Support antifraud system │none │custom │
│+│Call center │ │ │
│+│ operator's capability for look at calls in queue │ │true │
│+│ operator's capability for use Intervension SS │ │true │
│^│Call center │ │ │
│^│ active agents │0 │1000 │
│^│Call center │ │ │
│^│ active supervisors │0 │100 │
│^│Teleconference │ │ │
│^│ channels │3 │2000 │
│^│Teleconference │ │ │
│^│ max members of one teleconference │0 │200 │
│^│Teleconference │ │ │
│^│ active count │0 │32 │
│^│TSMN system │ │ │
│^│ concurrent calls (active) │0 │50 │
│^│TSMN system │ │ │
│^│ concurrent calls (backup) │0 │50 │
│^│TSMN system │ │ │
│^│ backup mode │none │"backup" │
│^│Total count of simultaneous records voice calls │0 │200 │
│+│IVR │ │ │
│+│ customization enabled │ │true │
│+│ Automatic Speech Recognition (ASR) subsystem enabled│ │true │
│^│Channels on dialer outgoing calls │2 │5 │
│+│Supplementary Services licence package(s) │ │ │
│+│ name │ │'ECSS-ADV' │
│+│ limit │ │10000 │
│+│ description │ │"Additional services of 4 and 5 levels" │
│+│ SS list │ │[1,2,3,4,5] │
│+│ name │ │'ECSS-BAS' │
│+│ limit │ │10000 │
│+│ description │ │"Basic services of 1 and 2 levels" │
│+│ SS list │ │[1,2] │
│+│ name │ │'ECSS-BAS+' │
│+│ limit │ │10000 │
│+│ description │ │"Expansion of basic services of 3 level"│
│+│ SS list │ │[1,2,3] │
│^│GEO backup │ │ │
│^│ enabled │false │true │
│^│SIGTRAN │ │ │
│^│ SEP │false │true │
│^│ STP │false │true │
└─┴─────────────────────────────────────────────────────┴─────────┴────────────────────────────────────────┘
Legend:
'^' - Changed;
'-' - Deleted;
'+' - New.
[request] You are trying to add a license that is different from the current one by the pa
rameters in the table (other values will remain unchanged).
Licence received o ?> yes
[******* ] 1m 15s
Success: Licence parameters applied
В зависимости от выбранного типа лицензии для SSW : "type=elm" или "type=ecss_license" на команду просмотра лицензий получим разный вывод:
/cluster/storage/ds1/licence/list-licence ┌──┬───────────────────┬────────────┬──────┬────────────────┬────────────────────┬────────────────────┬─────────┐ │Id│Creation date(UTC) │ SSW ID │Active│ Description │Comm. Exp. Date(UTC)│Expiration date(UTC)│Time left│ ├──┼───────────────────┼────────────┼──────┼────────────────┼────────────────────┼────────────────────┼─────────┤ │1 │12.03.2026 18:40:00│ECSS 010070 │* │ECSS TPM License│13.03.2027 06:59:59 │14.03.2026 10:44:05 │1d 6h 59m│ │0 │01.01.1990 00:00:00│ECSS DEFAULT│ │Default licence │ │ │ │ └──┴───────────────────┴────────────┴──────┴────────────────┴────────────────────┴────────────────────┴─────────┘
TPM - является полным аналогом лицензирования которое использовалось раньше, с токеном и паспортом, без подключения к LM.
или
/cluster/storage/ds1/licence/list-licence ┌──┬───────────────────┬────────────┬──────┬────────────────┬────────────────────┬────────────────────┬─────────┐ │Id│Creation date(UTC) │ SSW ID │Active│ Description │Comm. Exp. Date(UTC)│Expiration date(UTC)│Time left│ ├──┼───────────────────┼────────────┼──────┼────────────────┼────────────────────┼────────────────────┼─────────┤ │1 │03.02.2026 16:26:34│ECSS2000009 │* │ECSS ELM License│03.02.2027 16:26:34 │14.03.2026 10:49:12 │1d 6h 59m│ │0 │01.01.1990 00:00:00│ECSS DEFAULT│ │Default licence │ │ │ │ └──┴───────────────────┴────────────┴──────┴────────────────┴────────────────────┴────────────────────┴─────────┘
Установка пакетов ecss-restf, ecss-media-server, ecss-web-conf
Выполнить конфигурацию для Sip адаптера , выполнив следующую команду:
sudo systemctl edit ecss-pa-sip.service
Добавить в конфигурационный файл следующие данные:
[Service] LimitNOFILE=65536
Вставить эти две строчки необходимо в определенное место, (начиная с Ubuntu 22.04.2 есть несколько важных моментов. Файл, который открывается, полностью закомментирован, но первые несколько строк выглядят так (см рисунок ниже). Любые вносимые вами правки должны быть между этими двумя блоками комментариев.)

Перезагрузите конфигурацию
sudo systemctl daemon-reload
Актуализировать конфигурационный файл, выполнив перезагрузку сервера:
sudo systemctl restart ecss-mycelium ecss-ds ecss-core ecss-pa-sip ecss-mediator
Далее устанавливаются пакеты ecss-restf затем ecss-media-server, ecss-media-resources, , ecss-web-conf и другие в любом порядке:
ecss-restfs
sudo apt install -y ecss-restfs
Установка ecss-restfs.
При его установке будет предложено настроить конфигурацию при помощи вопросов: , также инсталлятор предложит установить и настроить пакет Text2speech от Yandex.
| Вопросы ecss-restfs | Ответы | Пример |
|---|---|---|
| Хотите ли вы использование функции Text To Speeh (Use TTS service) | No (значение по умолчанию) |
|
| Хотите настроить сервис телефонной книги (Configure phone book) | Yes (нужно указать) |
|
| Хотите настроить сервер carddav? | No (значение по умолчанию) |
|
| Хотите настроить сервис телефонной книги (LDAP)? | No (значение по умолчанию) |
|
| Хотите настроить сервис телефонной книги (SSW)? | No (значение по умолчанию) |
|
| Хотите настроить сервис распознавания речи (Configure speech recognition service) | No (значение по умолчанию) |
|
| Хотите настроить сервис телефонной книги (POSTGRES)? | Yes (значение по умолчанию) |
|
| POSTGRES: Сервер postgres: | localhost (значение по умолчанию) |
|
| POSTGRES: Порт подключения: | 5439 (значение по умолчанию) |
|
| POSTGRES: Логин: | postgres (значение по умолчанию) |
|
| POSTGRES: Пароль: | postgres1 (значение по умолчанию) |
|
| POSTGRES: База данных: | ecss_storekeeper_db (значение по умолчанию) |
|
| Введите домен для поиска: | test.domain (значение по умолчанию) |
|
| POSTGRES: Количество запрашиваемых контактов: | 10000 (значение по умолчанию) |
|
| Хотите включить транслит для телефонной книги (LDAP)? | No (значение по умолчанию) |
|
| Выберите пункты, которые хотите настроить: | proxy-filter (необходимо выбрать) |
|
| Включить белый список для api/proxy? |
|
белый список адресов прописать в файл /etc/ecss/ecss-restfs/api-proxy.conf
# -------------------------------------------------------------------
# Формат файла фильтра API (api/proxy):
# - IP: 192.168.0.1
# - Домен: example.com
# - Wildcard: *.wildcard.com
# - Комментарии: строки, начинающиеся с #
# Пример:
# 192.168.0.1
# example.com
# # комментарий
# *.wildcard.com
# -------------------------------------------------------------------
ВАЖНО!
В случае успешного проксирование (200) кеш хранится 28 дней, поэтому для применения конфигурации фильтра, в случае изменения, - кеш (/var/cache/ecss/restfs-api) стоит удалить и перезапустить сервис ecss-restfs.
после установки пакета ecss-restfs проверьте наличие wav файлов автоинформатора в директории /var/lib/ecss/restfs/system/sounds/ командой :
ll /var/lib/ecss/restfs/system/sounds/
наличие порядка 140 wav файлов в указной выше директории говорит о корректности установки пакета ecss-restfs
Отсутствия wav файлов в указной выше директории, говорит о проблеме при установки пакета ecss-restfs. Для ее решения выполните команду:
sudo apt --fix-broken install
и повторите команду проверки:
ll /var/lib/ecss/restfs/system/sounds/
осталось проверить доступность этих файлов извне, для этой проверки выполним команду:
wget http://ecss1:9990/system/sounds/ai_you.wav
wget http://ecss1:9990/system/sounds/ai_you.wav
--2023-12-18 17:43:29-- http://ecss1:9990/system/sounds/ai_you.wav
Resolving ecss1 (ecss1)... 127.0.1.1, 10.0.10.11
Connecting to ecss1 (ecss1)|127.0.1.1|:9990... connected.
HTTP request sent, awaiting response... 200 OK
Length: 11670 (11K) [audio/x-wav]
Saving to: ‘ai_you.wav’
ai_you.wav 100%[========================================================================================>] 11,40K --.-KB/s in 0s
2023-12-18 17:43:29 (301 MB/s) - ‘ai_you.wav’ saved [11670/11670]
проверочный файл можно удалить
rm ai_you.wav
ecss-media-server
sudo apt install -y ecss-media-server
Для медиасервера (ecss-media-server/MSR) возможно начальное конфигурирование с записью параметров в файл конфигурации,
для этого нужно провести конфигурацию transport bind-addr,mcc bind-addres:
| Вопросы ecss-media-server | Ответы для ecss1 |
|---|---|
| [ MSR SIP ] Введите bind-ip адрес (Enter) | 10.0.20.41 (необходимо ввести) |
| [MSR Control-Channel] Введите bind-ip-адрес | 10.0.20.41 (необходимо ввести) |
После формирования конфигураций по умолчанию производим проверку:
cat /etc/ecss/ecss-media-server/config.xml
Внутри лежит конфигурация для msr: config.xml, в директории conf.d лежит конфигурация default.xml.
По своей сути default.xml — это дополнение config.xml, которое определяет секцию аккаунтов. Это сделано для того, чтобы после обновлений пакета данная конфигурация оставалась неизменной. Вид config.xml представлен здесь: файл конфигурации.
<?xml version="1.0" encoding="utf-8"?>
<config date="09:24:23 03.12.2025">
<general log-level="3" log-rotate="yes" max-calls="2148" max-vid-calls="100" max-in-group="512" load-sensor="media" load-delta="10" calls-delta="100" spool-dir-size="100M" log-name="msr.log" log-path="/var/log/ecss/media-server" use-srtp="disabled" enable-ice-transport="no" ice-update="no" aggressive-ice="yes" stun-server="" suspicious-mode="no"/>
<transport bind-addr="10.0.20.41" port="5040" transport="udp+tcp"/>
<!-- By default configured public TURN-server -->
<turn-server use-turn="no" host="numb.viagenie.ca" user="webrtc@live.com" password="muazkh"/>
<media mixer-clock-rate="8000" use-vad="no" cng-level="0" jb-size="60" rtcp-timeout="0" rtp-timeout="350" udp-src-check="no" cn-multiplier="3" port-start="12000" port-range="4496" tias-in-sdp="no" thread-cnt="2" vid-enc-threads="2" vid-dec-threads="2" video-conf-layout="evenly" keyframe-interval="1000" vid-decode-delay="100" silent-codec-switch="yes" silence-threshold="-30" dtmf-flash-disable="no" video-dscp="0" other-dscp="0" dummy-video-src="/usr/share/ecss-media-server/video/dummy_video.yuv" video-enc-width="640" video-enc-height="360" finalsilence="1000" rtcp-stat-dump="yes" dtmf-tg-fpc-loop="10" dtmf-tg-fit="1" dtmf-tg-fot="2" dtmf-tg-volume="12288"/>
<codec pcma="1" pcmu="2" ilbc="0" gsm="0" g722="3" g726="0" g729="0" speex="0" l16="0" g7221="0" opus="0" h264="1" h263-1998="2" t38="1" tel-event-pt="0"/>
<accounts>
<!-- <dynamic msr_name="msr.name"
realm="sip:127.0.0.1:5000"
dtmf_mode="rfc+inband+info"
auth_name="user"
auth_password="password" /> -->
</accounts>
<pbyte>
<mcc bind-addr="10.0.20.41" port="5700"/>
</pbyte>
<conf_dir path="/etc/ecss/ecss-media-server/conf.d"/>
<metrics enable="yes" use-pushgateway="yes" pushgateway-addr="127.0.0.1:9091" push-interval="5" port="8100" msr_name="msr2"/>
<rtp>
<auto addr-v4=""/>
</rtp>
</config>
по умолчанию , после инсталляции ECSS-10 активизирует только кодеки - pcma, pcmu, g722, h264, h263-1998, t38. Остальные имеют статус =0 = выкл. Если хотите активизировать остальные кодеки, в редакторе nano измените приоритет с 0 на цифру приоритета (уровень приоритета не должен повторятся для сервиса audio/video/fax)
sudo nano /etc/ecss/ecss-media-server/config.xml
строчку -
<codec pcma="1" pcmu="2" ilbc="0" gsm="0" g722="3" g726="0" g729="0" speex="0" l16="0" g7221="0" opus="0" h264="1" h263-1998="2" t38="1" tel-event-pt="0"/>
привести к виду -
<codec pcma="1" pcmu="2" ilbc="6" gsm="4" g722="3" g726="11" g729="5" speex="7" l16="8" g7221="9" opus="10" h264="1" h263-1998="2" t38="1" tel-event-pt="0"/>
Недопустимо указывать у разных кодеков одинаковый приоритет, для примера g722="5" g729="5". В этом случае они будут работать не корректно/игнорироваться.
За исключением "0" - выключено.
Рассмотрим секцию аккаунтов (файл default.xml):
cat /etc/ecss/ecss-media-server/conf.d/default.xml
Проверить на корректность данных.
Настройка msr для ecss1(/etc/ecss/ecss-media-server/conf.d/default.xml)
<?xml version="1.0"?>
<config>
<accounts>
<dynamic msr_name="msr.ecss1" realm="sip:10.0.20.41:5000" dtmf_mode="rfc+inband+info" auth_name="user" auth_password="password">
<via dynamic-ifaces="no">
<iface name="net.20" ip="10.0.20.41"/>
</via>
</dynamic>
</accounts>
</config>
В ней указаны текущие настройки, согласно которым происходит регистрация msr на core.
Основными параметрами здесь являются: msr_name и realm:
- msr_name — параметр, определяющий название msr. (рекомендуется задавать название msr. и к какому хосту он принадлежит, например msr.ecss1);
- realm — определяет адрес для регистрации на ядре. Точка входа по умолчанию: порт 5000, адрес: 127.0.0.1.
После изменения конфигурации файлов /etc/ecss/ecss-media-server/config.xml и /etc/ecss/ecss-media-server/conf.d/default.xml необходимо выполнить перезапуск сервиса ecss-media-server, чтобы изменения вступили в силу, следующей командой:
sudo systemctl restart ecss-media-server
ecss-web-conf
sudo apt install ecss-web-conf
Web-конфигуратор позволяет сделать управление системой более наглядным и комфортным. Установка web-конфигуратора не является обязательной, но рекомендуется.
Также при установке пакета ecss-web-conf автоматически устанавливается пакет ecss-subsriber-portal-ui. Приложение "Портал абонента" системы ECSS-10 позволяет абонентам системы самостоятельно управлять услугами, просматривать информацию по совершенным вызовам, активным конференциям, а также настраивать собственные IVR-скрипты для входящих вызовов. Описание работы веб-конфигуратора приведено в разделе "Портал абонента".
| Вопросы ecss-web-conf | Ответы для усыы1 | Пример |
|---|---|---|
| Хотите ли вы использовать стандартные настройки? | Yes (значение по умолчанию) |
|
Проверьте возможность подключение к web интерфейсу http://10.0.20.41, пользователь/пароль - admin/password, в настоящий момент не все функции будут доступны, но web интерфейс должен быть рабочий и логин успешный.
Настройка snpmd
Настройка SNMP описана здесь.
Настройка безопасности. SSH
Выполните настройку сервера SSH:
sudo nano /etc/ssh/sshd_config |
Укажите в конфигурационном файле порт и адрес, по которому можно обратиться к серверу:
| Настройка ssh для ecss1(/etc/ssh/sshd_config) |
|---|
# This is the sshd server system-wide configuration file. See # This sshd was compiled with PATH=/usr/bin:/bin:/usr/sbin:/sbin # The strategy used for options in the default sshd_config shipped with Port 2000 <...> |
Перезапустите ssh:
sudo systemctl restart ssh.service
Добавление услуг
Установка всех услуг указных в лицензии:
выполняется в CoCon
/cluster/storage/ds1/ss/install ds1@ecss1 ss_*
Результат:
/cluster/storage/ds1/ss/install ds1@ecss1 ss_* Successfully installed: /var/lib/ecss/ss/ss_dnd.xml Successfully installed: /var/lib/ecss/ss/ss_clir.xml ... Successfully installed: /var/lib/ecss/ss/ss_chunt.xml
Первоначальная конфигурация системы с помощью web-конфигуратора
Исходные данные
- Установка системы завершена;
- Система готова к дальнейшей настройке;
- Интерфейсы запущены.
Рекомендуется использовать последние доступные версии браузеров. Рекомендуемые к использованию браузеры: Яндекс, Chrome.
Для начала конфигурации системы необходимо зайти в web-конфигуратор по адресу http://<Ipadd SSW>.
Для определения и регистрации в системе планируются:
- Абоненты с номерами 42001, 42002 , 42003, 42004 ,42005, 42006, 42007, 42008, 42009, 42010;
- Транк в сторону шлюза.
Подготовка к работе

Рисунок 3 — Вход в web-конфигуратор (окно авторизации)
В окне авторизации необходимо ввести значения, определенные при установке web-конфигуратора.
Стандартные значения для авторизации:
Логин: admin
Пароль: password
После входа в систему будет видна основная рабочая область с иконками приложений, а также строка состояния с доступными опциями, в частности:
- 1 — выход из системы;
- 2 — выбор домена;
- 3 — выбор языка.

Рисунок 4 — Вид рабочей области web-конфигуратора
Создание учетной записи оператора
После авторизации для повышения безопасности при эксплуатации программного коммутатора рекомендуется создание учетных записей для операторов, а также сменить пароль для пользователя admin.
Для создания новой учетной записи оператора используется приложение "Управление пользователями" ("User manager"):

Рисунок 5 — Вид приложения "Управление пользователями"
Нажмите кнопку "Добавить"
. В открывшемся окне требуется определить новую учетную запись, для этого:
- В поле "Имя" введите логин учетной записи, например "test";
- В поле "Пароль" и "Подтверждение" введите пароль для пользователя, например "testpassword";
- Определите уровень прав доступа для пользователя через выбор текущих разрешений или с помощью ролей, например ecss-user. Описание можно посмотреть в разделе "Управление пользователями".

Рисунок 6 — Диалоговое окно создания учетной записи оператора

Рисунок 7 — Вид приложения с созданной учетной записью оператора
Для смены пароля рядом с названием пользователя нажмите на кнопку редактировать. В появившемся диалоговом окне введите:
1. Старый пароль (для пользователя "admin" по умолчанию паролем является "password");
2. Новый пароль;
3. Подтвердите новый пароль.

Рисунок 8 — Диалоговое окно редактирования учетной записи
Добавление медиа-ресурсов.
Для того чтобы начать работу с медиа-сервером сразу после его регистрации, необходимо активировать сетевые интерфейсы MSR. Приложение web-конфигуратора "Сетевые окончания MSR" ("MSR registrars") служит для настройки медиа-ресурсов.


Рисунок 9 — Сетевые окончания MSR
Установить ipадрес для приема соединений от медиасервера, изменив значение 0.0.0.0 на реальные адреса MSR:



Рисунок 10 — Установка IP-add регистратора MSR
Создание IP-set (sip-транспорта) и присвоение его к домену
IP-set — совокупность одного или нескольких IP-адресов из одной подсети и списка слушающих UDP/TCP-портов, которые будут открыты SIP-адаптером на данных адресах.
Для настройки интерфейса необходимо открыть приложение "Кластеры ("Clusters").

Рисунок 11 — Вид приложения "Кластеры"
Для создания новой группы IP-адресов (IP-set) выделите кластер SIP-адаптера "sip1" и нажмите на кнопку "Свойства кластера" (или нажмите на иконку кластера двойным щелчком левой кнопки мыши).
В появившемся диалоговом окне перейдите на вкладку "Транспорт". Далее нажмите кнопку "Добавить". Появится новая группа, для редактирования полей двойным щелчком кнопки мыши нажмите на нужное:
1. Переименуйте группу адресов (IP-set), например "test_set";
2. Задайте порт, по которому будет происходить обращение к домену, например 5060;
3. Разверните вновь созданную группу нажатием на треугольник слева от названия группы;
4. Определите адрес для ноды SIP-адаптера, согласно примеру конфигурации. Для примера 10.0.20.41:

Рисунок 12 — Вид приложения "Кластеры/Транспорт"
Нажмите кнопку "Сохранить" для применения настроек.
Создание домена
Домен - Виртуальная PBX внутри нашего SSW. Таких виртуальных PBX может быть создано необходимое для проекта кол-во.
Для создания домена необходимо войти в приложение "Домены" ("Domain"). В открывшемся окне требуется создать домен, для этого:
1. Нажмите кнопку "Добавить домен":

Рисунок 13 — Добавление домена в систему
2. В появившемся диалоговом окне доступны следующие настройки:
- Имя (Name) — индивидуальное имя виртуальной АТС;
- Профиль услуг (SS profile) — системный профиль дополнительных услуг. Этот профиль будет скопирован с тем же именем во вновь создаваемый домен и для всех услуг из этого профиля будет автоматически разрешён доступ через access-list;
- IVR профиль (IVR profile) — профиль IVR, заданный в приложении "Редактор IVR ограничений".
Введите название домена, например "test_domain";
3. Нажмите кнопку "Ок":

Рисунок 14 — Определение настроек нового домена
4. Нажмите кнопку "Обновить"
в приложении.
Созданный домен будет отображаться в текущей конфигурации:

Рисунок 15 — Отображение созданного домена
Для редактирования текущего домена его необходимо выбрать в системе. Для перехода в домен воспользуйтесь опцией выбора домена (см. пункт 2 на рисунке "Вид рабочей области web-конфигуратора").
После выбора домена, согласно текущей конфигурации системы, станут доступны все приложения:

Рисунок 16 — Отображение приложений в текущей конфигурации системы
Для того чтобы привязать группу адресов к домену, необходимо вернуться в приложение "Домены" ("Domain"), выделить домен и перейти в настройки нажатием на кнопку "Свойства домена" или двойным нажатием левой кнопки мыши на домен.
В настройках списка откройте ветку "SIP", в ней "SIP транспорт", далее выберите в поле IP set созданную группу адресов. Нажмите кнопку "Сохранить" для применения настроек.

Рисунок 17 — Окно настройки для SIP транспорта
Выбрать требуемые услуги для созданного домена, которые будут использоваться (для примера для абонентского домена транковые услуги не востребованы , и наоборот для транзитного домена не нужно указывать услуги для абонента).

Рисунок 18 — После создания нового домена, услуги отсутствуют.
- Выбрать приложение "Управление услугами"
- Выбрать колонку "Установленные услуги" (услуги указанные в лицензии для SSW)
- Выбрать необходимые для указанного домена услуги
- Сохранить конфигурацию

Рисунок 19 — Выбор услуг для абонентов / транков нового домена.

Рисунок 20 — Список услуг теперь доступных для абонентов нового домена.
Создание абонентов
Для создания и редактирования параметров абонентов в системе используется приложение "Карточка абонента" ("Subscriber card").

Рисунок 21 — Вид приложения "Карточка абонента"
В конфигурации возможно создание SIP-абонентов и виртуальных абонентов.
Для пользователей, имеющих физическое окончание, используется функционал SIP-абонента, в то время как виртуальный абонент используется тогда, когда нужна функциональность без физических окончаний. Например, номер для обращения к ivr-скрипту.
Для создания новых абонентов нужно нажать на кнопку "Добавить".
В появившемся диалоговом окне укажите следующие параметры:
- Имя интерфейса — номер или группа номеров, который присваивается абоненту, строка, например {42001-42010} или abcd;
- Контекст — контекст маршрутизации, выбираем тот, который создали, например "test_name", или по умолчанию - "default_routing";
- Группа интерфейсов — имя группы объединяющей нескольких абонентов, для примера "sip";
- Алиас как пользователь — настройка, которая связывает номер сущности, алиас и пользователя одним и тем же названием, в примере настройка активирована;
- Авторизация — порядок проверки подлинности прав пользователя на доступ к данным, в примере используется"register";
- Логин — использую настройку номер как логин для простоты;
- Пароль — можно задать или использовать сгенерированный системой.

Рисунок 22 — Пример создания 10 абонентов в домене "test_domain"


Рисунок 23 — Пример добавления услуг для абонента
Создание и применение контекстов маршрутизации для домена
Маршрутизация отвечает за поиск номера и последующую адресацию вызова. Для корректной работы системы должен быть настроен как минимум один контекст маршрутизации.
Настройка маршрутизации осуществляется в приложении "Менеджер маршрутизации" ("Routing manager") .

Рисунок 24 — Вид приложения "Менеджер маршрутизации"
В качестве примера создадим контекст, а затем несколько правил в нём, для этого:
1. В левой части окна в разделе "Контекст" нажмите на кнопку "Создать контекст"
;
2. В открывшемся диалоговом окне обозначьте имя контекста:
Рисунок 25 — Вид приложения "Менеджер маршрутизации" добавление нового контекста маршрутизации
3. Нажмите "Сохранить контекст"
;
Создадим 4 правила в данном контексте:
- rule1 — правило для выхода на транк TAU-72;
- rule2 — правило локальной маршрутизации для номеров 42001-42005;
- rule3 — правило для выхода в ivr;
- rule4 — правило-исключение.
Для создания нового правила нужно выделить созданный контекст и нажать кнопку "Создать правило". В появившемся окне нужно ввести название правила. Затем сохранить вновь созданные правила.

Рисунок 26 — Создание правила контекста маршрутизации

Рисунок 27 — Определение правил
На данный момент не определен транк, чтобы можно было сослаться на него в правиле, однако можно задать номера, по которым будет производится выборка.
Нажав на правило rule1, перейдем в нижнюю часть экрана, в которой располагаются области для редактирования контекста маршрутизации. Условно определим, что выборка для выхода на транк будет проводиться по признакам номера вызываемого абонента (CDPN), а номера в транке должны начинаться с цифры 4.
Функционально контекст маршрутизации делится на три части:
- Условия ("Condition") — раздел, определяющий выражения для выборки по предложенным признакам;
- Действия ("Action") — раздел, выполняющий преобразование признаков номеров к конкретному значению;
- Результат ("Result") — раздел, завершающий маршрутизацию и определяющий её результат.
rule1: Для выхода на транк нужно правильно отредактировать каждую часть:
- В разделе условий перейти на вкладку CDPN. Ввести номера телефонов, которые находятся за транком в поле "Номер". Например, чтобы определить номера с 42006 по 42007, нужно ввести условие: 420(6-7);
- В разделе действий перейти на вкладку CDPN. Ввести маску для изменения номера в поле "Номер". Например, чтобы добавить число 4 перед номером, нужно заполнить поле следующим выражением: 4{1,2,3,4,5};
- Нажать кнопки "Сохранить правило" и "Сохранить контекст" для применения изменений.
Чтобы настроить поле результата, нужно определить транк в системе, поэтому к настройке данного правила вернемся чуть позже.
Таким же образом нужно настроить оставшиеся правила.
Для rule2:
- В разделе условий, во вкладке CDPN ввести номера телефонов, которые находятся за транком в поле "Номер". Например, чтобы определить номера со 42001 по 42005, ввести условие 420(1-5);
- В разделе результата определить результат как локальный (т.е. локальная маршрутизация);
- Нажать кнопки "Сохранить правило" и "Сохранить контекст" для применения изменений.
Для rule 3 допустим, что абоненты с номерами 108, 109 и 110 попадают в ivr-скрипт–информатор, прежде чем звонить далее.
- В разделе условий, во вкладке CGPN ввести номера телефонов, по которым будет выборка в поле "Номер", например 420(10,08-09).
- Нажать кнопки "Сохранить правило" и "Сохранить контекст" для применения изменений.
Чтобы настроить поле результата, нужно определить в системе ivr-скрипт, поэтому к настройке данного правила вернемся чуть позже.
Для rule 4 мы определяем правило-исключение — это правило, которое работает в случае, если любые другие правила не срабатывают.
- По умолчанию данное правило создается в системе в контексте default_routing. В условиях на вызываемый номер прописывается символ %, а результатом является локальная маршрутизация, однако, если мы назначаем абоненту контекст, отличный от default_routing, в конце рекомендуется создавать это правило.

Рисунок 28 — Пример настроек контекста маршрутизации
Создание транка
Для создания и редактирования параметров транка в системе используется приложение "Менеджер транков" ("Trunk manager") .

Рисунок 29 — Вид приложения "Менеджер транков"
Для определения транка в системе нужно нажать на кнопку "Создать транк"
, в появившемся диалоговом окне определить параметры:
- Имя — назначить название транка, по которому его можно идентифицировать в системе;
- Контекст — применить ранее созданный контекст маршрутизации test_name;
- Группа — выбрать группу интерфейсов, созданную при определении абонентов "test.group";
- Группа IP-адресов (IP-set) — созданная на домене группа адресов "test_set";
- Регистрация — если используется транковая, то нужно включить данный параметр, в примере она не используется;
- Хост [:порт] — IP-адрес назначения транка — 10.0.3.100;
- Порт для приёма — транспортный порт, на котором будет слушаться трафик с транка, соответствует порту, назначенному на группу IP-адресов.

Рисунок 30 — Создание транка
Создание IVR-скрипта
Для создания IVR используется приложение "IVR-редактор" ("IVR editor").

Рисунок 31 — Вид приложения "IVR-редактор"
Для создания скрипта нужно нажать на кнопку "Добавить"
, выбрать тип скрипта (в данном случае будет скрипт на входящие вызовы), в диалоговом окне указать название скрипта, например "test_ivr".
После создания скрипта в основном окне редактора появится блок-схема.
В качестве примера составим скрипт, который при срабатывании проигрывает вызывающему абоненту заранее записанную фразу, а затем продолжает вызов.
Пример скрипта приведен на рисунках ниже. Здесь используются блоки Info и Dial.
- Блок Info — блок, который проигрывает сообщения до момента ответа пользователя. В качестве записанной фразы используется генератор тонов:

Рисунок 32 — Вид рабочей области IVR с настройками блока "Info"
- Блок dial — блок, который совершает вызов на заданный номер. Чтобы продолжить вызов, нужно применить предопределенную переменную CDPN:

Рисунок 33 — Вид рабочей области IVR
Завершение настройки маршрутизации
Для завершения настройки маршрутизации нужно войти в приложение "Менеджер маршрутизации" ("Routing manager") и в правилах rule1 и rule3 настроить соответствующие результаты маршрутизации, для этого:
- rule1: в разделе "Результат" выберите подпункт "внешний". В таблице "Направления" в поле "Значение" добавьте созданный ранее транк, после чего сохраните правило
. - rule3: В разделе "Результат" выберите подпункт "ivr" и в поле скрипт добавьте созданный ранее ivr-скрипт, после чего сохраните правило и контекст
.

Рисунок 34 — Вид контекста маршрутизации
Первоначальная конфигурация системы через интерфейс командной строки (CLI)
Добавление медиа-ресурсов в интерфейсе командной строки (CLI)
Перейдите в CLI CoCon:
на ecss1 пароль - password
ssh admin@localhost -p 8023
Медиаресурс — это описание параметров медиасервера, необходимых для работы с ним.
Для возможности использования медиаресурса и установления соединений , необходимо выполнить активизацию в команде создания медиаресурса - /system/media/resource/declare (параметр "is active"=true) или /system/media/resource/set (параметр "active"=true), если при создании активизация не была выполнена. Так же можно выполнить активизацию через веб интерфейс , приложение - сетевые окончания MSR (MSR-registrars).
declare
Команда для объявления подключения медиасервера к ECSS-10.
Для работы в режиме предварительно настроенной системы можно заранее прописать медиаресурсы, информация о которых известна.
Для этого необходимо создать описание известных медиасерверов с указанием всех параметров, что позволить начать работу с медиасервером сразу после его регистрации.
Команда для создания конфигурации медиасервера:
Путь команды:
/system/media/resource/declare
Синтаксис:
declare <node> by_contact <contact> <zone> <site> <is active>
или
declare <node> by_iface <msr> <acc_id> <iface> <zone> <site> <is active>
Параметры:
<node> — имя ноды core;
<contact> — contact uri декларируемого медиаресурса;
<zone> — логическая зона обслуживания MSR;
<site> — идентификатор сети обслуживания MSR;
<is active> — состояние активности медиаресурса, значения true/false;
<msr> — имя MSR;
<acc_id> — номер идентификатор ресурса;
<iface> — название интерфейса.
set
Команда для изменения настроек медиаресурсов.
Путь команды:
/system/media/resource/set
Синтаксис:
set <node|*> <contact> <active|zone|site> <value>
Параметры:
<node|*> - имя ноды;
<contact> - contact uri декларируемого медиаресурса;
<active|zone|site> - активация | зона | сайт;
<value> - значение параметра.
Пример:
выполняется в CoCon
/system/media/resource/declare core1@ecss1 contact net.20@msr.ecss1 default local true
Результат:
/system/media/resource/declare core1@ecss1 contact net.20@msr.ecss1 default local true Declared media resources ┌─────────────┬───────────────────────┬────────┬─────────┬───────┐ │ Node │ Contact │ Active │ Zone │ Site │ ├─────────────┼───────────────────────┼────────┼─────────┼───────┤ │ core1@ecss1 │ net.20@msr.ecss1 │ true │ default │ local │ └─────────────┴───────────────────────┴────────┴─────────┴───────┘
info
Команда для просмотра информации о состоянии подключения конкретного медиаресурса.
Путь команды:
/system/media/resource/info
Синтаксис:
info <node> <contact>
Параметры:
<contact> — contact uri декларируемого медиаресурса;
<node> — имя ноды.
Пример:
/system/media/resource/info core1@ecss1 net.20@msr.ecss1 Media resource specific for node core1@ecss1: ┌─┬─────────────────┬─────────────────────┐ │F│ Parameter │ Value │ ├─┼─────────────────┼─────────────────────┤ │r│ Contact │ net.20@msr.ecss1 │ │r│ Status │ registered │ │r│ Cc-status │ connected │ │r│ Cc-status uptime│ 00:16:48 │ │r│ Cc-id │ cb6599 │ │r│ Address │ 10.0.20.41:5700 │ │r│ Register time │ 2025/12/03 09:40:25 │ │r│ Expired │ 131 │ │r│ Iface │ net.20(10.0.20.41) │ │ │ Active │ true │ │ │ Zone │ default │ │ │ Site │ local │ │r│ MSR version │ 3.18.1.0.12 │ │r│ MSR load │ 0 │ │r│ MSR perf coef │ 1.0 │ └─┴─────────────────┴─────────────────────┘ Legend: Column F - means Flag, values r - flag for readonly parameter
list
Команда для просмотра списка медиаресурсов в системе ECSS-10.
Путь команды:
/system/media/resource/list
Синтаксис:
list [active | all | register]
Параметры:
active — отображать только активные медиаресурсы (по умолчанию);
register — отображать только зарегистрированные медиаресурсы;
short — отобразить минимальную информацию;
all — отображать все задекларированные медиаресурсы.
По умолчанию команда выдает список зарегистрированных медиасерверов.
Пример:
/system/media/resource/list all All media resource selected list specific: ┌─────────────┬───────────┬──────────────┬───────────┬──────┬────────┬───────────┬───────────┬─────────────────┬────────┬────────────┬────────┬─────────┬───────┬──────────────────┬────────────┬─────────┐ │ Node │ MSR │ MSR │ MSR │ MSR │ Cc-id │ Cc-status │ Cc-uptime │ Cc-address │ Iface │ Iface │ Active │ Zone │ Site │ Contact │ Status │ Expired │ │ │ │ version │ perf coef │ load │ │ │ │ │ name │ addr │ │ │ │ │ │ │ ├─────────────┼───────────┼──────────────┼───────────┼──────┼────────┼───────────┼───────────┼─────────────────┼────────┼────────────┼────────┼─────────┼───────┼──────────────────┼────────────┼─────────┤ │ core1@ecss1 │ msr.ecss1 │ 3.18.1.0.12 │ 1.0 │ 0 │ 54faa9 │ connected │ 00:54:48 │ 10.0.20.41:5700 │ net.20 │ 10.0.20.41 │ true │ default │ local │ net.20@msr.ecss1 │ registered │ 129 │ └─────────────┴───────────┴──────────────┴───────────┴──────┴────────┴───────────┴───────────┴─────────────────┴────────┴────────────┴────────┴─────────┴───────┴──────────────────┴────────────┴─────────┘
Добавление управления регистратором для MSR медиа менеджера в интерфейсе командной строки (CLI) CoCon
/system/media/registrar/ - команды управления регистратором для MSR медиа менеджера
set
Команда для изменения общих и индивидуальных параметров.
Путь команды:
/system/media/registrar/set
Синтаксис настройки общих параметров:
set common <FIELD> <VALUE>
Параметры:
<FIELD> - имя настраиваемого параметра;
<VALUE> - значение настраиваемого параметра
Где- common - тип выставляемого параметра;
- <common parameter> - общий параметр медиарегистратора для всех нод: registration-timeout;
- private - тип выставляемого параметра;
- <node name> - имя ноды на которой находится медиарегистратор;
- <private parameter> - параметр медиарегистратора, который выставляется на <node name>: is-active, listen-interface & listen-port.
Cписок параметров доступных для настройки:
- is-active - позволяет включить или выключить регистратор (false - деактивирует регистратор, регистратор перестает принимать SIP трафик);
- listen-interface - имя интерфейса, который использует регистратор;
- listen-port - порт, на котором регистратор принимает запросы на регистрацию (по умолчанию 5000);
- registration-timeout - таймер перерегистрации, диапазон значений от 60 до 86400.
В общих параметрах доступна настройка времени регистрации, по умолчанию установлено 60 секунд.
Пример:
Установить время регистрации 60 секунд:
/system/media/registrar/set common registration-timeout 60 Common parameter registration-timeout set to 60.
Синтаксис настройки индивидуальных параметров:
system/media/registrar/set private <CORE> <FIELD> <VALUE>
Параметры:
<CORE> - нода ядра, для которой настраивается Registrar-сервер;
<FIELD> - имя настраиваемого параметра;
<VALUE> - значение настраиваемого параметра.
Настраиваемые параметры:
- is-active - активен ли Registrar-сервер, принимает значения true | false;
- listen-ip - ip-адрес, на котором Registrar-сервер будет принимать соединения (по умолчанию 0.0.0.0);
- listen-port - сетевой порт, на котором Registrar-сервер будет принимать соединения (по умолчанию 5000).
Пример:
Установить ipадрес для приема соединений от медиасервера:
выполняется в CoCon
/system/media/registrar/set private core1@ecss1 listen-ip 10.0.20.41
Результат:
/system/media/registrar/set private core1@ecss1 listen-ip 10.0.20.41 Private parameter listen-ip set to 10.0.20.41 at node core1@ecss1.
info
Команда просмотра текущих настроек Registrar-сервера.
Путь команды:
/system/media/registrar/info
Пример:
/system/media/registrar/info Common parameters: ┌───────────────────────────┬───────┐ │ Parameter │ Value │ ├───────────────────────────┼───────┤ │ registration-timeout, sec │ 180 │ └───────────────────────────┴───────┘ Private parameters: ┌─────────────┬─────────┬───────────┬────────────┬─────────────┐ │ Node │ Status │ Is-active │ Listen-ip │ Listen-port │ ├─────────────┼─────────┼───────────┼────────────┼─────────────┤ │ core1@ecss1 │ active │ true │ 10.0.20.41 │ 5000 │ └─────────────┴─────────┴───────────┴────────────┴─────────────┘
Также есть возможность добавить медиа-ресурсы через приложение web-конфигуратора — сетевые окончания MSR (MSR-registrars).
После того как все сервисы будут запущены, ноды какое-то время будут устанавливать связь. Как только все ноды загрузятся , при выполнении запроса system-status, последует вывод следующей информации:
/system-status Checking... ┌─┬───────────────┬───────────────────────────┬────────────────┬──────────────┬──────┐ │ │ Node │ Release │ Erlang nodes │ Mnesia nodes │Uptime│ ├─┼───────────────┼───────────────────────────┼────────────────┼──────────────┼──────┤ │ │core1@ecss1 │ecss-core-3.18.1.0.1657 │core1@ecss1 │not running │1h 23m│ │ │ds1@ecss1 │ecss-ds-3.18.1.0.1657 │ds1@ecss1 │ds1@ecss1 │1h 23m│ │ │md1@ecss1 │ecss-mediator-3.18.1.0.1657│md1@ecss1 │md1@ecss1 │1h 23m│ │ │mycelium1@ecss1│ecss-mycelium-3.18.1.0.1657│mycelium1@ecss1 │not running │1h 23m│ │ │sip1@ecss1 │ecss-pa-sip-3.18.1.0.1657 │sip1@ecss1 │sip1@ecss1 │1h 23m│ └─┴───────────────┴───────────────────────────┴────────────────┴──────────────┴──────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────────┬──────────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────────┼──────────────┼───────────┼───────────┤ │ core1@ecss1 │ msr.ecss1 │ 3.18.1.0.12 │ connected │ 00:04:15 │ └─────────────┴───────────┴──────────────┴───────────┴───────────┘
В примере выше видно, что ноды стартовали и MSR зарегистрировался на ноде ecss-core.
Создание и настройка группы SIP-IP-адресов (IP-set)
Произведите настройку адаптера SIP согласно ТЗ:
выполняется в CoCon
/cluster/adapter/sip1/sip/network/set ip_set test_set node-ip node = sip1@ecss1 ip = 10.0.20.41
выполняется в CoCon
/cluster/adapter/sip1/sip/network/set ip_set test_set listen-ports list = [5060]
Результат:
/cluster/adapter/sip1/sip/network/set ip_set test_set node-ip node = sip1@ecss1 ip = 10.0.20.41
Property "ip_set" successfully changed from:
to
test_set: no ports set
test_set: sip1@ecss1 10.0.20.41
test_set: dscp 0.
/cluster/adapter/sip1/sip/network/set ip_set test_set listen-ports list = [5060]
Property "ip_set" successfully changed from:
test_set: no ports set
test_set: sip1@ecss1 10.0.20.41
test_set: dscp 0
to
test_set: 5060
test_set: sip1@ecss1 10.0.20.41
test_set: dscp 0
Создание Домена и подключение IP-set
Создайте Домен (виртуальную АТС) и присвойте ему созданную выше группу (IP-set) настроек SIP-адаптера:
выполняется в CoCon
/domain/declare test_domain --add-domain-admin-privileges --add-domain-user-privileges
выполняется в CoCon
/domain/test_domain/sip/network/set ip_set [test_set]
Результат:
/domain/declare test_domain --add-domain-admin-privileges --add-domain-user-privileges New domain test_domain is declared /domain/test_domain/sip/network/set ip_set [test_set] Property "ip_set" successfully changed from: [] to ["test_set"].
После создания домена, администратор системы должен открыть доступ на управление услугами оператору Домена (виртуальной АТС). Для этого использовать команду:
Разрешения оператору Домена (виртуальной АТС) "test_domain" управлять всеми услугами :
выполняется в CoCon
/cluster/storage/ds1/ss/access-list add test_domain *
Результат:
/cluster/storage/ds1/ss/access-list add test_domain * Supplementary services successfully added in the domain test_domain.
Для возможности применения пакета услуг у абонентов сразу после создания, необходимо настроить политику применения лицензионных пакетов услуг (детальную информацию вы можете посмотреть здесь )
Создать политику применения лицензии с именем -"new_sub"
выполняется в CoCon user/pw admin/password
/domain/test_domain/ss/licence/politics/declare new_sub "Задаются при создании абонента"
Результат:
/domain/test_domain/ss/licence/politics/declare new_sub "Задаются при создании абонента" Licence politic new_sub successfully declared.
Задать имя пакета услуг дополнительных сервисов, для этого использовать следующие команды :
выполняется в CoCon user/pw admin/password
/cluster/storage/ds1/licence/show-licence 1
нас интересует следующая информация :
/cluster/storage/ds1/licence/show-licence 1
SSW ID < Имя SSW ID >
Description ECSS ELM License
. . .
Supplementary Services licence package(s)
name 'ECSS-ADV'
limit 600000
description "Весь пакет услуг"
SS list [1,2,3,4,5]
. . .
имя пакета услуг в примере "ECSS-ADV".
Добавить в созданную политику пакет лицензионных услуг с именем "ECSS-FULL+", именно так он описан в лицензии:
выполняется в CoCon user/pw admin/password
/domain/test_domain/ss/licence/politics/package-add new_sub ECSS-ADV
Результат:
/domain/test_domain/ss/licence/politics/package-add new_sub ECSS-ADV Licence packages ["ECSS-ADV"] successfully added to politic new_sub.
Пакет добавлен, но в настоящий момент политика не активна (не может быть применена к абоненту). Для активации политики new_sub выполнить следующую команду:
выполняется в CoCon user/pw admin/password
domain/test_domain/ss/licence/politics/activate new_sub
Результат:
/domain/test_domain/ss/licence/politics/activate new_sub Licence politic new_sub successfully activated.
Теперь при создании абонентов можем использовать дополнительные услуги.










































