Вы просматриваете старую версию данной страницы. Смотрите текущую версию.

Сравнить с текущим просмотр истории страницы

« Предыдущий Версия 16 Следующий »

Начиная с версии 1.36 установка в Docker производится с помощью плейбуков Ansible. В случае наличия Docker версии SoftWLC, установленной с помощью скрипта установщика рекомендуется произвести миграцию в Docker версию Ansible по иструкции:

v1.37_Миграция однохостовой установки из Docker в Docker Ansible

Установка в Deb не поддерживается с версии 1.36. В случае наличия Deb версии SoftWLC необходимо мигрировать в версию Docker Ansible по иструкции:

v1.37_Миграция решения из Deb в Docker с использованием Ansible

Данная инструкция предназначенна именно для обновления схемы SoftWLC Docker Ansible.

Более подробно про установку скриптом в Docker с помощью плейбуков Ansible можно посмотреть здесь:

v1.37_Пошаговая установка SoftWLC в Docker через Ansible скриптом-установщиком

Перед обновлением необходимо выполнить обновление пакетов на серверах с помощью команд sudo apt update && sudo apt upgrade

Актуальная версия плейбуков

Актуальная версия плейбуков: 1.37 от 10 ноября 2025 года

Узнать текущую версию скрипта и плейбуков можно с помощью команды:

sudo ./eltex-softwlc-helper-ansible-latest.sh --version

Команда добавлена, начиная с 10 ноября 2025 года.

ВАЖНО: Обращайте внимание на последние обновления плейбуков и, в случае их обновления, своевременно скачивайте новые.

Обновление плейбуков

Для обновления SoftWLC в Docker Ansible на новую версию необходимо следовать перечисленным ниже командам.

В операционной системе должна быть создана директория, где находится сам скрипт, конфигурационные файлы, данные и плейбуки для Ansible прошлой версии. В качестве примера будет использоваться директория ansible в домашней директории пользователя.

1) Переходим в директорию

cd /home/<имя пользователя>/ansible

2) Далее, необходимо загрузить скрипт установщик по ссылке из репозитория и разместить его с заменой в созданной ранее директории.

Данную операцию также можно выполнить из терминала:

wget http://archive.eltex.org/wireless/help/softwlc-latest/eltex-softwlc-helper-ansible-latest.sh

3) Следующим шагом необходимо выдать права на исполнение нового файла eltex-softwlc-helper-ansible-latest.sh, если таковых нет:

sudo chmod +x eltex-softwlc-helper-ansible-latest.sh

Все действия со скриптом необходимо проводить с использованием sudo

Не обязательно скачивать скрипт на тот же хост, куда будет устанавливаться SoftWLC. Адрес его установки будет запрошен самим скриптом далее.

4) Следующим шагом необходимо удалить старый архив и переименовать старую директорию:

sudo rm softwlc-ansible-1.36.tar.gz
sudo mv softwlc-ansible-1.36 softwlc-ansible-1.37

В случае использования версии 1.37 файл архива называется softwlc-ansible-1.37.tar.gz.

Переименовывать старую директорию в данном случае нет необходимости

5) Далее необходимо скачать плейбуки Ansible новой версии запустив новый скрипт с ключом -d

sudo ./eltex-softwlc-helper-ansible-latest.sh -d

Во время обновления появятся 3 запроса на обновление параметров и конфигураций:

1) Запрос на создание бэкапа конфигурации. При выборе Y, нажатии на Enter, создастся архив с файлами конфигурации Ansible. Выбор по умолчанию - Y.

Выбрать во время обновления - Y.

Do you want to backup your configuration files ? [Y/n] (default="Y"): Y

2) Запрос на замену параметров в файлах директории softwlc-ansible/*. При выборе Y все файлы в директории softwlc-ansible (за исключением my_softwlc/*) будут заменены на дефолтные из архива. Выбор по умолчанию - N.

Выбрать во время обновления - Y.

You already have a softwlc-ansible configuration directory. Do you want to replace this configuration with default parameters from the archive? [y/N] (default="N"): Y

3) Запрос на замену параметров в файлах директории my_softwlc/*. При выборе Y все файлы в директории my_softwlc будут заменены на дефолтные из sample/*, удаляя все настройки пользователя, если таковые были. Выбор по умолчанию - N.

Есть 2 способа обновить данный файл:

  • Первый - выбрать во время обновления - Y.
You already have my_softwlс configurations. Do you want to replace this configuration with default parameters from inventory/sample ? [y/N] (default="N"): Y

После этого файл с пользовательскими наcтройками будет сохранён как all.yml.backup. Если ранее параметры были изменены пользователем - потребуется их восстановление из этого файла.

  • Второй - заранее привести файл all.yml к следующему виду (с указанием изменённых ранее параметров), выбрав после в данном пункте - N:
inventory/my_softwlc/group_vars/all.yml
---
# Данный файл содержит переменные, имеющие преймущество перед дефолтными, и настраивается скриптом и пользователем.
# =======================================================================================
# ПОЛЬЗОВАТЕЛЬСКИЕ НАСТРОЙКИ, ОТСУТСТВУЮЩИЕ В ДАННОМ ФАЙЛЕ, УКАЗЫВАТЬ ЗДЕСЬ


# =======================================================================================


# ==================================== Global params ====================================
# Путь установки SoftWLC
softwlc_installation_path: "/opt/eltex-softwlc"
ansible_playbook_dir: "/home/user/softwlc-ansible"
ems_ip: "{{ ansible_host }}"
external_ip: "{{ ansible_host }}"
virtual_ip: "192.168.1.100"
gateway_ip: "192.168.1.1"

# Standalone установка default
is_default_install: true
# Резервирование - GLOBAL
is_reservation_install: false
# Репликация Galera мультихост - GLOBAL
is_replication_galera_install: false

# Публичный репозиторий
eltex_hub: hub.eltex-co.ru/softwlc
# Приватные репозиторий (УДАЛИТЬ ПЕРЕД ПУБЛИКАЦИЕЙ)
# eltex_private_hub: ems-release.registry.eltex.loc
# eltex_private_hub: ems-feature.registry.eltex.loc

# Номер версии
swlc_version: "1.37"
ems_version: "3.41"
airtune_version: "1.7.4"

# Часовой пояс
tz: Asia/Novosibirsk

# ================================== Creds/service configs ==================================
# Сервисный логин/пароль администратора (Необходим для доступа пользователя в ЛК, NBI, Portal Constructor. Используется в eltex-johnny, eltex-mariadb, eltex-jobs)
nbi_softwlc_service_admin_login: admin
nbi_softwlc_service_admin_password: password

# Сервисный логин/пароль пользователя (Cервисная учетная запись предназначенная для взаимодействия системных модулей. Используется в eltex-wifi-cab, eltex-pcrf, eltex-mariadb)
nbi_softwlc_service_user_login: softwlc_service
nbi_softwlc_service_user_password: softwlc

# Пароли от root для mysql
mysql_root_user: root
mysql_root_password: root
mysql_old_root_password: root

# Учетная запись сервисов для доступа к БД
mysql_user: javauser
mysql_password: javapassword

# Доступ для базы radius
radius_db_login: radius
radius_db_password: radpass

# Параметры подключения к БД
mysql_server_host: eltex-mariadb
# Порт, на котором будет запущена БД в контейнере (также необходим для прямого подключения к БД)
mysql_container_port: 3306
# Порт, на который подключаются сервисы (в дефолтной установке равен mysql_container_port)
mysql_server_port: "{{ mysql_container_port }}"
mariadb_max_connections: 500

# Доступ в h2-консоль
bob_h2_user: sa
bob_h2_password: h2bob

# FTP Доступ
ems_vsftpd_ftp_user: ftp
ems_vsftpd_ftp_password: ftp

# Ключи radius/bras
ems_radius_client_secret: eltex
pcrf_aaa_secret: testing123
pcrf_bras_coa_secret: testing123

# Резервирование - rsync
rsync_backup_user: backup
rsync_backup_password: rspasswd

# Резервирование - ProxySQL
proxysql_admin_login: admin
proxysql_admin_password: admin
monitor_login: monitor
monitor_password: monitor


# Резервирование - PCRF Cluster
# Запуск кластеризации
pcrf_cluster_enable: false
# Порт для обмена данными с нодами в кластере
pcrf_cluster_event_bus_port: 5801
# Публичный адрес ноды
pcrf_cluster_event_bus_public_host: 192.168.0.1
pcrf_cluster_event_bus_host: 0.0.0.0
# Настройки режима кластера Hazelcast (Заполнены данными для примера. Настраиваются индивидуально)
# Публичный адрес ноды
pcrf_hz_network_public_address: 192.168.0.1
# Порт Hazelcast. 5701 по умолчанию.
pcrf_hz_network_port: 5701
# Список адресов членов кластера, включая себя
pcrf_hz_network_join_tcp_ip_members: 192.168.0.1,192.168.0.2

# Резервирование - APB Cluster
# Запуск кластеризации
apb_cluster_enabled: false
# Публичный адрес ноды
apb_cluster_public_node_address: 192.168.0.1
# Размер пачки событий для публикации
apb_cluster_notifications_publish_batch_size: 50
# Период публикации событий
apb_cluster_notifications_publish_period_seconds: 3
# Количество потоков обрабатывающих события
apb_cluster_notifications_processing_threads: 4
# Размер пачки обрабатываемых событий
apb_cluster_notifications_processing_batch_size: 100
# Адреса членов кластера. Указываются через индекс
apb_cluster_members_0: 192.168.0.1
apb_cluster_members_1: 192.168.0.2

# Конфгигурации NGW сервиса
# Конфигурационный файл для идентификации пользователя по входящему SMS (от пользователя)
ngw_sms_incoming_config: smsc.conf
# Конфигурационный файл для идентификации пользователя по исходящему SMS (пользователю)
ngw_sms_outgoing_config: smsc.conf
# Конфигурационный файл для идентификации пользователя по входящему звонку (от пользователя)
ngw_call_incoming_config:
# Конфигурационный файл для идентификации пользователя по исходящему звонку (пользователю)
ngw_call_outgoing_config:
# Конфигурационный файл для исходящей почты
ngw_email_outgoing_config: email.conf

# Настройки логирования сервисов
apb_log_level: INFO
bob_log_level: INFO
bruce_log_level: INFO
doors_log_level: INFO
disconnect_log_level: INFO
ems_log_level: INFO
jobs_log_level: INFO
johnny_log_level: INFO
logging_log_level: INFO
mercury_log_level: INFO
ngw_log_level: INFO
pcrf_log_level: INFO
portal_log_level: INFO
portal_constructor_log_level: INFO
nbi_log_level: INFO
wids_log_level: INFO
wificab_log_level: INFO

# Настройки логирования сервисов (консоль)
apb_console_level: INFO
bob_console_level: INFO
bruce_console_level: INFO
doors_console_level: INFO
disconnect_console_level: INFO
ems_console_level: INFO
jobs_console_level: INFO
johnny_console_level: INFO
logging_console_level: INFO
mercury_console_level: INFO
ngw_console_level: INFO
pcrf_console_level: INFO
portal_console_level: INFO
portal_constructor_console_level: INFO
nbi_console_level: INFO
wids_console_level: INFO
wificab_console_level: INFO

# Настройка перенаправления логов в Graylog
graylog_gelf_host: udp:localhost
graylog_gelf_port: 12201
graylog_gelf_level: "OFF"

restore_filename: backup_file.tar.gz

# Настройка проксирования radius
proxy_vars:
  # Включение проксирования
  radius_proxy_auth: 0
  # Включение проксирования SSID(не может одновременно работать с обычным проксированием)
  radius_proxy_ssid_enabled: 0
  # Включение проксирования аккаунтинга
  radius_proxy_acct: 0
  # Настройка домена 
  radius_proxy_domain_regex: ^(.+\.)?enterprise\.root$
  # failover либо load-balance
  radius_proxy_auth_failover_type: fail-over
  # Настройки radius-сервера на который будет осуществлять поксирование (в случае отсутствия параметров, будут поставлены дефолтные значения)
  radius_proxy_host: 127.0.0.1
  radius_proxy_port: 1812
  radius_proxy_secret: eltex
  # Для проксирования на AD выставить значение radius_proxy_auth_status_check в 'none'
  radius_proxy_auth_status_check: status-server
  radius_proxy_auth_response_window: 20
  radius_proxy_auth_revive_interval: 60
  radius_proxy_auth_check_interval: 30
  radius_proxy_auth_check_timeout: 4
  radius_proxy_auth_num_answers_to_alive: 3
  radius_proxy_auth_zombie_period: 40
  # -----------------------------------------------------------------------------------------------------
  # Если необходимо настроить проксирование на группу серверов то аналогично настройкам выше 
  # добавить, но с указанием индекса radius_proxy<N>_... 
  #radius_proxy1_host: 127.0.0.2
  #radius_proxy1_port: 1812
  #radius_proxy1_secret: eltex1
  #radius_proxy1_auth_status_check: status-server
  #radius_proxy1_auth_response_window: 20
  #radius_proxy1_auth_revive_interval: 60
  #radius_proxy1_auth_check_interval: 30
  #radius_proxy1_auth_check_timeout: 4
  #radius_proxy1_auth_num_answers_to_alive: 3
  #radius_proxy1_auth_zombie_period: 40
  # -----------------------------------------------------------------------------------------------------
  # Если необходимо проксировать разные домены - аналогично примерам выше, но с указанием постфикса в формате _N
  #radius_proxy_domain_regex_2: ^(.+\.)?enterprise2\.root$
  #radius_proxy_host_2: 127.0.0.2
  #radius_proxy_port_2: 1812
  #radius_proxy_secret_2: eltex1
  # -----------------------------------------------------------------------------------------------------
  # Для проксирования SSID:  
  #radius_proxy_ssid_value: EAP_TLS
  #radius_proxy_ssid_failover_type: fail-over
  #radius_proxy_ssid_host: 127.0.0.3
  #radius_proxy_ssid_port: 1812
  #radius_proxy_ssid_secret: eltex
  # Для проксирования на AD выставить значение radius_proxy_ssid_status_check в 'none'
  #radius_proxy_ssid_status_check: none
  #radius_proxy_ssid_response_window: 20
  #radius_proxy_ssid_revive_interval: 60
  #radius_proxy_ssid_check_interval: 30
  #radius_proxy_ssid_check_timeout: 4
  #radius_proxy_ssid_num_answers_to_alive: 3
  #radius_proxy_ssid_zombie_period: 40

6) Следующим шагом необходимо изменить параметр текущей установки в all.yml.

Для этого необходимо изменить файл распологающийся по следующему пути: /home/<имя пользователя>/ansible/softwlc-ansible-1.37/inventory/my_softwlc/group_vars/all.yml

В нём необходимо указать напротив используемой установки флаг true, выбрав для остальных false относительно используемой установки:

Standalone version

# Standalone установка default
is_default_install: true
# Резервирование - GLOBAL
is_reservation_install: false
# Репликация Galera мультихост - GLOBAL
is_replication_galera_install: false

Reservation 1+1 (Galera Cluster) version

# Standalone установка default
is_default_install: false
# Резервирование - GLOBAL
is_reservation_install: true
# Репликация Galera мультихост - GLOBAL
is_replication_galera_install: false

Replication 1+1+3 Galera Database Nodes version

# Standalone установка default
is_default_install: false
# Резервирование - GLOBAL
is_reservation_install: false
# Репликация Galera мультихост - GLOBAL
is_replication_galera_install: true

На этом обновление плейбуков завершено. Следующим шагом рассмотренно обновление SoftWLC на новую версию.


Обновление SoftWLC

Актуальную версию SoftWLC можно узнать здесь: Stable_versions

1) Первым шагом рекомендуется проверить параметр softwlc_installation_path в all.yml. Он должен содержать директорию, куда ранее был установлен SoftWLC.

Для этого необходимо посмотреть файл распологающийся по следующему пути: /home/<имя пользователя>/ansible/softwlc-ansible-1.37/inventory/my_softwlc/group_vars/all.yml

Необходимый в нём параметр:

# Путь установки SoftWLC
softwlc_installation_path: "<путь куда ранее был установлен SoftWLC>"

Следующим шагом рекомендуется сделать бэкап текущей установки, командой:

sudo ./eltex-softwlc-helper-ansible-latest.sh --backup

2) Далее необходимо остановить и удалить старые контейнеры, использовав флаг --delete

sudo ./eltex-softwlc-helper-ansible-latest.sh --delete

3) Следующие шаги рассмотрены в зависимости от установки - в некоторых необходимы дополнительные действия:

При повторном запуске также будут запрошены аналогичные обновлению плейбуков вопросы. Здесь необходимо оставить все значения по умолчанию

1) Запрос на создание бэкапа конфигурации. При выборе Y, нажатии на Enter, создастся архив с файлами конфигурации Ansible. Выбор по умолчанию - Y.

Do you want to backup your configuration files ? [Y/n] (default="Y"):

2) Запрос на замену параметров в файлах директории softwlc-ansible/*. При выборе Y все файлы в директории softwlc-ansible (за исключением my_softwlc/*) будут заменены на дефолтные из архива. Выбор по умолчанию - N.

You already have a softwlc-ansible configuration directory. Do you want to replace this configuration with default parameters from the archive? [y/N] (default="N"):

3) Запрос на замену параметров в файлах директории my_softwlc/*. При выборе Y все файлы в директории my_softwlc будут заменены на дефолтные из sample/*, удаляя все настройки пользователя, если таковые были. Выбор по умолчанию - N.

You already have my_softwlс configurations. Do you want to replace this configuration with default parameters from inventory/sample ? [y/N] (default="N"):


Обратите внимание, что после обновления плейбуков необходимо ввести данные доступа по SSH повторно.

Standalone version

3.1.1) Запустить скрипт с флагом --default-install

sudo ./eltex-softwlc-helper-ansible-latest.sh --default-install

3.1.2) Ввести данные для подключения

Setup HOSTS for default installation
List of prepared hosts:
softwlc_main
 
Information note
Ansible uses SSH with existing OS credentials to access machines.
Next, you will be asked to provide details for connecting via SSH to the hosts you specified.
In the future, it is recommended to add the generated ssh key and use it (via "private_key_file" in ansible.cfg for example) to increase the security of the connection.
More information (Official Ansible Web site): https://docs.ansible.com/ansible/latest/reference_appendices/config.html
 
Setup credentials for HOST: softwlc_main
Enter address for HOST: softwlc_main (blank for last used): 192.168.1.1
softwlc_main will be configured at the: 192.168.1.1
Enter SSH user login for HOST: softwlc_main (blank for last used): tester
Enter SSH user password for HOST: softwlc_main (blank for last used): ******
Enter sudo password for HOST: softwlc_main (blank for last used): ******

3.1.3) Ожидать завершения установки

Reservation 1+1 (Galera Cluster) version

3.2.1) Изменить файл softwlc_reservation_setup.yml, закоментировав в нём следующие строки:

# - name: Pre-start softwlc containers
#   hosts: one_plus_one_reservation
#   tags: install-softwlc-reservation
#   roles:
#     - run_databases
#     - configure_databases
#     - run_softwlc

3.2.2) Запустить скрипт с флагом --reservation-install

sudo ./eltex-softwlc-helper-ansible-latest.sh --reservation-install

3.2.3) Ввести данные для подключения

Setup HOSTS for reservation installation
Enter virtual IP address (blank for last used):
Vitual IP set to: 192.168.1.100
Enter gateway IP address (blank for last used):
Gateway IP set to: 192.168.1.1
List of prepared hosts:
softwlc_reserv_1
softwlc_reserv_2
 
Information note
Ansible uses SSH with existing OS credentials to access machines.
Next, you will be asked to provide details for connecting via SSH to the hosts you specified.
In the future, it is recommended to add the generated ssh key and use it (via "private_key_file" in ansible.cfg for example) to increase the security of the connection.
More information (Official Ansible Web site): https://docs.ansible.com/ansible/latest/reference_appendices/config.html
 
Setup credentials for HOST: softwlc_reserv_1
Enter address for HOST: softwlc_reserv_1 (blank for last used): 192.168.1.2
softwlc_reserv_1 will be configured at the: 192.168.1.2
Enter SSH user login for HOST: softwlc_reserv_1 (blank for last used): tester
Enter SSH user password for HOST: softwlc_reserv_1 (blank for last used): ******
Enter sudo password for HOST: softwlc_reserv_1 (blank for last used): ******
 
Setup credentials for HOST: softwlc_reserv_2
Enter address for HOST: softwlc_reserv_2 (blank for last used): 192.168.1.3
softwlc_reserv_2 will be configured at the: 192.168.1.3
Enter SSH user login for HOST: softwlc_reserv_2 (blank for last used): tester
Enter SSH user password for HOST: softwlc_reserv_2 (blank for last used): ******
Enter sudo password for HOST: softwlc_reserv_2 (blank for last used): ******
Starting Ansible docker container
SWLC_VERSION=1.37
CURR_FILE_VERSION_NAME=softwlc-ansible-1.37
ELTEX_HUB=hub.eltex-co.ru/softwlc

3.2.4) Ожидать завершения установки

Replication 1+1+3 Galera Database Nodes version

3.3.1) Изменить файл softwlc_replication_setup.yml, закоментировав в нём следующие строки:

# - name: Pre-start softwlc containers
#   hosts: galera_claster_replication
#   tags: install-softwlc-replication-galera
#   roles:
#     - run_databases # все хосты (updated via hosts)
#     - configure_databases # все хосты (updated via hosts)
#     - run_softwlc # все хосты (updated via hosts)

3.3.2) Запустить скрипт с флагом --replication-galera-install

sudo ./eltex-softwlc-helper-ansible-latest.sh --replication-galera-install

3.3.3) Ввести данные для подключения

Setup HOSTS for replication Galera installation
Enter virtual IP address (blank for last used):
Vitual IP set to: "192.168.1.100"
Enter gateway IP address (blank for last used):
Gateway IP set to: "192.168.1.1"
List of prepared hosts:
softwlc_1
softwlc_2
database_1
database_2
database_3
 
Information note
Ansible uses SSH with existing OS credentials to access machines.
Next, you will be asked to provide details for connecting via SSH to the hosts you specified.
In the future, it is recommended to add the generated ssh key and use it (via "private_key_file" in ansible.cfg for example) to increase the security of the connection.
More information (Official Ansible Web site): https://docs.ansible.com/ansible/latest/reference_appendices/config.html
 
Setup credentials for HOST: softwlc_1
Enter address for HOST: softwlc_1 (blank for last used): 192.168.1.2
softwlc_1 will be configured at the: 192.168.1.2
Enter SSH user login for HOST: softwlc_1 (blank for last used): tester
Enter SSH user password for HOST: softwlc_1 (blank for last used): ******
Enter sudo password for HOST: softwlc_1 (blank for last used): ******
 
Setup credentials for HOST: softwlc_2
Enter address for HOST: softwlc_2 (blank for last used): 192.168.1.3
softwlc_2 will be configured at the: 192.168.1.3
Enter SSH user login for HOST: softwlc_2 (blank for last used): tester
Enter SSH user password for HOST: softwlc_2 (blank for last used): ******
Enter sudo password for HOST: softwlc_2 (blank for last used): ******
 
Setup credentials for HOST: database_1
Enter address for HOST: database_1 (blank for last used): 192.168.1.4
database_1 will be configured at the: 192.168.1.4
Enter SSH user login for HOST: database_1 (blank for last used): tester
Enter SSH user password for HOST: database_1 (blank for last used): ******
Enter sudo password for HOST: database_1 (blank for last used): ******
 
Setup credentials for HOST: database_2
Enter address for HOST: database_2 (blank for last used): 192.168.1.5
database_2 will be configured at the: 192.168.1.5
Enter SSH user login for HOST: database_2 (blank for last used): tester
Enter SSH user password for HOST: database_2 (blank for last used): ******
Enter sudo password for HOST: database_2 (blank for last used): ******
 
Setup credentials for HOST: database_3
Enter address for HOST: database_3 (blank for last used): 192.168.1.6
database_3 will be configured at the: 192.168.1.6
Enter SSH user login for HOST: database_3 (blank for last used): tester
Enter SSH user password for HOST: database_3 (blank for last used): ******
Enter sudo password for HOST: database_3 (blank for last used): ******
Starting Ansible docker container
SWLC_VERSION=1.37
CURR_FILE_VERSION_NAME=softwlc-ansible-1.37
ELTEX_HUB=hub.eltex-co.ru/softwlc

3.3.4) Ожидать завершения установки


4) По завершении работы скрипта в терминале появятся данные для подключения:

Installation of Eltex SoftWLC finished successfully.
        
URLs of SoftWLC components:

Eltex.EMS Server management (internal) IP: {{ ems_ip }}
Eltex.EMS Server external IP: {{ server_ip }}

Eltex.EMS GUI: http://<адрес SoftWLC>:8080/ems/jws
     login: admin
     password: <empty>

Portal constructor: http://<адрес SoftWLC>:8080/epadmin
     login: admin
     password: password

Wi-Fi customer cabinet (B2B): http://<адрес SoftWLC>:8080/wifi-cab
     login: admin
     password: password

Для запуска уже обновленной системы необходимо использовать тег run, для остановки stop:

sudo ./eltex-softwlc-helper-ansible-latest.sh --run
sudo ./eltex-softwlc-helper-ansible-latest.sh --stop

Более подробные возможности работы через Ansible рассмотрены здесь

  • Нет меток