Кластера являются компонентами ECSS-10, обеспечивающие заданные параметры надежности и производительности.
Классификация кластеров по ролям:
Для управления кластерами системы используется интерфейс командой строки и Web-интерфейс.
Команды, предназначенные для управления кластерами, располагаются на виртуальной файловой системе CLI в директории /cluster. Описание команд приведено в разделе Справочник команд CLI.
Для управления кластерами через Web-конфигуратор используется приложение 3.14.0 Кластеры (Clusters)
Порядок конфигурирования кластера:
После установки лицензии в системе необходимо выполнить настройку параметров кластера:
Параметры можно настроить как для всех кластеров заданного типа, зарегистрированных на данном кластере хранения долговременных данных (DS), так и выполнить индивидуальные настройки для определенного кластера.
Для нормальной работы системы используемые кластера должны быть активными. При декларации по умолчанию кластер создается активным. Если нет необходимости изменять статус на "не активен", пропустите данный пункт настройки кластера. Описание команд приведено в разделе 3.14.0 Справочник команд CLI.
Данные команды являются основными для задания настроек кластера.
Для конфигурирования индивидуальных настроек определенного кластера используется команда:
/cluster/<SOME_ROLE>/<NAME_CLUSTER>/<GROUP>/set <PROPERTY> [<NAME_NODE>|add|remove] <VALUE>
Для просмотра индивидуальных настроек определенного кластера используется команда:
/cluster/<SOME_ROLE>/<NAME_CLUSTER>/<GROUP>/info [<PROPERTY>]
Данные команды позволяют изменить, удалить, просмотреть свойства параметров, ранее настроенных на уровне кластера.
Для конфигурирования настроек, которые относятся ко всем кластерам с ролью <SOME_ROLE>, используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/set <PROPERTY> <VALUE>
Для удаления установленных значений параметров, которые относятся ко всем кластерам с ролью <SOME_ROLE>, используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/clean <PROPERTY>
Для просмотра установленных значений параметров, которые относятся ко всем кластерам с ролью <SOME_ROLE>, используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/info [<PROPERTY>]
Для конфигурирования индивидуальных настроек определенного кластера используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/<NAME_CLUSTER>/set <PROPERTY> <VALUE>
Свойства, созданные командой для определенного кластера, "перекрывают" свойства, созданные командой для всех кластеров с определенной ролью.
Для удаления установленных значений параметров определенного кластера используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/<NAME_CLUSTER>/clean <PROPERTY>
Для просмотра установленных значений параметров определенного кластера используется команда:
/cluster/storage/<SOME_STORAGE>/cluster/<SOME_ROLE>/<NAME_CLUSTER>/info [<PROPERTY>]
где
<SOME_STORAGE> - кластер хранения долговременных данных (DS). По умолчанию в системе присутствует кластер хранения долговременных данных с именем ds1;
<SOME_ROLE> - роль кластера: adapter, bus, core, mediator, storage, tts;
<NAME_CLUSTER> - имя кластера;
<GROUP> - группа параметров;
<NAME_NODE> - имя ноды;
<PROPERTY> - имя свойства;
<VALUE> - значение свойства.
Пример:
admin@mycelium1@ecss1:/$ cluster/storage/ds1/settings/info
ECSS-10 properties:
┌────────────────────────────────────────┬─────────────────────────────────────────────────────────────────────────────────┐
│ Property │ Value │
├────────────────────────────────────────┼─────────────────────────────────────────────────────────────────────────────────┤
│system_options\timers\migrate │true │
│licence_parameters │[{1, │
│ │ "0496c0cf9da7bb3b119f7557324de88c50d5e93276748e4e8717898426700bdb454bdfea280b8b│
│ │3d2ac880cbfef55e342fa2cc43e1cad53a7e60fbde7536058ae6d327f0bbb9f48dd899e427868f1a7│
│ │d9313ba739c00a1f64beb0e40166ceeae31deabbba6ec3860ebc99c253397fbadb24d0b25437b3484│
│ │6b4575ad1f6561a8-5ce28b51f87cb09852d0c2c922bdf64f44fe03368480ef99c232f5265560d214│
│ │2ec9e714c04f9f5e64e713b450b380a6a6e82f3d5ae9a29299a3ed752f3052610cdc66a318d0fb67d│
│ │3ac77e0bcc07af5aa48b3a270a371a818d8a30ef14d6999db7a2490df4065a647c06951a6c51f1108│
│ │1a27757e28920677b8964428e41289-f5ae26d9fc02611e1ad7f44f0b76303c907844e32ffb24ddea│
│ │117f9f16126f8442c40d1155db65b429bfb1fe84c76f5b2b9d6ffd3550da890245f08119923007395│
│ │52f10f8e5e9c745a67646e51ad61174bd3980b28f73ee406e667e70cf937f3c42b6eeebdb4665f33f│
│ │64506bfe19ce324214cf8ee74f9b45b9ed2e9627077a-e9e6b278b677963cf21f074dc091d05cdaa6│
│ │5888f73034d9d961a77da1fb824bf650c152119570aa1ff4c08181554614164d0d3361505d27dbcb4│
│ │23d5f62523c6dc42a1c77003313606df5004e7664d26be23dd9f407f8a527c1b9f38d5363ffb3233b│
│ │46444b05da0786c30baa480d847ccbb757685a861d1499724d5108e02a-91500ed1a7da43b16ce8b9│
│ │595eeda6678830309b64e33e718a594d0b6cd079f38ebcba10dac2bf7e28fed6d6c6fe3df6e1cbd36│
│ │467163139d5b1e014f2312f0d7619ad9a27a1b2714b3c40164bdb750481c5bfc1399006391e4282d5│
│ │e8ad9e8c6a334b0a32b5edaefc42bd2a2ccaf1be99c968aa376b11ec48b00292ece8c4ac-062ca6ef│
│ │60cb14cb31364f5aa15edf9b29f3fd79cfb773c5ed528e104bcc2115b7a9ae70d79240a7f5c26607b│
│ │61b347b9ee69ce874250f0a796be589da1948c80a709bf0bc68fa5e274dd1689ad2c46b117defb438│
│ │d86fb71a5844fec124ddd3d3b3cdd83d188243cd7e5f3daa32c023d169fb0e65d7c9ec4bb595904ed│
│ │3ac1e-a715d496e9d7e895df0b88a24a8ecd747234681d8788165b79091934b4ba009c3c230457fc5│
│ │0f16f533a3d7bda8bee7beb7ede7b08a9ba7dc5c7b59ecfbf1f9c2f43a659f31450d15a6132006e8a│
│ │23b3fe7bd84ac992eb94e613d9107fb60f60f1a3f3d382e966da31b04b57fd00394f4221fc0d98e21│
│ │a6c060b097798ca1359-5a23735be4ee3d2779d633b9d0f0d09f5b88fb9fc0ab80424c778d34d2c9d│
│ │acc9d9577edb2196a56c31961a8f62eca2d7ea92746b0e266d4313a30a2b5f751c7be3feb11fc7601│
│ │e7103748ecffaa01a09aab364f9182d862dfbbc4b14c79147d06b380cd77f7ab26f130b38553027d0│
│ │3b0acaa89a3e061eeb889d229160b823a-8ab6f5fb350ee901ed127f2591d69e4bb7007673b1e4642│
│ │1321a5355c7b9d8eca8f1ffcfbb09c73cd2ae2a37912159ae58b77d9a006ec5784726b881a5afc45f│
│ │1ffbdb51fab7bd83fd874d37df8a68032763a078bfee1dbe8588e403b7e0c1f2cc2cabd4ee130977a│
│ │f342614e1b4a0630acead15ec28d191eddf51b4596bb1af-887ea4cabc7ed20f75ed68f2e7fc169d8│
│ │5601365d600c102fddb73436992de4b68d09c687c1ff2ff68809009d3ab6f1b2a4dc652c6eade0fd3│
│ │17dffa42eea0bc65335c4f6459ff4cf55ab9b497cdc9e71e1977287187c0c2c97f7e8ca44be3115c5│
│ │73bafe6814f3f2306a2b7f8fb1b8f059ee49ffceb01cec9cab5b61abd0282"}, │
│ │ {2, │
│ │ "09e595f120c9d375eb45f27ebb33a3fbb6ea8702118e93b1818edb725fe70208caa668e931082f│
│ │9aca0dc212e7a2187f44fac22d0082f0eaf7d8db01dd69b51ba3864ed9db942d4dee8f3de17e29838│
│ │6fc1d2e4046fd57d0b6c27753c3a5f680d1b3fb62388b0c88de3c69d103b3a0c359b85537b363cbfd│
│ │53a135f6a08b0792-25cd49bd8c5657e7702c770975e2e6f46e7b1484012d5e50fce39fc36c452ee2│
│ │22551b684474d503c673edd78a50c796d68cd0d06f1ad3ef2f93528fe0e5f473a22082ea6d6bf9ea8│
│ │cfc570c69ce164cb2fcb233f25ece3119fc4d093e37d34bf3e6ec80a356ef34ecb0f6d408d72d031f│
│ │29d2e97b06511879862573f94dd65f-1ef6ec6fc0b7fc996a694f70267b2e43cd6d6acd2d1d7b8a92│
│ │01d54fda4903279d56aa00169d5422bdde8cd74b5621fc8021475f32dbaca65d1184f3c0803eb14b9│
│ │ee15563ca076e78c0548ca9c72f324e2626ea53648cc4017ca113ea522cc7523c125b9c07ca99196f│
│ │40f107a806b4e82ce122fa773e53379894722458355e-f025b36b83a71fd327da3642b95a70cc0e42│
│ │fac469ab3a610e2b0a567df2f2140b7a88ed9d9280cb142374c350f461207f785e73869bd9377d62a│
│ │3080f832c0da4aad5c653d6e5f8653176779245a6957ab15698f4606f0d8b1622e7032e6db8e9c326│
│ │bc2c86740cd4e28b5850995782d584fc26fe0cdaca81cd80dd2d1d289f-98ab44b7fcc60b5acffe13│
│ │cde7f1364a91bb263959581c1de6be29856dccff2217be7f700c66a25d454f7f8ca170298877cec52│
│ │0d08856ba15d09124162034d9d9951da63bc1e9c9f636bd72f88e7cb74e319639d2962262b912bab5│
│ │3691edb83e7d9121881a776ab580d57c99af0339ff70140b09e3f2ed3d23fee08ff0f114-15d16c98│
│ │0b7422e1b14168cda76186108ca3ed8983befe38d3674f32d0eaefce896fb05186107c2334e114ece│
│ │629530bac377fe5dfd37347113c4b0de7caa84cdd16b29aae4e627fcf0b54c38502dabed553500da7│
│ │0d5a777b9d891f059a96cd4fda388bea1df94bc3187a6355e718ac88549b3bc6d2438f4c8a20dbb0c│
│ │9e190-2620129bf693bb3831ef74ac382d14428d195efde44b3980d5852a3ad34daef7e76b8cd10d9│
│ │fec46755bc412fc959bef4954267c23b3d6fea117c77389e558ff08f6b0a82d0b412a26bf681f2ae3│
│ │a888169ca7492fe99761b4494d7ffecd4e46c95fa64f69a29a6e972032f50c49428b2494c778bd3e9│
│ │76b9dd455543dde7278-449ac65fe58f26949e5d5888e9400a40a2a951f5c67082dd4e8de616c1f6f│
│ │1980a0bbabf6572063eceb60b7df28c9829d996d2fe3de760f364d9c454ea60d6724452e4066a6dae│
│ │9c9452160e773ab3fb2b06963d525e064bf6a4d6fdaca6e5cc8d0f1209cc7625d6366efbe160f6323│
│ │edfd2b62bf4a79265caf1e9cb3e7a307c-640298e0834b2572fe0cc1b6358565150f8a45b96c034aa│
│ │b66e5a4269b0ee9f4b3713d75d4556d3446877952e3b9457108b24b967f35fbd5afd9aeafb583d901│
│ │743ae97c39c121187297d5fa50a51a56d4820b896a48fc9a063cec9d1ad57dd77db170d49374e682c│
│ │105d24f11c5f868bf690a5eada939c4e5cb39ccafa7b05a-005f2326df40e72da954748f73e36c122│
│ │3bf744e5310579256fce54ae3df88accf9f61d5960ded55cb5b8075c10265bcd0fba2186308a2a1c3│
│ │7dc233a16d398416819f073515e831bfcf308359d870e0969f81e8dcb4739ae5023aedb1bd0c21b4e│
│ │cf5e90961ca482420e18203d7edb52ce10bdc9fe3da268085bc47433d00bf"}] │
│system_geo_options\timers\migrate │true │
│msr_registrar\site │[{site,<<"local">>,[{site_edge,<<"local">>,0}]}] │
│ecss_cm\system_trace_options\mode │full_compressed │
│aaa_options\interim_interval\migrate │true │
│ecss_cm\system_options\call_limit │50 │
│msr_registrar\zone │[{zone,<<"default">>}] │
│ecss_cm\system_trace_options\backend │trace_tool_dets │
│oct_timers\discriptions_property\migrate│true │
│licence_parameters\token │"ddf96ecce552efcee2cdc365f4e6a4bd8a53ec9e971acf07c934f8a26dd9eafe8f2ba4dd651a493d│
│ │5c9a863ec5ae46cc62ad27db98cc47a0b29f33b958c8f5ed8dde34eb4c4febb9a58e1e0ec5d9f687a│
│ │754daa0959a0a09855a575fea14e5b87b7c090ed6ab1b415e0f1167996c07f0b7ed7d4508bcabca79│
│ │e382a7bad37088-8a8a870e066bf835f9ce91ff674b981fd474b1cc5c58cff78dc4ebbf0edba72a4d│
│ │2e760cab93719cfd1426df8e6fec9c0573f9474b50a3d22ac13869cc16c98744d57ad845f34fb708e│
│ │d81e7b4bc76a969905280d336679819bb191898eebeb1b99945aa74a17dbed1c239f62c3d543e650f│
│ │9b48379af8bc3a1ea821a5267a63-3d3011f1296f43413fd0e5dfcdd01dd7968211db6bfdb19cd899│
│ │e06463fa298d564a7f0a4f6dc61c83f191c117e5d1ab7696e81600ea03ee5a455506ca8cba3190029│
│ │600b19830d81a5fba30ad42ef21c90f27b1912fb8e3ca5699a0cefc107000a15b5d37ada58ce78192│
│ │368c9d03ea9845ef24e23ff07bf7e450fc566b8486-7c7ba7df1e45701e86d79532adcb7e282e4177│
│ │055550e82924ffd7ebc9df2e90c591d5282b22b71ed3b8b8156bf9c36fe537031734437c2c24577ab│
│ │7405dfa825c8557e13f03fc400d08de239477b2cbbe4bdb5c01de358cf4c26f9e29f32b22ea2f4d5b│
│ │3e6e8d882358a8e300805982762e04d356c27f787949234fcf11066f" │
│ds_data_cleaner\migrated_versions │["3.11.0","3.9.0","3.9.1"] │
└────────────────────────────────────────┴─────────────────────────────────────────────────────────────────────────────────┘
[exec at: 19.10.2019 21:03:18, exec time: 109ms, nodes: ds1@ecss1]
admin@mycelium1@ecss1:/$ |
В данном разделе описана подготовка SSL-сертификатов для подключения к HTTP-терминалу. По умолчанию HTTP-терминал работает по протоколу HTTP.
Чтобы использовать более безопасное соединение HTTPS, необходимо использовать SSL-сертификат(по умолчанию уже сгенерированный в системе).
Для создания нового сертификата:
Нужно сгенерировать RSA-ключ, на основе которого будет сгенерирован SSL-сертификат. В консоли ОС Linux необходимо выполнить команды:
openssl genrsa -des3 -out http_terminal.key 4096 openssl req -new -x509 -days 365 -key http_terminal.key -out http_terminal.crt
Генерация ключа может занять до 30 секунд.
По завершении генерации ключа будет запущена генерация сертификата.
Во время генерации сертификата необходимо указать дополнительную информацию: страна, имя компании и другое.
Параметр "секретная фраза" используется в качестве пароля для сертификата, параметр потребуется для конфигурирования HTTP-терминала.Переместить сгенерированные файлы "http_terminal.key" и "http_terminal.crt" в папку /etc/ecss/ssl.
Нужно проверить, что пользователь ssw имеет права доступа к данным файлам.
Далее нужно подключиться к командной консоли ECSS-10 и выполнить настройку параметров сервиса http terminal кластера mediator.
Команда для подключения к консоли ECSS-10:
ssh admin@localhost -p 8023
Команды настройки параметров сервиса http terminal:
cluster/mediator/<NODE>/properties/cocon_http_terminal/set * ssl_keyfile /etc/ecss/ssl/http_terminal.keycluster/mediator/<NODE>/properties/cocon_http_terminal/set * ssl_certfile /etc/ecss/ssl/http_terminal.crtcluster/mediator/<NODE>/properties/cocon_http_terminal/set * ssl_password <PASSWORD>
где
<NODE> - имя ноды с ролью mediator;
<PASSWORD> - секретная фраза.
Для применения настроек необходимо перезапустить службу http terminal кластера mediator командами:
/node/<NODE>/service http-terminal stop/node/<NODE>/service http-terminal start
где
<NODE> - имя ноды с ролью mediator.
Пример:
admin@mycelium1@ecss1:/$ cluster/mediator/md1/properties/cocon_http_terminal/set md1@ecss1 http_server_port 9999 Property "http_server_port" successfully changed from: 9999 to 9999. [exec at: 19.10.2019 20:57:19, exec time: 208ms, nodes: md1@ecss2] |
Для более тонкой настройки кластера смотрите раздел 3.14.0 Тонкая настройка системы.
Для кластеров с ролью CORE все необходимые для работы значения параметров устанавливаются по умолчанию.
Для более тонкой настройки кластера смотрите раздел 3.14.0 Тонкая настройка системы.
Конфигурирование параметров, необходимых для работы кластера PA_SIP, перенесено на уровень виртуальных АТС.
Для кластер PA_SIP все необходимые для работы значения параметров установлены изначально по умолчанию.
Для тонкой настройки кластера смотрите раздел 3.14.0 Тонкая настройка системы.
Запуск должен осуществляться от имени суперпользователя (для этого используется команда sudo) в операционной системе Linux. Сначала нужно выйти из командной консоли управления CLI, используя команду exit.
Данные ноды должны быть уже запущены перед конфигурированием кластеров:
sudo systemctl start ecss-mycelium.service sudo systemctl start ecss-ds.service
Рекомендуемая последовательность запуска остальных нод:
sudo systemctl start ecss-core.service sudo systemctl start ecss-pa-sip.service sudo systemctl start ecss-mediator.service sudo systemctl start ecss-restfs.service sudo systemctl start ecss-web-conf.service sudo systemctl start ecss-media-server.service sudo systemctl start ecss-subscriber-portal.service sudo systemctl start ecss-cc-ui.service
Данные ноды необходимо запустить в случае, если они используются:
sudo systemctl start ecss-pa-megaco.service
Остановка запущенных нод выполняется в следующем порядке:
sudo systemctl stop ecss-subscriber-portal.service sudo systemctl stop ecss-web-conf.service sudo systemctl stop ecss-media-server.service sudo systemctl stop ecss-pa-megaco.service sudo systemctl stop ecss-pa-sip.service sudo systemctl stop ecss-restfs.service sudo systemctl stop ecss-core.service sudo systemctl stop ecss-mediator.service sudo systemctl stop ecss-ds.service sudo systemctl stop ecss-mycelium.service sudo systemctl start ecss-cc-ui.service
Для запроса состояния ноды используются следующие команды:
sudo systemctl status ecss-mycelium.service sudo systemctl status ecss-ds.service sudo systemctl status ecss-core.service sudo systemctl status ecss-pa-sip.service sudo systemctl status ecss-mediator.service sudo systemctl status ecss-megaco.service sudo systemctl status ecss-restfs.service sudo systemctl status ecss-web-conf.service sudo systemctl status ecss-media-server.service sudo systemctl status ecss-subscriber-portal.service sudo systemctl status ecss-cc-ui.service
Параметры можно настроить как для всех кластеров заданного типа, зарегистрированных на данном кластере хранения долговременных данных (DS), так и выполнить индивидуальные настройки для определенного кластера.
Для нормальной работы системы используемые кластера должны быть активными. При декларации по умолчанию кластер создается активным. Если нет необходимости изменять статус на "не активен", пропустите данный пункт настройки кластера. Описание команд приведено в разделе 3.14.0 Справочник команд CLI.
После запуска ноды нужно подключиться к командной консоли CLI под пользователем admin.
Пароль по умолчанию: password.
Команда для подключения к командной консоли CLI:
ssh admin@localhost -p 8023
Для проверки запущенных нод необходимо выполнить команду:
/node/check-services
Данная команда показывает ноды, которые удачно запущены на ECSS-10. В одной строке указываются ноды, которые находятся в кластере.
Пример:
admin@mycelium1@ecss1:/$ node/check-services
Nodes:
core1@ecss1 core1@ecss2
ds1@ecss1 ds1@ecss2
md1@ecss1 md1@ecss2
megaco1@ecss1 megaco1@ecss2
mycelium1@ecss1 mycelium1@ecss2
sip1@ecss1 sip1@ecss2
All services are started
[exec at: 19.10.2019 19:17:52, exec time: 1s 751ms, nodes: core1@ecss1,core1@ecss2,ds1@ecss1,ds1@ecss2,md1@ecss1,md1@ecss2,megaco1@ecss1,megaco1@ecss2,mycelium1@ecss1,mycelium1@ecss2,sip1@ecss1,sip1@ecss2] |
В данном примере видно, что каждый кластер содержит по две ноды, которые запущены соответственно на хостах ecss1 и ecss2.
Пример:
Проверить, что ноды "видят" друг друга:
admin@mycelium1@ecss1:/$ node/nodes-info ┌───────────────┬───────────────────────────────┬───────────────────────────┐ │ Node │ Erlang │ Mnesia │ ├───────────────┼───────────────────────────────┼───────────────────────────┤ │core1@ecss1 │core1@ecss1,core1@ecss2 │not running │ │core1@ecss2 │core1@ecss1,core1@ecss2 │not running │ │ds1@ecss1 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ │ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ │md1@ecss1 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │ │md1@ecss2 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │ │megaco1@ecss1 │megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│ │megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│ │mycelium1@ecss1│mycelium1@ecss1,mycelium1@ecss2│not running │ │mycelium1@ecss2│mycelium1@ecss1,mycelium1@ecss2│not running │ │sip1@ecss1 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │ │sip1@ecss2 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │ └───────────────┴───────────────────────────────┴───────────────────────────┘ [exec at: 19.10.2019 19:16:08, exec time: 1s 895ms, nodes: core1@ecss1,core1@ecss2,ds1@ecss1,ds1@ecss2,md1@ecss1,md1@ecss2,megaco1@ecss1,megaco1@ecss2,mycelium1@ecss1,mycelium1@ecss2,sip1@ecss1,sip1@ecss2] |
или командой system-status:
admin@mycelium1@ecss1:/$ system-status Checking... ┌─┬───────────────┬────────────────────────┬───────────────────────────────┬───────────────────────────┬────────┐ │ │ Node │ Release │ Erlang nodes │ Mnesia nodes │ Uptime │ ├─┼───────────────┼────────────────────────┼───────────────────────────────┼───────────────────────────┼────────┤ │ │core1@ecss1 │ecss-core-3.14.2.62 │core1@ecss1,core1@ecss2 │not running │21h 28m │ │ │core1@ecss2 │ecss-core-3.14.2.62 │core1@ecss1,core1@ecss2 │not running │5h 7m │ │ │ds1@ecss1 │ecss-ds-3.14.2.62 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │21h 28m │ │ │ds1@ecss2 │ecss-ds-3.14.2.62 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │5h 7m │ │ │md1@ecss1 │ecss-mediator-3.14.2.62 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │21h 28m │ │ │md1@ecss2 │ecss-mediator-3.14.2.62 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │5h 7m │ │ │megaco1@ecss1 │ecss-pa-megaco-3.14.2.55│megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│3d 4h 8m│ │ │megaco1@ecss2 │ecss-pa-megaco-3.14.2.62│megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│5h 7m │ │ │mycelium1@ecss1│ecss-mycelium-3.14.2.62 │mycelium1@ecss1,mycelium1@ecss2│not running │21h 28m │ │ │mycelium1@ecss2│ecss-mycelium-3.14.2.62 │mycelium1@ecss1,mycelium1@ecss2│not running │5h 7m │ │ │sip1@ecss1 │ecss-pa-sip-3.14.2.62 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │21h 28m │ │ │sip1@ecss2 │ecss-pa-sip-3.14.2.62 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │5h 7m │ └─┴───────────────┴────────────────────────┴───────────────────────────────┴───────────────────────────┴────────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────┬──────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────┼──────────┼───────────┼───────────┤ │ core1@ecss1 │ msr_1 │ 3.14.2.7 │ connected │ 08:04:00 │ │ │ msr_2 │ 3.14.2.7 │ connected │ 05:06:26 │ │ core1@ecss2 │ msr_1 │ 3.14.2.7 │ connected │ 05:05:37 │ │ │ msr_2 │ 3.14.2.7 │ connected │ 05:05:34 │ └─────────────┴───────┴──────────┴───────────┴───────────┘ Alarms list on md1: ┌───────────┬────────┬───────────┬─────────────┬────────────────┬───────────┬──────────────────────┐ │ Date │Severity│ Location │ Cause │ Class │ Instance │ Message │ ├───────────┼────────┼───────────┼─────────────┼────────────────┼───────────┼──────────────────────┤ │19.10 17:15│critical│core1@ecss1│softwareError│ecss::system::lo│core1@ecss1│Error log data updated│ │:35 │ │ │ │g │ │ │ └───────────┴────────┴───────────┴─────────────┴────────────────┴───────────┴──────────────────────┘ Selected: 1 Total: 1 |
После запуска ноды нужно подключиться к командной консоли CLI под пользователем admin.
Пароль по умолчанию: password.
Команда для подключения к командной консоли CLI:
ssh admin@localhost -p 8023
Для проверки запущенных нод необходимо выполнить команду:
/node/check-services
Данная команда показывает ноды, которые удачно запущены на ECSS-10. В одной строке указываются ноды, которые находятся в кластере.
Пример:
admin@mycelium1@ecss1:/$ node/check-services
Nodes:
core1@ecss1 core1@ecss2
ds1@ecss1 ds1@ecss2
md1@ecss1 md1@ecss2
megaco1@ecss1 megaco1@ecss2
mycelium1@ecss1 mycelium1@ecss2
sip1@ecss1 sip1@ecss2
All services are started
[exec at: 19.10.2019 19:17:52, exec time: 1s 751ms, nodes: core1@ecss1,core1@ecss2,ds1@ecss1,ds1@ecss2,md1@ecss1,md1@ecss2,megaco1@ecss1,megaco1@ecss2,mycelium1@ecss1,mycelium1@ecss2,sip1@ecss1,sip1@ecss2] |
В данном примере видно, что каждый кластер содержит по две ноды, которые запущены соответственно на хостах ecss1 и ecss2.
Пример:
Проверить, что ноды "видят" друг друга:
admin@mycelium1@ecss1:/$ node/nodes-info ┌───────────────┬───────────────────────────────┬───────────────────────────┐ │ Node │ Erlang │ Mnesia │ ├───────────────┼───────────────────────────────┼───────────────────────────┤ │core1@ecss1 │core1@ecss1,core1@ecss2 │not running │ │core1@ecss2 │core1@ecss1,core1@ecss2 │not running │ │ds1@ecss1 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ │ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │ │md1@ecss1 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │ │md1@ecss2 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │ │megaco1@ecss1 │megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│ │megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│ │mycelium1@ecss1│mycelium1@ecss1,mycelium1@ecss2│not running │ │mycelium1@ecss2│mycelium1@ecss1,mycelium1@ecss2│not running │ │sip1@ecss1 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │ │sip1@ecss2 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │ └───────────────┴───────────────────────────────┴───────────────────────────┘ [exec at: 19.10.2019 19:16:08, exec time: 1s 895ms, nodes: core1@ecss1,core1@ecss2,ds1@ecss1,ds1@ecss2,md1@ecss1,md1@ecss2,megaco1@ecss1,megaco1@ecss2,mycelium1@ecss1,mycelium1@ecss2,sip1@ecss1,sip1@ecss2] или командой system-status: admin@mycelium1@ecss1:/$ system-status Checking... ┌─┬───────────────┬────────────────────────┬───────────────────────────────┬───────────────────────────┬────────┐ │ │ Node │ Release │ Erlang nodes │ Mnesia nodes │ Uptime │ ├─┼───────────────┼────────────────────────┼───────────────────────────────┼───────────────────────────┼────────┤ │ │core1@ecss1 │ecss-core-3.14.2.62 │core1@ecss1,core1@ecss2 │not running │21h 28m │ │ │core1@ecss2 │ecss-core-3.14.2.62 │core1@ecss1,core1@ecss2 │not running │5h 7m │ │ │ds1@ecss1 │ecss-ds-3.14.2.62 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │21h 28m │ │ │ds1@ecss2 │ecss-ds-3.14.2.62 │ds1@ecss1,ds1@ecss2 │ds1@ecss1,ds1@ecss2 │5h 7m │ │ │md1@ecss1 │ecss-mediator-3.14.2.62 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │21h 28m │ │ │md1@ecss2 │ecss-mediator-3.14.2.62 │md1@ecss1,md1@ecss2 │md1@ecss1,md1@ecss2 │5h 7m │ │ │megaco1@ecss1 │ecss-pa-megaco-3.14.2.55│megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│3d 4h 8m│ │ │megaco1@ecss2 │ecss-pa-megaco-3.14.2.62│megaco1@ecss1,megaco1@ecss2 │megaco1@ecss1,megaco1@ecss2│5h 7m │ │ │mycelium1@ecss1│ecss-mycelium-3.14.2.62 │mycelium1@ecss1,mycelium1@ecss2│not running │21h 28m │ │ │mycelium1@ecss2│ecss-mycelium-3.14.2.62 │mycelium1@ecss1,mycelium1@ecss2│not running │5h 7m │ │ │sip1@ecss1 │ecss-pa-sip-3.14.2.62 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │21h 28m │ │ │sip1@ecss2 │ecss-pa-sip-3.14.2.62 │sip1@ecss1,sip1@ecss2 │sip1@ecss1,sip1@ecss2 │5h 7m │ └─┴───────────────┴────────────────────────┴───────────────────────────────┴───────────────────────────┴────────┘ All services are started. Active media resource selected list specific: ┌─────────────┬───────┬──────────┬───────────┬───────────┐ │ Node │ MSR │ MSR │ Cc-status │ Cc-uptime │ │ │ │ version │ │ │ ├─────────────┼───────┼──────────┼───────────┼───────────┤ │ core1@ecss1 │ msr_1 │ 3.14.2.7 │ connected │ 08:04:00 │ │ │ msr_2 │ 3.14.2.7 │ connected │ 05:06:26 │ │ core1@ecss2 │ msr_1 │ 3.14.2.7 │ connected │ 05:05:37 │ │ │ msr_2 │ 3.14.2.7 │ connected │ 05:05:34 │ └─────────────┴───────┴──────────┴───────────┴───────────┘ Alarms list on md1: ┌───────────┬────────┬───────────┬─────────────┬────────────────┬───────────┬──────────────────────┐ │ Date │Severity│ Location │ Cause │ Class │ Instance │ Message │ ├───────────┼────────┼───────────┼─────────────┼────────────────┼───────────┼──────────────────────┤ │19.10 17:15│critical│core1@ecss1│softwareError│ecss::system::lo│core1@ecss1│Error log data updated│ │:35 │ │ │ │g │ │ │ └───────────┴────────┴───────────┴─────────────┴────────────────┴───────────┴──────────────────────┘ Selected: 1 Total: 1 [exec at: 19.10.2019 19:20:14, exec time: 4s 360ms, nodes: core1@ecss1,core1@ecss2,ds1@ecss1,ds1@ecss2,md1@ecss1,md1@ecss2,megaco1@ecss1,megaco1@ecss2,mycelium1@ecss1,mycelium1@ecss2,sip1@ecss1,sip1@ecss2] |
Состав и конфигурация кластеров в системе определяется лицензией ECSS-10.
Настройка параметров кластера выполняется в приложении WEB-конфигуратора "Clusters" ("Кластеры").
Настройка параметров кластеров через WEB-конфигуратор описана в разделе 3.14.0 Кластеры (Clusters).
После выполнения настроек нужно выполнить запуск ноды, описание приведено в разделе Запуск и остановка ноды ECSS-10.
После запуска нод нужно выполнить проверку вхождения нод в кластер, описание приведено в разделе Проверка вхождения ноды в кластер.