Кассовый сервер УКМ 5 представляет собой средство управления настройками касс и функционально описан здесь.
Перед установкой кассового сервера, необходимо развернуть сервер на ESXI 6.5 1 , соответствующий рекомендуемым системным требованиям тестового сервера:
- 6 ядер CPU;
- 20gb 22gb ОЗУ (доступную через команду htop);
- 100gb жесткий диск;
- 2 сетевых интерфейса:
- eth0 – интерфейс выхода в локальную сеть,
- eth1 – должен быть присвоен адрес 172.17.*.* (виртуальная сеть, без выхода в локальную сеть), если сеть настроена правильно - адрес присвоится автоматически, ;
- доступ в интернет Интернет на момент установки.
Скорость дисков при проверке командой hdparm -tT должна быть не ниже Timing buffered disk reads 380 MB/sec (без нагрузки).
Сервер должен находиться в одной локальной сети с кассами.
Серверная часть кассовой программы, а также программное обеспечение кассовых терминалов полноценно функционируют на ОС Linux, включая x64/x86 debian-based.
Необходимо предоставить дуплексный доступ кассового сервера УКМ5 УКМ 5 к серверу лицензирования через интернет по протоколу HTTPS с пропускной способностью не менее 24 кбайт/сек (приблизительно) на порт 15002.
По окончании После разворачивания сервера, пароль и логин будут доступны в интерфейсе программы виртуализации.виртуальной машины, необходимо подключиться к ней по ssh с помощью утилиты putty или аналогичной.
Логин и пароль нужно запросить у представителя технической поддержки.
Далее, с помощью проводника (mc) или командной строки создаем следующие каталоги:
Создаем требуемые папки:
Блок кода |
---|
mkdir /home/supportopt/ukm5-server chmod 0755 /home/support/ukm5-server mkdir /home/support/kubernetes/ chmod 0755 /home/support/kubernetes mkdir /home/support/ukm5-server/docker chmod 0755 /home/support/ukm5-server/docker |
1.37 |
Закачиваем архив docker-1.37.2.zip в /home/support/ukm5-server/ и содержимое папки k8s-latest 1.37/ и архив kubernetes-1.37.2.tgz в /home/support/kubernetes/ из \\ukm5-fs\builds\mintukm-server\release.1.37/ с нашего ftp
Проверка сетевых адаптеров и настройка DNS
Интерфейс eth0 – внутренняя сеть клиента, статический.
Примечание |
---|
Не должен начинаться на 172.17, 172.18, 10.0 – на эти адреса завязана работа внутри кубов. |
Интерфейс eth1 (172.17.8.101) должен быть подключен в изолированную сеть (DMZ).
Интерфейс docker0 – автоматический.
Настраиваем DNS в докере, чтобы сервер нормально общался в сети клиента со службами внутри себя и вне себя:
Блок кода |
---|
sudo mcedit /etc/systemd/system/docker.service.d/docker-dns.conf |
Если у клиента нет своих DNS-серверов, можно оставить общедоступные:
Информация | ||
---|---|---|
| ||
[Service] |
10.100.0.3 – системный кубовый DNS, этот параметр нельзя менять.
Пример правильной настроенной сети:
Информация | ||
---|---|---|
| ||
docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500 eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 |
Предупреждение |
---|
Если на данном этапе не удается получить указанный вывод сетевых интерфейсов, необходимо обратиться к представителю технической поддержки! |
Настройка второго диска
Пропускаем этот пункт, если диск один.
Раскрыть |
---|
Диск (следующие пункты нужны, если система будет на втором диске – "боевой" сервер).
Форматирование диска: fdisk /dev/sdb Формат раздела (создастся раздел LVM на все свободное пространство примонтированного диска). -------------------------- partprobe Необходимо примонтировать диск и перенести данные (оригинальный раздел дата перейдет на новый диск). sudo mv /data /data.orig Перезагрузка сервера |
Проверка запуска MariaDB и установка HAproxy
Блок кода |
---|
sudo systemctl restart mariadb sudo systemctl enable mariadb sudo systemctl status mariadb |
1. Устанавливаем HAproxy (чтобы видеть IP-адреса касс):
Блок кода |
---|
cd /opt/compose sudo yum install haproxy |
2. Копируем конфиг текущего HAproxy в свежеустановленный (перезаписать файл, при необходимости):
Блок кода |
---|
sudo cp /opt/compose/cfg/haproxy/haproxy.cfg /etc/haproxy/haproxy.cfg |
3. Останавливаем Docker-Compose:
Блок кода |
---|
sudo docker-compose down |
4. В текущем файле /etc/haproxy/haproxy.cfg комментируем кусок про frontend stats (c 216 строки до конца):
Блок кода |
---|
sudo mcedit /etc/haproxy/haproxy.cfg |
5. Проверяем текущий конфиг HAproxy на валидность:
Блок кода |
---|
haproxy -c -f /etc/haproxy/haproxy.cfg |
Ответ – Configuration file is valid.
Если есть ошибки – смотрим, чем вызваны, правим, проверяем снова.
6. Запускаем HAproxy:
Блок кода |
---|
sudo systemctl start haproxy sudo systemctl status haproxy |
7. Удаляем Docker-Compose из автозагрузки:
Блок кода |
---|
sudo mcedit /opt/compose/docker-compose.yaml |
Меняем параметр restart на no:
Информация |
---|
restart: 'no' |
Сохраняем файл. При следующей загрузке Docker-Compose не стартует контейнер с HAproxy.
8. Добавляем HAproxy в загрузку:
Блок кода |
---|
sudo systemctl enable haproxy |
Разворачивание экосистемы
Блок кода |
---|
cd /opt/ecosystem sh _create-ecosystem.sh |
Ожидаем установки и смотрим вывод статуса служб:
Информация |
---|
kubectl get pods -A kubectl get pods -A -o wide |
Prometheus не нужен, его можно удалить.
Настройка внешнего доступа к kafka
Редактируем файл kube-configmap.yaml:
Блок кода |
---|
sudo mcedit /opt/ecosystem/kafka/kube-configmap.yaml |
Нужно вписать актуальный IP/FQDN клиентского сервера УКМ 5 eth0 в соответствующих строчках:
Информация | ||
---|---|---|
| ||
data: KAFKA_CFG_ADVERTISED_HOST_NAME: "ip-сервера или dns-hostname" KAFKA_CFG_ADVERTISED_LISTENERS: "INTERNAL://:9093,CLIENT://:9092,EXTERNAL://ip-сервера или dns-hostname:39094" |
Блок кода |
---|
cd /opt/ecosystem/kafka/ sh _restart-kafka-zookeeper.sh |
Загружаем докеры:
Распаковываем архив docker-1.37.2.zip в каталог /home/support/1.37 (пароль на архив: 12345):
Блок кода |
---|
cd /home/support/ukm5-server/docker/1.37 ENTER unzip docker-1.37.2.zip |
Блок кода |
---|
sudo docker load < admin-impl-<!!!VERSION!!!>1.37.2 sudo docker load < clickhouse-<!!!VERSION!!!> sudo docker load < converters_service-<!!!VERSION!!!>1.37.2 sudo docker load < db-migration-srvdata-<!!!VERSION!!!>1.37.2 sudo docker load < db-migration-srvsales-<!!!VERSION!!!> sudo docker load < export-doc-api-<!!!VERSION!!!>1.37.2 sudo docker load < flush-queue-<!!!VERSION!!!>1.37.2 sudo docker load < frontend-<!!!VERSION!!!>1.37.2 sudo docker load < import-doc-api-<!!!VERSION!!!> sudo docker load < import-export-api-<!!!VERSION!!!>1.37.2 sudo docker load < jsreport-<!!!VERSION!!!>1.37.2 sudo docker load < licensing-impl-<!!!VERSION!!!>1.37.2 sudo docker load < login-impl-<!!!VERSION!!!>1.37.2 sudo docker load < logs_cleaner-<!!!VERSION!!!>1.37.2 sudo docker load < monitoring-impl-<!!!VERSION!!!>1.37.2 sudo docker load < ntp_timezones-<!!!VERSION!!!>1.37.2 sudo docker load < pos_agent-<!!!VERSION!!!>1.37.2 sudo docker load < public-api-<!!!VERSION!!!>1.37.2 sudo docker load < receipts_cutter-<!!!VERSION!!!>1.37.2 sudo docker load < receipt-search-appender-<!!!VERSION!!!>tradedata_processing-1.37.2 sudo docker load < receipt-search-cleaner-<!!!VERSION!!!> sudo docker load < report-data-pump-<!!!VERSION!!!> sudo docker load < tradedata_processing-<!!!VERSION!!!>transport_service-1.37.2 sudo docker load < transport_service_nginx-<!!!VERSION!!!> sudo docker load < transport_service-<!!!VERSION!!!> |
1.37.2 |
Проверить загруженные контейнеры можно с помощью команды:
sudo docker images
Далее распаковываем архив kubernetes-1.37.2.tgz в /opt/ukm5-server/:
Вносим в конфигурационные файлы следующие изменения:
Необходимо отредактировать параметр DOWNLOAD_URL_PREFIX, заменить ukm5-qa-server на ukm5-server (или ваше FQDN имя сервера):
Блок кода |
---|
sudo mcedit /homeopt/supportukm5-server/kubernetes/configmap-common/configmap-common.yaml |
Если используется TM (модуль интеграции) – нужно отредактировать Изменяем параметр: PRODUCE_ITEMS_DOCUMENT: false, иначе – DOCUMENT значение с false на true:
Блок кода |
---|
sudo mcedit /homeopt/supportukm5-server/kubernetes/tradedata-processing-import/configmap.yaml |
Далее запускаем установку базовых служб сервера скриптом _start-base.sh:
Блок кода |
---|
sudo su cd /homeopt/supportukm5-server/kubernetes ./_start-base.sh |
Запускаем и ждем ~10-50 минут.
Следить за установкой сервера можно из параллельного окна putty следующей командой:
kubectl get pods -A
Службы должны запускаться и быть в состоянии Running 1/1:
После успешного завершения работы скрипта _start-base.sh станет доступен интерфейс администратора сервера по адресу: http://<ip_адрес_вашего_сервера>/:
Также будет доступна Kibana для просмотра логов сервера по адресу http://<ip_адрес_вашего_сервера>:5601:
Предупреждение |
---|
Если на данном этапе какая-либо из этих страниц не открывается, необходимо обратиться к представителю технической поддержки! |