Создаем требуемые папки
Блок кода |
---|
mkdir /home/support/1.33 chmod 0755 /home/support/1.33 mkdir /home/support/kubernetes/ chmod 0755 /home/support/kubernetes mkdir /home/support/1.33/docker chmod 0755 /home/support/1.33/docker |
Закачиваем папку docker в /home/support/1.33/ и содержимое папки k8s-latest в /home/support/kubernetes/ из \\ukm5-fs\builds\mintukm-server\release.
Проверка сетевых адаптеров и настройка DNS
Интерфейс eth0 внутренняя сеть клиента, статический.
Примечание |
---|
не Не должен начинаться на 172.17, 172.18, 10.0 - 0 – на эти адреса завязана работа внутри кубов. |
Интерфейс eth1 (172.17.8.101) должен быть подключен в изолированную сеть (DMZ).
Интерфейс docker0 автоматический.
Настраиваем DNS в докере, чтобы сервер нормально общался в сети клиента со службами внутри себя и вне себя:
Блок кода |
---|
sudo mcedit /etc/systemd/system/docker.service.d/docker-dns.conf |
Если у клиента нет своих DNS-серверов, можно оставить общедоступные:
Информация | ||
---|---|---|
| ||
[Service] |
10.100.0.3 - 3 – системный кубовый днсDNS, этот параметр не менять.
Пример правильной настроенной сети:
Информация | ||
---|---|---|
| ||
docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500 eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 |
Настройка второго диска
пропускаемПропускаем, если диск один.
Раскрыть |
---|
Диск (следующие пункты нужны, если система будет на втором диске - диске – "боевой" сервер).
Форматирование диска: fdisk /dev/sdb Формат раздела (создастся раздел LVM на все свободное пространство примонтированного диска) -------------------------- Примонтировать диск и перенести данные (оригинальный раздел дата передет перейдет на новый диск). sudo mv /data /data.orig Перезагрузка сервера |
Проверка запуска MariaDB и установка HAproxy
Блок кода |
---|
sudo systemctl restart mariadb sudo systemctl enable mariadb sudo systemctl status mariadb |
1. Устанавливаем HAproxy (чтобы видеть айпишники касс):
Блок кода |
---|
cd /opt/compose sudo yum install haproxy |
2. Копируем конфиг текущего HAproxy в свежеустановленный (перезаписать файл, при необходимости):
Блок кода |
---|
sudo cp /opt/compose/cfg/haproxy/haproxy.cfg /etc/haproxy/haproxy.cfg |
3. Останавливаем Docker-Compose:
Блок кода |
---|
sudo docker-compose down |
4. В текущем файле /etc/haproxy/haproxy.cfg комментируем кусок про frontend stats (c 216 строки до конца):
Блок кода |
---|
sudo mcedit /etc/haproxy/haproxy.cfg |
4. Проверяем текущий конфиг HAproxy на валидность:
Блок кода |
---|
haproxy -c -f /etc/haproxy/haproxy.cfg |
ответ - Ответ – Configuration file is valid.
Если есть ошибки - ошибки – смотрим, чем вызваны, правим, проверяем снова.
5. Запускаем HAproxy:
Блок кода |
---|
sudo systemctl start haproxy sudo systemctl status haproxy |
6. Удаляем DC из автозагрузки:
Блок кода |
---|
sudo mcedit /opt/compose/docker-compose.yaml |
Меняем параметр restart на no:
Информация |
---|
restart: 'no' |
и сохраняем Сохраняем файл. При следующей загрузке dockerзагрузке Docker-compose Compose не стартует контейнер с HAproxy.
7. Добавляем хапрокси Добавляем HAproxy в загрузку:
Блок кода |
---|
sudo systemctl enable haproxy |
Разворачивание экосистемы
Блок кода |
---|
cd /opt/ecosystem sh _create-ecosystem.sh |
ждать Требуется ожидать установки и смотреть вывод статуса служб:
Информация |
---|
kubectl get pods -A kubectl get pods -A -o wide |
prometheus Prometheus не нужен, если что его можно его удалить (или если он не работает)удалить.
Настройка внешнего доступа к kafka
Отредактируйте файл kube-configmap.yaml:
Блок кода |
---|
sudo mcedit /opt/ecosystem/kafka/kube-configmap.yaml |
Вписать Нужно вписать актуальный IP/FQDN клиентского укм5 сервера УКМ5 eth0 в соответствующих строчках:
Информация | ||
---|---|---|
| ||
data: KAFKA_CFG_ADVERTISED_HOST_NAME: "ip-сервера или dns-hostname" KAFKA_CFG_ADVERTISED_LISTENERS: "INTERNAL://:9093,CLIENT://:9092,EXTERNAL://ip-сервера или dns-hostname:39094" |
Блок кода |
---|
cd /opt/ecosystem/kafka/ sh _restart-kafka-zookeeper.sh |
Загружаем докеры:
Блок кода |
---|
cd /home/support/1.33/docker/ |
Блок кода |
---|
sudo docker load < admin-impl-1.33.5 sudo docker load < clickhouse-1.33.5 sudo docker load < converters_service-1.33.5 sudo docker load < db-migration-srvdata-1.33.5 sudo docker load < db-migration-srvsales-1.33.5 sudo docker load < export-doc-api-1.33.5 sudo docker load < flush-queue-1.33.5 sudo docker load < frontend-1.33.5 sudo docker load < import-doc-api-1.33.5 sudo docker load < import-export-api-1.33.5 sudo docker load < jsreport-1.33.5 sudo docker load < licensing-impl-1.33.5 sudo docker load < login-impl-1.33.5 sudo docker load < logs_cleaner-1.33.5 sudo docker load < monitoring-impl-1.33.5 sudo docker load < ntp_timezones-1.33.5 sudo docker load < pos_agent-1.33.5 sudo docker load < public-api-1.33.5 sudo docker load < receipts_cutter-1.33.5 sudo docker load < receipt-search-appender-1.33.5 sudo docker load < receipt-search-cleaner-1.33.5 sudo docker load < report-data-pump-1.33.5 sudo docker load < tradedata_processing-1.33.5 sudo docker load < transport_service_nginx-1.33.5 sudo docker load < transport_service-1.33.5 |
Необходимо отредактировать транспорт - транспорт – DOWNLOAD_URL_PREFIX, заменить ukm5-qa-server на ukm5-server:
Блок кода |
---|
sudo mcedit /home/support/kubernetes/configmap-common/configmap-common.yaml |
Если используется TM ( модуль интеграции) - – отредактировать PRODUCE_ITEMS_DOCUMENT: "false", иначе – true:
Блок кода |
---|
sudo mcedit /home/support/kubernetes/tradedata-processing-import/configmap.yaml |
Блок кода |
---|
sudo su cd /home/support/kubernetes ./_start-base.sh |
Запускаем и ждем ~10-50 минут.