Балансировка запросов к роутерам через Java-коннектор | Tdb

Версия:

1.x
Руководство пользователя Коннекторы Использование Java-коннектора Балансировка запросов к роутерам через Java-коннектор

Балансировка запросов к роутерам через Java-коннектор

В примере демонстрируется работа с повреждённым кластером под нагрузкой. Приложение непрерывно записывает кортежи пачками через все роутеры по очереди. Для записи используется операция replace. Если какой-либо роутер упал, трафик с него переключается на остальные роутеры. Если роутер поднялся, трафик на него возвращается.

Для мониторинга используются:

  • Telegraf – сбор метрик;

  • InfluxDB – хранение метрик;

  • Grafana – визуализация метрик.

Примечание

Пример стенда с Prometheus приведен в разделе Балансировщик запросов к роутерам через Go-коннектор.

Содержание:

Пререквизиты

Для выполнения примера требуются:

  • установленный Docker-образ Tarantool DB;

  • приложение Docker compose;

  • Maven;

  • Java версии 8+;

  • исходные файлы примера java_balancer.

    Примечание

    Есть два способа получить исходные файлы примера:

    • Архив с полной документацией Tarantool DB, полученный по почте или скачанный в личном кабинете tarantool.io. Пример архива: tarantooldb-documentation-0.8.0.tar.gz. Пример java_balancer расположен в таком архиве в директории ./doc/examples/java_balancer/.

    • Отдельный архив java_balancer.tar.gz, скачанный c сайта Tarantool.

Кроме того, для загрузки Java-коннектора нужно настроить конфигурацию Maven. Чтобы задать эту конфигурацию, используйте инструкцию Установка клиента tarantool-java-ee.

Запуск стенда

Для успешного запуска должны быть свободны порты:

  • 3301–3306;

  • 8080–8086.

Перейдите в директорию java_balancer/tt:

cd ./doc/examples/java_balancer/tt

Запустите стенд:

docker compose up -d

Команда развернет стенд, состоящий из:

  • кластера Tarantool DB (два шарда, два хранилища и два роутера);

  • клиентского приложения, подающего нагрузку;

  • средств мониторинга (Telegraf, InfluxDB, Grafana).

После запуска должны работать все контейнеры, кроме tarantool-db-init. Также после запуска доступны следующие пользовательские интерфейсы:

  • http://localhost:8083 – веб-интерфейс кластера Tarantool DB;

  • http://localhost:8080 – веб-интерфейс Grafana.

Теперь откройте в браузере веб-интерфейс Tarantool DB по адресу http://localhost:8081. Перейдите во вкладку Cluster и проверьте, что отсутствуют ошибки или предупреждения. В течение нескольких секунд после старта кластер еще поднимается, так что могут появиться предупреждения. В примере не используется шардирование, поэтому модуль vshard не запущен.

После этого перейдите на вкладку Space Explorer и выберите любой узел, например, storage1. Проверьте, что на узле есть спейс test.

Панель Grafana

Откройте в Grafana панель Tarantool dashboard. Проверьте, что графики показывают данные за последние 5 минут, а частота обновления равна 5 секундам:

В панели Tarantool Network activity откройте график Processed requests:

Выделите роутеры. Есть два способа это сделать:

  • нажмите на название router-1 и, зажав Shift, нажмите на router-2.

  • используйте переключатель сверху, чтобы выбрать роутеры на уровне всего дашборда:

В панели Tarantool operations statistics откройте график REPLACE space requests. Выберите все узлы, кроме роутеров:

Увеличение нагрузки

Откройте вторую вкладку терминала. В этой вкладке перейдите в директорию java_balancer:

cd ./doc/examples/java_balancer

Запустите клиентское приложение:

mvn clean compile
mvn exec:java -Dexec.mainClass="org.example.App"

На графиках теперь заметно, что нагрузка растет:

  • растет число обработанных запросов на роутерах:

  • растет число операций replace в единицу времени:

В веб-интерфейсе Tarantool DB откройте вкладку Space Explorer и проверьте, что в хранилищах появились данные.

Имитация отказа роутера

Чтобы имитировать отказ роутера, в первом терминале выполните команду:

docker compose stop tarantool-router1

Теперь в веб-интерфейсе Tarantool DB во вкладке Cluster узел tarantool-router1 помечается как нездоровый (unhealthy). График запросов изменится так:

Нагрузка на второй роутер увеличилась вдвое. График для второго роутера выглядит так:

Роста нагрузки на этом графике нет. График прерывается, так как роутер не работает и метрики с него не поступают. Количество операций replace при этом не изменилось:

Восстановление роутера

Для запуска первого роутера выполните следующую команду:

docker compose start tarantool-router1

В веб-интерфейсе Tarantool DB во вкладке Cluster видно, что узел tarantool-router1 восстановлен. Нагрузка на второй роутер уменьшилась вдвое, появились данные по нагрузке с первого:

Число операций replace не изменилось:

Остановка стенда

Для остановки стенда:

  • В первом терминале выполните команду:

    docker compose down
    
  • Во втором терминале выполните команду Ctrl + Z.

Нашли ответ на свой вопрос?
Обратная связь