Nginx-log-collector утилита от Авито для отправки логов nginx в Clickhouse

от автора

В этой статье будет рассматриваться проект nginx-log-collector, который будет читать логи nginx, отправлять их в кластер Clickhouse. Обычно для логов используют ElasticSearch. Для Clickhouse требуется меньше ресурсов (дисковое пространство, ОЗУ, ЦПУ). Clickhouse быстрее записывает данные. Clickhouse сжимает данные, что делает данные на диске еще компактнее. Преимущества Clickhouse видны по 2 слайдам с доклада Как VK вставляет данные в ClickHouse с десятков тысяч серверов.

Для просмотра аналитики по логам создадим дашборд для Grafana.

Кому интересно, добро пожаловать под кат.

Устанавливаем nginx, grafana стандартным способом.

Устанавливаем кластер clickhouse с помощью ansible-playbook от Дениса Проскурина.

Создание бд и таблиц в Clickhouse

В этом файле описаны SQL запросы для создания бд и таблиц для nginx-log-collector в Clickhouse.

Каждый запрос делаем поочередно на каждом сервере кластера Clickhouse.

Важное замечание. В этой строке logs_cluster нужно заменить на ваше название кластера из файла clickhouse_remote_servers.xml между "remote_servers" and "shard".

ENGINE = Distributed('logs_cluster', 'nginx', 'access_log_shard', rand())

Устанавливка и настройка nginx-log-collector-rpm

Nginx-log-collector не имеет rpm. Здесь https://github.com/patsevanton/nginx-log-collector-rpm создаем ему rpm. Собираться rpm будет с помощью Fedora Copr

Устанавливаем rpm пакет nginx-log-collector-rpm

yum -y install yum-plugin-copr yum copr enable antonpatsev/nginx-log-collector-rpm yum -y install nginx-log-collector systemctl start nginx-log-collector

Правим конфиг /etc/nginx-log-collector/config.yaml:

  .......   upload:     table: nginx.access_log     dsn: http://ip-адрес-кластера-clickhouse:8123/  - tag: "nginx_error:"   format: error  # access | error   buffer_size: 1048576   upload:     table: nginx.error_log     dsn: http://ip-адрес-кластера-clickhouse:8123/

Настройка nginx

Общий конфиг nginx:

user  nginx; worker_processes  auto;  #error_log  /var/log/nginx/error.log warn; pid        /var/run/nginx.pid;  events {     worker_connections  1024; }  http {     include       /etc/nginx/mime.types;     default_type  application/octet-stream;      log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '                       '$status $body_bytes_sent "$http_referer" '                       '"$http_user_agent" "$http_x_forwarded_for"';      log_format avito_json escape=json                      '{'                      '"event_datetime": "$time_iso8601", '                      '"server_name": "$server_name", '                      '"remote_addr": "$remote_addr", '                      '"remote_user": "$remote_user", '                      '"http_x_real_ip": "$http_x_real_ip", '                      '"status": "$status", '                      '"scheme": "$scheme", '                      '"request_method": "$request_method", '                      '"request_uri": "$request_uri", '                      '"server_protocol": "$server_protocol", '                      '"body_bytes_sent": $body_bytes_sent, '                      '"http_referer": "$http_referer", '                      '"http_user_agent": "$http_user_agent", '                      '"request_bytes": "$request_length", '                      '"request_time": "$request_time", '                      '"upstream_addr": "$upstream_addr", '                      '"upstream_response_time": "$upstream_response_time", '                      '"hostname": "$hostname", '                      '"host": "$host"'                      '}';      access_log     syslog:server=unix:/var/run/nginx_log.sock,nohostname,tag=nginx avito_json; #ClickHouse     error_log      syslog:server=unix:/var/run/nginx_log.sock,nohostname,tag=nginx_error; #ClickHouse      #access_log  /var/log/nginx/access.log  main;      proxy_ignore_client_abort on;     sendfile        on;     keepalive_timeout  65;     include /etc/nginx/conf.d/*.conf; } 

Виртуальный хост один:

vhost1.conf:

upstream backend {     server ip-адрес-сервера-с-stub_http_server:8080;     server ip-адрес-сервера-с-stub_http_server:8080;     server ip-адрес-сервера-с-stub_http_server:8080;     server ip-адрес-сервера-с-stub_http_server:8080;     server ip-адрес-сервера-с-stub_http_server:8080; }  server {     listen   80;     server_name vhost1;     location / {         proxy_pass http://backend;     } }

Добавляем в файл /etc/hosts виртуальные хосты:

ip-адрес-сервера-с-nginx vhost1

Эмулятор HTTP сервера

В качестве эмулятора HTTP сервера будем использовать nodejs-stub-server от Maxim Ignatenko

Nodejs-stub-server не имеет rpm. Здесь https://github.com/patsevanton/nodejs-stub-server создаем ему rpm. Собираться rpm будет с помощью Fedora Copr

Устанавливаем на upstream nginx rpm пакет nodejs-stub-server

yum -y install yum-plugin-copr yum copr enable antonpatsev/nodejs-stub-server yum -y install stub_http_server systemctl start stub_http_server

Нагрузочное тестирование

Тестирование проводим с помощью Apache benchmark.

Устанавливаем его:

yum install -y httpd-tools

Запускаем тестирование с помощью Apache benchmark c 5 разных серверов:

while true; do ab -H "User-Agent: 1server" -c 10 -n 10 -t 10 http://vhost1/; sleep 1; done while true; do ab -H "User-Agent: 2server" -c 10 -n 10 -t 10 http://vhost1/; sleep 1; done while true; do ab -H "User-Agent: 3server" -c 10 -n 10 -t 10 http://vhost1/; sleep 1; done while true; do ab -H "User-Agent: 4server" -c 10 -n 10 -t 10 http://vhost1/; sleep 1; done while true; do ab -H "User-Agent: 5server" -c 10 -n 10 -t 10 http://vhost1/; sleep 1; done

Настройка Grafana

На официальном сайте Grafana вы не найдете дашборд.

Поэтому будем делать его вручую.

Мой сохраненный дашборд вы можете найти тут.

Так же вам нужно создать переменную table с содержимым nginx.access_log.

Singlestat Total Requests:

SELECT  1 as t,  count(*) as c  FROM $table  WHERE $timeFilter GROUP BY t

Singlestat Failed Requests:

SELECT  1 as t,  count(*) as c  FROM $table  WHERE $timeFilter AND status NOT IN (200, 201, 401) GROUP BY t

Singlestat Failing Percent:

SELECT  1 as t, (sum(status = 500 or status = 499)/sum(status = 200 or status = 201 or status = 401))*100 FROM $table  WHERE $timeFilter GROUP BY t

Singlestat Avg Response Time:

SELECT  1, avg(request_time) FROM $table  WHERE $timeFilter GROUP BY 1

Singlestat Max Response Time:

SELECT  1 as t, max(request_time) as c  FROM $table  WHERE $timeFilter GROUP BY t

Count Status:

$columns(status, count(*) as c) from $table

Для вывода данных как пирог, нужно установить плагин и перезагрузить grafana.

grafana-cli plugins install grafana-piechart-panel service grafana-server restart

Pie TOP 5 Status:

SELECT     1, /* fake timestamp value */     status,     sum(status) AS Reqs FROM $table WHERE $timeFilter GROUP BY status ORDER BY Reqs desc LIMIT 5

Дальше буду приводить запросы без скриншотов:

Count http_user_agent:

$columns(http_user_agent, count(*) c) FROM $table

GoodRate/BadRate:

$rate(countIf(status = 200) AS good, countIf(status != 200) AS bad) FROM $table

Response Timing:

$rate(avg(request_time) as request_time) FROM $table

Upstream response time (время ответа 1-го upstream):

$rate(avg(arrayElement(upstream_response_time,1)) as upstream_response_time) FROM $table

Table Count Status for all vhost:

$columns(status, count(*) as c) from $table

Общий вид дашборда

Вывод:

Надеюсь, сообщество подключится к разработке/тестированию и использованию nginx-log-collector.
И кто-нибудь когда внедрит nginx-log-collector расскажет сколько сэкономил диска, ОЗУ, ЦПУ.

Telegram каналы:

Миллисекунды:

Кому важны миллисекунды, напишите или проголосуйте, пожалуйста, в этом issue.

ссылка на оригинал статьи https://habr.com/ru/post/484640/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *