journalctl — Работа со структурированными логами
Журнал событий, это компонент systemd, который захватывает сообщения Syslog, логи ядра, все события при инициализации системы (RAM, диск, boot, STDOUT/STDERR для всех сервисов), индексирует их и затем предоставляет удобной пользовательский интерфейс для поиска и фильтрации логов. Журнал (systemd journal) можно использовать вместе или вместо syslog или syslog-ng.
Утилита командной строки journalctl, если сравнивать ее с традиционным инструментами для работы с логами в UNIX (tail, grep, sed, awk) более широкие возможности.
Давайте рассмотрим основные возможности которые предоставляет журнал systemd и способы их применения.
Журнал systemd сохраняется на диск, поэтому все логи «переживают» перезагрузку системы. Посмотреть список с доступными загрузками:
journalctl --list-boots |head -n2 journalctl --list-boots |tail -n2
Команда journalctl –b покажет все логи для текущей загрузки. Если необходимы логи какого-то определенного периода, то нужно добавить в качестве аргумента номер загрузки:
journalctl -b -1
Для того, чтобы получить все логи для текущей загрузки в обратном хронологическом порядке:
journalctl -b --all --catalog --no-pager
Все логи за все время в одном файле:
journalctl --all --catalog --merge --no-pager
Текущая загрузка, только логи ядра:
journalctl -b -k --no-pager
Для того, чтобы можно было отслеживать логи в режиме реального времени (похоже на tail –f):
journalctl -f
Просмотреть сколько места занимают журналы systemd на диске (/var/log/journal/):
journalctl --disk-usage
Получить логи и метаданные:
journalctl --output verbose
Экспорт логов в файл:
journalctl --output export > export.log
Фильтрация логов
Можно фильтровать логи по приоритету (RFC 5424 6.2.1):
journalctl -f -p emerg journalctl -f -p alert journalctl -f -p crit journalctl -f -p err journalctl -f -p warning journalctl -f -p notice journalctl -f -p info journalctl -f -p debug
Вывести только логи c приоритетом error, critical и alert:
journalctl -p err..alert
Логи только для определенного идентификатора:
journalctl -t NetworkManager
journalctl можно использовать вместе с стандартными инструментами командной строки — grep, awk:
journalctl -b | grep -i selinux
Для того, чтобы сократить время лучше использовать флаг -g или --grep:
journalctl -g nginx journalctl -b -g kube journalctl -g fail --case-sensitive=true
Как и grep --grep «понимает» регулярные выражения:
journalctl --grep '(Started|Stopping)'
Позволяет отфильтровывать логи по временным штампам, без grep, awk и sed. Не нужно запоминать сложные регулярные выражения:
journalctl --since "20 min ago"
Если у вас геораспределенная инфраструктура в разных часовых поясах, то journalctl поможет с разными часовыми поясами:
journalctl --since "2023-06-21 14:24 Pacific/Auckland" --until "2023-06-21 14:30 Europe/Amsterdam"
Журнал systemd сохраняет логи в структурированном формате:
journalctl -o verbose --no-pager Sat 2023-07-22 17:17:40.468870 MSK [s=8e997e4278d4420da4ee36deb1bcb537;i=48abc;b=200a318f51b04680a1207f58ed5aaf88;m=2199c4e719;t=601140b4770a0;x=59dabeebe46afe51] _TRANSPORT=syslog PRIORITY=6 SYSLOG_IDENTIFIER=sshd _UID=0 _GID=0 _COMM=sshd _EXE=/usr/sbin/sshd _CAP_EFFECTIVE=1ffffffffff _SELINUX_CONTEXT=system_u:system_r:sshd_t:s0-s0:c0.c1023 _SYSTEMD_CGROUP=/system.slice/sshd.service _SYSTEMD_UNIT=sshd.service _SYSTEMD_SLICE=system.slice _SYSTEMD_INVOCATION_ID=2c28dd046868493ca6c4ae9325b237b9 _BOOT_ID=200a318f51b04680a1207f58ed5aaf88 _MACHINE_ID=b0900a09b82b4ecca86af861e99e64c5 _HOSTNAME=Pythagoras _RUNTIME_SCOPE=system SYSLOG_FACILITY=10 _CMDLINE="sshd: unknown [priv]" SYSLOG_PID=1339341 _PID=1339341 SYSLOG_TIMESTAMP=Jul 22 17:17:40 MESSAGE=Connection closed by invalid user ubuntu 45.95.147.231 port 53778 [preauth]
Журнал systemd сохраняет логи в структурированном формате:
journalctl _PID=1339341
Или например посмотреть логи всех программ написанных на питоне:
journalctl _COMM=python
JSON — новые возможности для автоматизации
journalctl умеет выводить логи в формате json – можно использовать утилиту jq для фильтрации сообщений:
journalctl --since "1500 min ago" -u kubelet.service -o json | jq .""_CMDLINE"" "/usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --container-runtime-endpoint=unix:///run/containerd/containerd.sock --node-ip=<IP_ADDRESS> --node-labels=<LABEL>/cluster=true, --pod-infra-container-image=registry.k8s.io/pause:3.9" "/usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --container-runtime-endpoint=unix:///run/containerd/containerd.sock --node-ip=<IP_ADDRESS> --node-labels=<LABEL>/cluster=true, --pod-infra-container-image=registry.k8s.io/pause:3.9" "/usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --container-runtime-endpoint=unix:///run/containerd/containerd.sock --node-ip=<IP_ADDRESS> --node-labels=<LABEL>/cluster=true, --pod-infra-container-image=registry.k8s.io/pause:3.9"
Структурированные логи открывают широкие возможности для автоматизации. Больше не надо «хачить» пытаясь склеить sed, grep и awk в скриптах. Любой высокоуровневый язык программирования содержит модуль для работы с JSON.
В качестве наглядного примера можно представить себе сдающий сценарий: Приложение X записывает в журнал событий какие-то сообщения. Простая программа работающая в режиме демона Linux отслеживает события в журнале systemd. В случае появления какого-то определенного сообщения в журнале, программа следуя внутренней логике отправляет сообщение в шину данных (kafka, rabbitmq, NATS) или выполняет определенные операции в системе:
Код
package main import ( "bufio" "fmt" "os" "os/exec" "strings" ) func main() { // Отслеживаем сообщения для идентификатора «events_topic» cmdName := "journalctl -t events_topic -f" cmdArgs := strings.Fields(cmdName) cmd := exec.Command(cmdArgs[0], cmdArgs[1:len(cmdArgs)]...) stdout, _ := cmd.StdoutPipe() cmd.Start() oneByte := make([]byte, 100) num := 1 for { _, err := stdout.Read(oneByte) if err != nil { fmt.Printf(err.Error()) break } r := bufio.NewReader(stdout) line, _, _ := r.ReadLine() fmt.Println(string(line)) num = num + 1 if num > 3 { os.Exit(0) } } }
Теперь в одной сессии терминала мы запускаем программу отслеживающую события в журнале:
go run watch.go Jul 22 15:49:25 Pythagoras events_topic[1293240]: NEW EVENT Jul 22 15:49:28 Pythagoras events_topic[1293250]: NEW EVENT
А в другой сессии терминала эмулируем запись приложением X сообщений в журнал с помощью встроенной утилиты systemd-cat:
echo "NEW EVENT" | systemd-cat -t events_topic echo "NEW EVENT" | systemd-cat -t events_topic
В данном случае для работы с журналом используется пакет «os/exec» – то есть мы выполняем системные команды, но можно воспользоваться одной из существующих библиотек:
https://github.com/coreos/go-systemd
Это простой пример использования структурированных логов журнала systemd. Возможности systemd гораздо шире – многие из них используются, например облачными провайдерами для построения отказоустойчивой инфраструктуры.
sos report — когда нужно найти иголку в стоге сена
https://github.com/sosreport/sos
Не всегда есть возможность в спокойной, неспешной обстановке проанализировать логи и выводы различных диагностических команд на промышленной инфраструктуры. В некоторых случаях для поиска корневой причины нужен глубокий анализ, сверка логово и метрик в ретроспективе, иногда написание автоматизации для парсинга логов.
Для таких сценариев как раз и предназначен sos report. Это унифицированный инструмент для сбора логов и диагностической информации. С помощью sos report можно создавать архив со всей необходимой информацией о системе – эти данные используются для анализа и поиска проблем в режиме оффлайн.
Установка sosreport:
yum install sos apt install sosreport
Программа написана Python. Легко расширяется. Для sos report были написаны десятки плагинов:
sos report --list-plugins alternatives System alternatives anaconda Anaconda installer anacron Anacron job scheduling service ata ATA and IDE information auditd Audit daemon information block Block device information boot Bootloader information cgroups Control groups subsystem chrony Chrony clock (for Network time protocol) cockpit Cockpit Web Service conntrack conntrack - netfilter connection tracking ...
профилей:
sos report --list-profiles boot boot, devices, dracut, grub2, services, systemd, udev cluster conntrack container cgroups, containers_common, podman, selinux ...
и пресетов:
sos report --list-presets name: none description: Do not load a preset note: Use to disable automatically loaded presets name: minimal description: Small and quick report that reduces sos report resource consumption note: May be useful for low-resource systems, but may not provide sufficient data for analysis
Все это можно кастомизировать под определенный кейс.
Пример генерации репорта:
sos report --all-logs --batch --tmp-dir=/var
Созданный архив с логами можно забрать для дальнейшего анализа:
Your sosreport has been generated and saved in: /var/tmp/<FILENAME>.tar.xz Size20.25MiB Ownerroot sha256db71d185550428b5c3a12010fc76206b58b159671c6b74c2fce575254e388030
В зависимости от выбранного профиля и плагинов, в архиве может содержатся подробная диагностическая информация с выводами различных утилит и инструментов:
tar -xf <FILENAME>.tar.xz boot dmidecode free ip_addr lib lspci proc root-symlinks sos_logs uname var date environment hostname ip_route lsmod mount ps run sos_reports uptime version.txt df etc installed-rpms last lsof netstat pstree sos_commands sys usr vgdisplay
При генерации репорта, с помощью флагов --clean, --domains и --keywords можно обфусцирвоать (подчистить) полученный архив удалив всю конфиденциальную информацию.
ссылка на оригинал статьи https://habr.com/ru/articles/749714/
Добавить комментарий