Введение
BI (Business Intelligence) – это инструмент или несколько инструментов, которые помогают собрать данные в нужный вид и посмотреть на бизнес со стороны данных.
Чаще всего BI-инструментами пользуются аналитики. Они строят дашборды (витрины), выполняют Ad hoc задачи и в целом проводят анализ данных в этих инструментах.
В этой статье я хотел бы показать куда уходят данные и что с ними происходит, когда пайплайны дата-инженеров заканчивают работу.
Также хотелось бы показать ценность мета-данных и того, как важно следить за состоянием витрин и того, как с данными работает BI.
Ниже я рассмотрю несколько популярных BI-инструментов, мы их развернём в Docker. Посмотрим как выглядит наше DWH глазами BI-инструмента.
Тестовая база данных
Весь код проект находится в моём репозитории.
В наших примерах я буду использовать БД PostgreSQL, поэтому я создам изначально docker-compose.yaml
:
version: '3.8' services: data-postgres: image: postgres:13 environment: POSTGRES_USER: postgres POSTGRES_PASSWORD: postgres POSTGRES_DB: bi ports: - "5432:5432"
Важно: Добавление всех BI-инструментов в сборку будет происходить в нём же.
Запустим сборку проекта командой: docker-compose up -d
.
Давайте также создадим таблицу users
, с которой будем работать.
Для этого необходимо создать виртуальное окружение с необходимыми зависимостями:
python3.12 -m venv venv && \ source venv/bin/activate && \ pip install --upgrade pip && \ pip install poetry && \ poetry lock && \ poetry install
И запустить файл create_and_fill_users.py
. После небольшого ожидания в нашей БД создастся таблица users
.
Metabase
Предлагаю нам начать с Metabase, он заимел свою популярность за простоту. Позволяет быстро проанализировать и «покрутить данные«.
Если мы перейдем на сайт Metabase, то сразу же можем попасть на страницу
Deploy Metabase Open Source. Так как мы будем поднимать всё через Docker, то немного улучшим наш docker-compose.yaml
:
... metabase: image: metabase/metabase:v0.51.1.8 container_name: metabase ports: - "3000:3000"
Важно: Я указал версию для образа metabase, если вы хотите, то можете использовать другую версию.
Если заново запустить сборку (docker-compose up -d
), то мы сможем перейти по адресу http://localhost:3000/, пройти быструю «регистрацию» и увидеть наш интерфейс.
Теперь мы готовы создать подключение к нашей БД, для этого нужно перейти в настройки и указать параметры для подключения.
Важно: Внутри проекта мы не указываем хост, мы указываем имя сервиса.
И если сейчас перейти на главную страницу, то мы увидим, что Metabase уже предлагает нам взглянуть на данные.
После этого мы можем создать новый дашборд и выбирать удобные нам срезы для аналитики. Вот к примеру дашборд с группировкой по неделям.
И тут стоит упомянуть, что для создания графика я не написал ни строчки кода. Всю логику построения и расчётов забрал на себя Metabase.
ReDash
К сожалению ReDash перешел под другую лицензию, потому что был выкуплен компанией Databricks, но старые версии ReDash до сих пор находятся в Open Source и ими можно пользоваться, плюс старые версии используются во многих компаниях.
С большей частью информации по установке ReDash вы можете ознакомиться по ссылке.
Также основные проблемы я постарался полечить. Поэтому данный код необходимо добавить в наш уже существующий docker-compose.yaml
:
# Redash redash-server: image: redash/redash:10.1.0.b50633 command: server depends_on: - postgres - redash-redis ports: - "5000:5000" environment: PYTHONUNBUFFERED: 0 REDASH_LOG_LEVEL: "INFO" REDASH_REDIS_URL: "redis://redash-redis:6379/0" REDASH_DATABASE_URL: "postgresql://postgres:postgres@postgres/postgres" REDASH_COOKIE_SECRET: "redash-cookie-secret" QUEUES: "queries,scheduled_queries,celery,schemas" WORKERS_COUNT: 2 restart: always redash-worker: image: redash/redash:10.1.0.b50633 command: worker depends_on: - redash-server environment: PYTHONUNBUFFERED: 0 REDASH_LOG_LEVEL: "INFO" REDASH_REDIS_URL: "redis://redash-redis:6379/0" REDASH_DATABASE_URL: "postgresql://postgres:postgres@postgres/postgres" REDASH_COOKIE_SECRET: "redash-cookie-secret" QUEUES: "queries,scheduled_queries,celery,schemas" WORKERS_COUNT: 2 restart: always redash-scheduler: image: redash/redash:10.1.0.b50633 command: scheduler depends_on: - redash-server environment: PYTHONUNBUFFERED: 0 REDASH_LOG_LEVEL: "INFO" REDASH_REDIS_URL: "redis://redash-redis:6379/0" REDASH_DATABASE_URL: "postgresql://postgres:postgres@postgres/postgres" REDASH_COOKIE_SECRET: "redash-cookie-secret" restart: always redash-redis: image: redis:7-alpine restart: always postgres: image: postgres:13 environment: POSTGRES_PASSWORD: postgres ports: - "5431:5432" restart: always
После этого снова запустить сервисы командой: docker-compose up -d
. Затем когда у вас скачаются все образы и сервисы развернуться.
Необходимо будет создать базу данных для ReDash командой: docker-compose run --rm redash-server create_db
.
Важно: Если ReDash всё равно не доступен, то выполните команду: docker-compose up -d --force-recreate
.
Важно: я создал сервис postgres
без использования префикса redash-
, как у всех остальных сервисов, потому что это старый продукт и часть проблем не были решены и он имеет «стандартный» URI, подробнее по ссылке. Также можете ознакомиться с оригинальным ответом в GitHub.
Стоит также упомянуть, что на Docker Hub от ReDash появилась preview
сборка.
После запуска нашего проекта мы можем подключиться к нашему серверу ReDash по ссылке – http://localhost:5000/. В самом начале вам нужно будет зарегестрироваться. Так как БД развернута локально и это не продовое окружение, то можете использовать любые параметры для «регистрации«.
Первым делом нам необходимо создать подключение к PostgreSQL. Оно будет идентичным как и в Metabase:
И теперь давайте создадим первый дашборд в ReDash, для этого необходимо создать первый запрос и добавить для него визуализацию.
Затем перейти в создание нового дашборда и использовать наш запрос для визуализации:
ReDash многие используют также для работы с БД вместо популярного DBeaver, потому что тут сразу можно селектить и исследовать данные.
Также ReDash позволяет поставить дашборд на автообновление и благодаря такой возможности заинтересованные могут получать актуальную информацию по метрикам бизнеса.
Yandex DataLens
Всю информацию по Open Source DataLens вы можете найти по ссылке.
DataLens имеет хорошо описанную документацию по старту.
В начале в наш docker-compose.yaml
добавим следующий код:
# DataLens pg-compeng: container_name: datalens-pg-compeng image: postgres:13 environment: POSTGRES_PASSWORD: "postgres" POSTGRES_DB: postgres POSTGRES_USER: postgres control-api: container_name: datalens-control-api image: ghcr.io/datalens-tech/datalens-control-api:0.2139.0 environment: BI_API_UWSGI_WORKERS_COUNT: 4 CONNECTOR_AVAILABILITY_VISIBLE: "clickhouse,postgres,chyt,ydb,mysql,greenplum,mssql" RQE_FORCE_OFF: 1 DL_CRY_ACTUAL_KEY_ID: key_1 DL_CRY_KEY_VAL_ID_key_1: "h1ZpilcYLYRdWp7Nk8X1M1kBPiUi8rdjz9oBfHyUKIk=" RQE_SECRET_KEY: "" US_HOST: "http://us:8083" US_MASTER_TOKEN: "fake-us-master-token" depends_on: - us data-api: container_name: datalens-data-api image: ghcr.io/datalens-tech/datalens-data-api:0.2139.0 environment: GUNICORN_WORKERS_COUNT: 5 RQE_FORCE_OFF: 1 CACHES_ON: 0 MUTATIONS_CACHES_ON: 0 RQE_SECRET_KEY: "" DL_CRY_ACTUAL_KEY_ID: key_1 DL_CRY_KEY_VAL_ID_key_1: "h1ZpilcYLYRdWp7Nk8X1M1kBPiUi8rdjz9oBfHyUKIk=" BI_COMPENG_PG_ON: 1 BI_COMPENG_PG_URL: "postgresql://postgres:postgres@pg-compeng:5432/postgres" US_HOST: "http://us:8083" US_MASTER_TOKEN: "fake-us-master-token" depends_on: - us - pg-compeng pg-us: container_name: datalens-pg-us image: postgres:13 environment: POSTGRES_DB: us-db-ci_purgeable POSTGRES_USER: us POSTGRES_PASSWORD: us us: container_name: datalens-us image: ghcr.io/datalens-tech/datalens-us:0.256.0 depends_on: - pg-us environment: APP_INSTALLATION: "opensource" APP_ENV: "prod" MASTER_TOKEN: "fake-us-master-token" POSTGRES_DSN_LIST: ${METADATA_POSTGRES_DSN_LIST:-postgres://us:us@pg-us:5432/us-db-ci_purgeable} SKIP_INSTALL_DB_EXTENSIONS: ${METADATA_SKIP_INSTALL_DB_EXTENSIONS:-0} USE_DEMO_DATA: ${USE_DEMO_DATA:-1} HC: ${HC:-0} NODE_EXTRA_CA_CERTS: /certs/root.crt extra_hosts: - "host.docker.internal:host-gateway" volumes: - ./certs:/certs datalens: container_name: datalens-ui image: ghcr.io/datalens-tech/datalens-ui:0.2248.0 ports: - ${UI_PORT:-8080}:8080 depends_on: - us - control-api - data-api environment: APP_MODE: "full" APP_ENV: "production" APP_INSTALLATION: "opensource" AUTH_POLICY: "disabled" US_ENDPOINT: "http://us:8083" BI_API_ENDPOINT: "http://control-api:8080" BI_DATA_ENDPOINT: "http://data-api:8080" US_MASTER_TOKEN: "fake-us-master-token" NODE_EXTRA_CA_CERTS: "/usr/local/share/ca-certificates/cert.pem"
Затем запустим его командой docker-compose up -d
и сможем построить такой дашборд:
Подробнее о работе с DataLens вы можете ознакомиться из документации (есть так же российская версия документации).
Meta-данные
Meta-данные – это данные о данных. Довольно важный элемент в BI, так как он позволяет быстрее исследовать данные и понимать что значит то или иное поле.
Если у вас не будет мета-данных, то вашим аналитикам придётся искать информацию по таблицам/колонкам в корпоративной библиотеке, что не всегда просто.
Для демонстрации работы мета-данных давайте выполним скрипт fill_meta_about_users.py
. Он заполнит нам информацию по таблице users
.
И теперь в любом из BI-инструментов мы сможем при написании запросов знать что значит та или иная колонка.
Мета-данные как раз помогают разобраться в логике построения таблицы, потому что за модель отвечает backend-разработка и у них при создании модели были свои требования.
Если взять колонку city
из таблицы users
, то без заполненных мета-данных мы можем только гадать что означает город в таблице: город рождения, город регистрации или что-то другое.
Заключение
В статье мы рассмотрели буквально три BI-инструмента, но на самом деле их великое множество. Существуют платные решения, существуют решения из Open Source.
Основная задача BI-инструмента по моему мнению – это дать возможность гибко и быстро принимать решения по бизнесу.
На что стоит обратить внимание дата-инженеру при работе c BI-инструментами:
-
Обращайте внимание на нагрузку от BI-инструментов. Не редки случаи, когда аналитики могут обращаться к сырым или не агрегированным данным что увеличивает расходы на содержание DWH/Data Lake.
-
Держите мета-данные в порядке, чтобы исключить лишние обращения в сторону data-платформы.
-
Старайтесь делать агрегаты и предагрегаты, чтобы улучшить производительность DWH/Data Lake.
-
Большая часть BI-инструментов имеет множество коннектов к различным DWH/Data Lake.
-
Некоторые BI-инструменты могут использовать «стандарты SQL» при создании дашбордов, что может негативно сказаться на вашем DWH/Data Lake. К примеру если у вас используется ClickHouse, то в нём лучше использовать инструкции самого ClickHouse, а не «стандартного» SQL.
-
При настройке BI-инструмента или подключении нового инструмента настройте квоту потребления ресурса на минимум, чтобы проверить работу BI-инструмента на минимальных ресурсах и со временем их можно будет увеличить.
Также если вам необходима консультация/менторство/мок-собеседование и другие вопросы по дата-инженерии, то вы можете обращаться ко мне. Все контакты указаны по ссылке.
ссылка на оригинал статьи https://habr.com/ru/articles/856922/
Добавить комментарий