Курс по dbt для инженеров данных поможет вам уверенно освоить один из главных инструментов современной аналитической инженерии. Вы научитесь строить надёжные пайплайны, автоматизировать трансформации, тестировать качество данных и работать с продакшенными проектами dbt. Материал подаётся практично и последовательно — сразу с применением в реальных сценариях.
Введение в dbt
Сначала вы получите чёткое понимание роли dbt в современном ELT-подходе и разберётесь в его архитектуре. Вы узнаете:
Ключевые отличия ETL и ELT и почему подход ELT выигрывает в современных дата-платформах;
Основные проблемы традиционных пайплайнов и как dbt решает их с помощью модульности и версионирования;
Разницу между dbt Core и dbt Cloud: функциональность, ограничения, кейсы применения.
Настройка окружения: Snowflake, dbt Core и GitHub
На этом этапе вы подготовите полноценное рабочее окружение для проекта:
Создадите и настроите репозиторий GitHub для работы в команде;
Заведёте аккаунт в dbt Cloud и подключите его к хранилищу данных Snowflake;
Создадите структуру проекта: модели, папки, конфигурационные файлы и необходимые зависимости.
Построение пайплайнов данных в dbt
Вы шаг за шагом создадите полноценный пайплайн на основе e-commerce‑датасета:
Описывание сырья через sources;
Создание staging‑слоя;
Формирование core‑моделей для аналитики;
Подготовка финальных marts‑слоёв.
Вы будете работать с dbt Core, dbt Cloud и Snowflake, что поможет закрепить знания в реальном окружении.
Материализации в dbt
Материализации позволяют управлять производительностью и подходом к обновлению данных. На этом этапе вы научитесь:
Сохранять модели в виде таблиц и представлений (views);
Создавать и оптимизировать инкрементальные модели;
Использовать эфемерные модели для более лёгкой архитектуры;
Работать с внутренними и внешними источниками данных и управлять зависимостями между ними.
Тестирование моделей dbt
Надёжность данных — ключ к успешным аналитическим процессам. В рамках раздела вы научитесь:
Писать схемные (generic) тесты для базовых проверок структуры;
Создавать пользовательские (bespoke) тесты для кастомной бизнес-логики;
Обеспечивать качество данных на всех этапах пайплайна.
Деплой и расписание запуска моделей
После того как модели готовы локально, вы узнаете, как перенести проект в облачную среду и настроить его автоматическую работу:
Совместная работа с командой через dbt Cloud;
Настройка расписания запуска моделей;
Автоматическое обновление и мониторинг прогонов.
Этот раздел также охватывает лучшие практики деплоя в dbt Cloud.
Расширенные возможности dbt
Для продвинутых пользователей предусмотрены современные инструменты и практики:
Настройка CI/CD прямо в dbt Cloud;
Генерация и публикация полной документации проекта;
Описание best practices для продакшена, включая организацию слоёв, управление зависимостями и оптимизацию моделей.
Что входит в курс
Готовый репозиторий с кодом (GitHub);
E‑commerce‑датасет для практики;
Пошаговые видеоуроки с разбором кода;
Подборка полезных материалов, статей и документации.
Требования
Знание основ реляционных баз данных;
Уверенное владение SQL;
Желательно: опыт работы с Git, Snowflake или dbt Cloud.
Это пробный урок. Оформите подписку, чтобы получить доступ ко всем материалам курса. Премиум
Ограничение времени просмотра
Вы можете просматривать пробный урок только 10 минут. Получите полный доступ, чтобы смотреть без ограничений.
Я - старший инженер по данным и тренер, техноэнтузиаст и отец. Уже более десяти лет я увлечён Data Engineering. Сначала я стал инженером по данным самоучкой, а затем возглавил команду инженеров по данным в крупной компании. Когда я понял, насколько велика потребность в обучении в этой сфере, я последовал за своей страстью и основал собственную Академию Data Engineering. С тех пор я помог более чем 2 000 студентам достичь своих целей.
Are you planning to add the rest of the videos for this course? I think DBT for Data Engineers is the last part of Fundamental Tools
Video Time Available: 25.25h
4.1Streaming with Kafka, Spark & MongoDB 4.2Data Engineering on AWS 4.3Data Engineering on Azure 4.4Data Engineering on GCP 4.5Modern Data Warehouses & Data Lakes 4.6Machine Learning & Containerization on AWS 4.7Storing & Visualizing Time Series Data 4.8Contact tracing with Elasticsearch 4.9Data Engineering on Hadoop 4.10Dockerized ETL With AWS, TDengine & Grafana 4.11Azure Data Pipelines with Terraform (NEW: Part 2 now available!) 4.12GenAI Platform with RAG (coming soon)
Are you planning to add the rest of the videos for this course? I think DBT for Data Engineers is the last part of Fundamental Tools
Video Time Available: 25.25h
4.1Streaming with Kafka, Spark & MongoDB
4.2Data Engineering on AWS
4.3Data Engineering on Azure
4.4Data Engineering on GCP
4.5Modern Data Warehouses & Data Lakes
4.6Machine Learning & Containerization on AWS
4.7Storing & Visualizing Time Series Data
4.8Contact tracing with Elasticsearch
4.9Data Engineering on Hadoop
4.10Dockerized ETL With AWS, TDengine & Grafana
4.11Azure Data Pipelines with Terraform (NEW: Part 2 now available!)
4.12GenAI Platform with RAG (coming soon)
Thanks