Практический курс для тех, кто хочет уверенно работать с архитектурой Data Lakehouse и современным стеком Iceberg + Trino + S3. Материал ориентирован на реальную практику и помогает перейти от традиционных аналитических систем к более гибким и масштабируемым решениям.
Что такое Lakehouse и зачем он нужен
Архитектура Data Lakehouse объединяет лучшие свойства Data Lake и Data Warehouse, позволяя работать с большими объёмами данных без жёсткой привязки к конкретным технологиям и инфраструктуре. Такой подход упрощает масштабирование, повышает производительность и снижает стоимость владения аналитической платформой.
Ключевые преимущества Lakehouse
Гибкость хранения и вычислений благодаря разделённой архитектуре
Поддержка ACID‑транзакций через формат Apache Iceberg
Высокая производительность распределённых SQL‑запросов с Trino
Возможность работы с единым слоем данных для BI, ML и ETL
Основные навыки, которые вы получите
Работа со стеком Iceberg + Trino + S3
Курс поможет уверенно освоить ключевые компоненты Lakehouse‑архитектуры:
Создание и управление Iceberg‑таблицами
Настройка S3‑хранилища в качестве основного слоя Data Lake
Запросы и оптимизация через Trino
Работа с инфраструктурой на базе Kubernetes
Построение аналитических и инженерных пайплайнов
Проектирование гибридных workflows с использованием SQL, Python и Spark
Создание надёжных ETL/ELT‑процессов
Оптимизация запросов и управление затратами
Кому подойдёт курс
Роли и задачи
Аналитикам, работающим с большими наборами данных и нуждающимся в высокой производительности
Инженерам данных, переходящим на современные подходы к работе с хранилищами
Разработчикам и специалистам по data‑platform, которым требуется масштабируемая архитектура
Командам, планирующим внедрить Lakehouse в продуктовый или корпоративный контур
Результаты обучения
После прохождения курса вы сможете применять Lakehouse‑архитектуру в реальных проектах и уверенно работать со всеми её компонентами.
Навыки, которые вы закрепите
Проектирование и развёртывание Lakehouse‑платформы
Работа с Iceberg‑таблицами в production‑среде
Настройка и оптимизация Trino‑кластера
Создание масштабируемых пайплайнов обработки данных
Оптимизация производительности и стоимости аналитической инфраструктуры
Почему этот курс эффективен
Каждый модуль сопровождается практическими заданиями на реальном кластере Trino over Kubernetes, работающем с S3. Благодаря этому вы получаете опыт, максимально приближённый к рабочим задачам.
Практика, понятная и применимая сразу
Реальные кейсы из индустрии
Проработка типовых проблем производительности и архитектуры
Построение решений, которые масштабируются без изменения технологий
Это пробный урок. Оформите подписку, чтобы получить доступ ко всем материалам курса. Премиум
Ограничение времени просмотра
Вы можете просматривать пробный урок только 10 минут. Получите полный доступ, чтобы смотреть без ограничений.
Школа основана Алексеем Рыбаком - опытным техническим руководителем и архитектором, прошедшим путь от инженера гаражного стартапа до CTO международных компаний.Алексей - CTO / VP of Engineering с богатым опытом построения инженерных команд и создания высоконагруженных продуктов. В компании Badoo/Bumble (300 млн пользователей, IPO по оценке $8 млрд) он начинал как один из первых разработчиков и вырос до CTO и руководителя московского офиса разрабо
Руководитель направления Big Data Services в VK Tech (VK Cloud), архитектор и инженер данных с более чем 12-летним опытом.Специализируется на построении современных аналитических платформ и миграции корпоративных хранилищ в облако. Работает на стыке Big Data, Data Platform и AI, внедряя решения для обработки и анализа данных в крупных компаниях. За его плечами — более 20 успешно реализованных проектов по трансформации data-инфраструктуры.Ранее уч