Лучший способ понять, как работают большие языковые модели (LLM), - это построить свою собственную. И именно это вы сделаете в этом курсе. В этом увлекательном видеокурсе эксперт в области ИИ Себастьян Рашка шаг за шагом проведёт вас через все этапы создания LLM - на практике и с пояснениями в формате liveVideo. Вы будете реализовывать проект из его бестселлера Build a Large Language Model (From Scratch) вместе с автором.
В этом курсе вы научитесь:
Планировать архитектуру и писать код для всех компонентов LLM
Подготавливать датасет, подходящий для обучения языковой модели
Дообучать LLM для задач классификации текста и работы с собственными данными
Применять обратную связь от человека (human feedback), чтобы улучшить следование инструкциям
Загружать предобученные веса в свою модель
Этот видеокурс идеально подойдёт:
разработчикам, которые хотят взять на себя инициативу в проектах, связанных с ИИ
дата-сайентистам и ML-исследователям, которым важно уметь настраивать или создавать LLM с нуля
Дополнительно в курс включён блок из 6 обязательных вводных видео от Абхинава Кимоти, эксперта в области искусственного интеллекта и автора книги A Simple Guide to Retrieval Augmented Generation. Он объясняет всё, что нужно знать перед стартом: от возможностей Python до продвинутых операций в PyTorch. Независимо от уровня подготовки, вы получите прочную базу для успешной работы с большими языковыми моделями.
Посмотреть больше
Это пробный урок. Оформите подписку, чтобы получить доступ ко всем материалам курса. Премиум
Урок 1.
00:21:10
1.1. Python Environment Setup Video
Урок 2.
00:06:28
1.2. Foundations to Build a Large Language Model (From Scratch)
Урок 3.
01:07:40
2.1. Prerequisites to Chapter 2 (1
Урок 4.
00:14:10
2.2. Tokenizing text
Урок 5.
00:09:59
2.3. Converting tokens into token IDs
Урок 6.
00:06:36
2.4. Adding special context tokens
Урок 7.
00:13:40
2.5. Byte pair encoding
Урок 8.
00:23:16
2.6. Data sampling with a sliding window
Урок 9.
00:08:37
2.7. Creating token embeddings
Урок 10.
00:12:23
2.8. Encoding word positions
Урок 11.
01:14:17
3.1. Prerequisites to Chapter 3 (1
Урок 12.
00:41:10
3.2. A simple self-attention mechanism without trainable weights | Part 1
Урок 13.
00:11:43
3.3. A simple self-attention mechanism without trainable weights | Part 2
Урок 14.
00:20:00
3.4. Computing the attention weights step by step
Урок 15.
00:08:31
3.5. Implementing a compact self-attention Python class
Урок 16.
00:11:37
3.6. Applying a causal attention mask
Урок 17.
00:05:38
3.7. Masking additional attention weights with dropout
Урок 18.
00:08:53
3.8. Implementing a compact causal self-attention class
3.10. Implementing multi-head attention with weight splits
Урок 21.
01:11:23
4.1. Prerequisites to Chapter 4 (1
Урок 22.
00:14:00
4.2. Coding an LLM architecture
Урок 23.
00:22:14
4.3. Normalizing activations with layer normalization
Урок 24.
00:16:19
4.4. Implementing a feed forward network with GELU activations
Урок 25.
00:10:52
4.5. Adding shortcut connections
Урок 26.
00:12:14
4.6. Connecting attention and linear layers in a transformer block
Урок 27.
00:12:45
4.7. Coding the GPT model
Урок 28.
00:17:47
4.8. Generating text
Урок 29.
00:23:58
5.1. Prerequisites to Chapter 5
Урок 30.
00:17:32
5.2. Using GPT to generate text
Урок 31.
00:27:14
5.3. Calculating the text generation loss: cross entropy and perplexity
Урок 32.
00:24:52
5.4. Calculating the training and validation set losses
Урок 33.
00:27:04
5.5. Training an LLM
Урок 34.
00:03:37
5.6. Decoding strategies to control randomness
Урок 35.
00:13:43
5.7. Temperature scaling
Урок 36.
00:08:20
5.8. Top-k sampling
Урок 37.
00:10:51
5.9. Modifying the text generation function
Урок 38.
00:04:24
5.10. Loading and saving model weights in PyTorch
Урок 39.
00:20:04
5.11. Loading pretrained weights from OpenAI
Урок 40.
00:39:21
6.1. Prerequisites to Chapter 6
Урок 41.
00:26:58
6.2. Preparing the dataset
Урок 42.
00:16:08
6.3. Creating data loaders
Урок 43.
00:10:11
6.4. Initializing a model with pretrained weights
Урок 44.
00:15:38
6.5. Adding a classification head
Урок 45.
00:22:32
6.6. Calculating the classification loss and accuracy
Урок 46.
00:33:36
6.7. Fine-tuning the model on supervised data
Урок 47.
00:11:07
6.8. Using the LLM as a spam classifier
Урок 48.
00:15:48
7.1. Preparing a dataset for supervised instruction fine-tuning
Урок 49.
00:23:45
7.2. Organizing data into training batches
Урок 50.
00:07:31
7.3. Creating data loaders for an instruction dataset
Урок 51.
00:07:48
7.4. Loading a pretrained LLM
Урок 52.
00:20:02
7.5. Fine-tuning the LLM on instruction data
Урок 53.
00:09:40
7.6. Extracting and saving responses
Урок 54.
00:21:57
7.7. Evaluating the fine-tuned LLM
Авторы - Abhinav Kimothi, Sebastian Raschka
Abhinav Kimothi
Абхинав Кимоти - предприниматель и вице-президент по искусственному интеллекту в компании Yarnit. У него более 15 лет опыта в консультировании и управлении проектами в области науки о данных, машинного обучения и искусственного интеллекта. Абхинав успешно сочетает техническую экспертизу с бизнес-мышлением, помогая компаниям внедрять ИИ-решения, которые приносят реальную пользу.
Sebastian Raschka
Я инженер-исследователь в области искусственного интеллекта, специализирующийся на больших языковых моделях (LLMs), глубоком обучении и разработке с открытым исходным кодом. Моя работа включает исследование ИИ, создание практических инструментов и распространение знаний через книги и вклад в проекты с открытым исходным кодом.
At work, I get this error: (not at home)
К сожалению вы не получили доступ к файлу. Пожалуйста, напишите нам на info@coursehunter.net для быстрого решения проблемы. | Sorry, you have not been able to access the file. Please email us at info@coursehunter.net for a quick fix.
Anonymous
Thank you guys
We need more diamonds like this
Alphonse
This is classic... man.. Thank you @Andrew
CourseHunter Team
Alphonse
You are welcome
Команда внимательно читает ваши комментарии и оперативно на них реагирует. Вы можете спокойно оставлять запросы на обновления или задавать любые вопросы о курсе здесь.
Локальные LLM через Ollama и LM Studio - Практическое руководство
Local LLMs via Ollama & LM Studio - The Practical Guide
ИИ-ассистенты вроде ChatGPT и Google Gemini стали повседневными инструментами. Но когда важны конфиденциальность, стоимость, работа без интернета или гибкая настройка, лучшее решение - запустить мощные открытые языковые модели (LLM) прямо у себя на компьютере.На этом курсе вы научитесь запускать и использовать локальные ИИ-модели, такие как Llama от Meta, Gemma от Google и DeepSeek, даже на обычном ноутбуке - без облаков, подписок и утечки данных
Если вам интересен ИИ, который реально работает, а не просто красиво звучит, этот компактный курс именно для вас.Тонкая настройка модели GPT - это не просто изменение параметров. Это процесс, который позволяет «перепрошить» модель под ваши конкретные задачи и цели.Будь то создание умных чат-ботов, персонализированных систем обучения или генераторов контента, в этом курсе вы получите все инструменты, чтобы реализовать свои идеи с помощью собственн
Буткемп по AI-разработке: Освоение Retrieval Augmented Generation (RAG) для LLM
AI Engineering Bootcamp: RAG (Retrieval Augmented Generation) for LLMs
Этот курс научит вас создавать более интеллектуальные AI-приложения, используя одну из важнейших техник современного искусственного интеллекта - Retrieval Augmented Generation (RAG). Вы научитесь объединять большие языковые модели (LLMs) с RAG для создания продвинутых проектов, таких как чат-боты, финансовые аналитические системы и многое другое.
К сожалению вы не получили доступ к файлу. Пожалуйста, напишите нам на info@coursehunter.net для быстрого решения проблемы. | Sorry, you have not been able to access the file. Please email us at info@coursehunter.net for a quick fix.
We need more diamonds like this