Лучший способ понять, как работают большие языковые модели (LLM), - это построить свою собственную. И именно это вы сделаете в этом курсе. В этом увлекательном видеокурсе эксперт в области ИИ Себастьян Рашка шаг за шагом проведёт вас через все этапы создания LLM - на практике и с пояснениями в формате liveVideo. Вы будете реализовывать проект из его бестселлера Build a Large Language Model (From Scratch) вместе с автором.
В этом курсе вы научитесь:
Планировать архитектуру и писать код для всех компонентов LLM
Подготавливать датасет, подходящий для обучения языковой модели
Дообучать LLM для задач классификации текста и работы с собственными данными
Применять обратную связь от человека (human feedback), чтобы улучшить следование инструкциям
Загружать предобученные веса в свою модель
Этот видеокурс идеально подойдёт:
разработчикам, которые хотят взять на себя инициативу в проектах, связанных с ИИ
дата-сайентистам и ML-исследователям, которым важно уметь настраивать или создавать LLM с нуля
Дополнительно в курс включён блок из 6 обязательных вводных видео от Абхинава Кимоти, эксперта в области искусственного интеллекта и автора книги A Simple Guide to Retrieval Augmented Generation. Он объясняет всё, что нужно знать перед стартом: от возможностей Python до продвинутых операций в PyTorch. Независимо от уровня подготовки, вы получите прочную базу для успешной работы с большими языковыми моделями.
Посмотреть больше
Это пробный урок. Оформите подписку, чтобы получить доступ ко всем материалам курса. Премиум
Ограничение времени просмотра
Вы можете просматривать пробный урок только 10 минут. Получите полный доступ, чтобы смотреть без ограничений.
3.10. Implementing multi-head attention with weight splits
Урок 21.
01:11:23
4.1. Prerequisites to Chapter 4 (1
Урок 22.
00:14:00
4.2. Coding an LLM architecture
Урок 23.
00:22:14
4.3. Normalizing activations with layer normalization
Урок 24.
00:16:19
4.4. Implementing a feed forward network with GELU activations
Урок 25.
00:10:52
4.5. Adding shortcut connections
Урок 26.
00:12:14
4.6. Connecting attention and linear layers in a transformer block
Урок 27.
00:12:45
4.7. Coding the GPT model
Урок 28.
00:17:47
4.8. Generating text
Урок 29.
00:23:58
5.1. Prerequisites to Chapter 5
Урок 30.
00:17:32
5.2. Using GPT to generate text
Урок 31.
00:27:14
5.3. Calculating the text generation loss: cross entropy and perplexity
Урок 32.
00:24:52
5.4. Calculating the training and validation set losses
Урок 33.
00:27:04
5.5. Training an LLM
Урок 34.
00:03:37
5.6. Decoding strategies to control randomness
Урок 35.
00:13:43
5.7. Temperature scaling
Урок 36.
00:08:20
5.8. Top-k sampling
Урок 37.
00:10:51
5.9. Modifying the text generation function
Урок 38.
00:04:24
5.10. Loading and saving model weights in PyTorch
Урок 39.
00:20:04
5.11. Loading pretrained weights from OpenAI
Урок 40.
00:39:21
6.1. Prerequisites to Chapter 6
Урок 41.
00:26:58
6.2. Preparing the dataset
Урок 42.
00:16:08
6.3. Creating data loaders
Урок 43.
00:10:11
6.4. Initializing a model with pretrained weights
Урок 44.
00:15:38
6.5. Adding a classification head
Урок 45.
00:22:32
6.6. Calculating the classification loss and accuracy
Урок 46.
00:33:36
6.7. Fine-tuning the model on supervised data
Урок 47.
00:11:07
6.8. Using the LLM as a spam classifier
Урок 48.
00:15:48
7.1. Preparing a dataset for supervised instruction fine-tuning
Урок 49.
00:23:45
7.2. Organizing data into training batches
Урок 50.
00:07:31
7.3. Creating data loaders for an instruction dataset
Урок 51.
00:07:48
7.4. Loading a pretrained LLM
Урок 52.
00:20:02
7.5. Fine-tuning the LLM on instruction data
Урок 53.
00:09:40
7.6. Extracting and saving responses
Урок 54.
00:21:57
7.7. Evaluating the fine-tuned LLM
Авторы - Abhinav Kimothi, Sebastian Raschka
Abhinav Kimothi
Абхинав Кимоти - предприниматель и вице-президент по искусственному интеллекту в компании Yarnit. У него более 15 лет опыта в консультировании и управлении проектами в области науки о данных, машинного обучения и искусственного интеллекта. Абхинав успешно сочетает техническую экспертизу с бизнес-мышлением, помогая компаниям внедрять ИИ-решения, которые приносят реальную пользу.
Sebastian Raschka
Я инженер-исследователь в области искусственного интеллекта, специализирующийся на больших языковых моделях (LLMs), глубоком обучении и разработке с открытым исходным кодом. Моя работа включает исследование ИИ, создание практических инструментов и распространение знаний через книги и вклад в проекты с открытым исходным кодом.
At work, I get this error: (not at home)
К сожалению вы не получили доступ к файлу. Пожалуйста, напишите нам на info@coursehunter.net для быстрого решения проблемы. | Sorry, you have not been able to access the file. Please email us at info@coursehunter.net for a quick fix.
Anonymous
Thank you guys
We need more diamonds like this
Alphonse
This is classic... man.. Thank you @Andrew
CourseHunter Team
Alphonse
You are welcome
Команда внимательно читает ваши комментарии и оперативно на них реагирует. Вы можете спокойно оставлять запросы на обновления или задавать любые вопросы о курсе здесь.
Локальные LLM через Ollama и LM Studio - Практическое руководство
Local LLMs via Ollama & LM Studio - The Practical Guide
ИИ-ассистенты вроде ChatGPT и Google Gemini стали повседневными инструментами. Но когда важны конфиденциальность, стоимость, работа без интернета или гибкая настройка, лучшее решение - запустить мощные открытые языковые модели (LLM) прямо у себя на компьютере.На этом курсе вы научитесь запускать и использовать локальные ИИ-модели, такие как Llama от Meta, Gemma от Google и DeepSeek, даже на обычном ноутбуке - без облаков, подписок и утечки данных
Если вам интересен ИИ, который реально работает, а не просто красиво звучит, этот компактный курс именно для вас.Тонкая настройка модели GPT - это не просто изменение параметров. Это процесс, который позволяет «перепрошить» модель под ваши конкретные задачи и цели.Будь то создание умных чат-ботов, персонализированных систем обучения или генераторов контента, в этом курсе вы получите все инструменты, чтобы реализовать свои идеи с помощью собственн
Буткемп по AI-разработке: Освоение Retrieval Augmented Generation (RAG) для LLM
AI Engineering Bootcamp: RAG (Retrieval Augmented Generation) for LLMs
Этот курс научит вас создавать более интеллектуальные AI-приложения, используя одну из важнейших техник современного искусственного интеллекта - Retrieval Augmented Generation (RAG). Вы научитесь объединять большие языковые модели (LLMs) с RAG для создания продвинутых проектов, таких как чат-боты, финансовые аналитические системы и многое другое.
К сожалению вы не получили доступ к файлу. Пожалуйста, напишите нам на info@coursehunter.net для быстрого решения проблемы. | Sorry, you have not been able to access the file. Please email us at info@coursehunter.net for a quick fix.
We need more diamonds like this