
egghead
Проект egghead.io представляет огромный выбор курсов и скринкастов для разработчиков любого уровня и профессии.
Scripting Local Language Models with Ollama and the Vercel AI SDK
Создавайте мощные локальные скрипты на основе искусственного интеллекта Перестаньте ограничиваться простыми AI-чатами и откройте истинный потенциал локальных языковых моделей, научившись писать для них скрипты. Этот курс проведёт вас шаг за шагом через процесс создания гибкого и «умного» командного инструмента, который понимает естественный язык, взаимодействует с файловой системой и автоматизирует сложные задачи - всё это работает полностью локально, без облака.
Начиная с пустого TypeScript-файла, вы узнаете, как объединить возможности Ollama, Vercel AI SDK и Zod, чтобы создать не просто работающий, а по-настоящему интеллектуальный скрипт. Сначала вы обучите модель распознавать команды в обычных фразах, затем добавите динамическую обработку пользовательского ввода, доступ к файлам проекта и генерацию контекстно-зависимого текстового вывода.
Вы освоите ключевые приёмы создания устойчивых и расширяемых инструментов: корректную обработку ошибок, неожиданных ответов ИИ и удобную модульную структуру команд. В финале вы создадите интеллектуальный слой, который позволит скрипту понимать ваши намерения - вплоть до определения нужного типа файла для обработки.
В результате вы разработаете собственного локального AI-ассистента и получите базовые навыки для построения продвинутых автоматизаций на своём компьютере.
В курсе вы узнаете:
Проект egghead.io представляет огромный выбор курсов и скринкастов для разработчиков любого уровня и профессии.
Retrieval-Augmented Generation (RAG) - это следующий практический шаг после семантического поиска и индексации. В этом курсе вы создадите полноценный локальный RAG-конвейер, который обрабатывает PDF-файлы, разбивает тексты на фрагменты, сохраняет векторы в Elasticsearch, извлекает релевантный контекст и генерирует обоснованные ответы с помощью модели Mistral, запущенной локально через Ollama.Мы пройдём путь от начала до конца на конкретном сценар
ИИ-ассистенты вроде ChatGPT и Google Gemini стали повседневными инструментами. Но когда важны конфиденциальность, стоимость, работа без интернета или гибкая настройка, лучшее решение - запустить мощные открытые языковые модели (LLM) прямо у себя на компьютере.На этом курсе вы научитесь запускать и использовать локальные ИИ-модели, такие как Llama от Meta, Gemma от Google и DeepSeek, даже на обычном ноутбуке - без облаков, подписок и утечки данных
https://talktastic.com/