LLM-инженер (часть 1 из 5) [Gigaschool] [Александр Потехин, Роман Соломатин]
Первая из пяти складчин на полный курс.
Создавай, обучай и внедряй LLM‑проекты под руководством экспертов и практиков
Что даст курс?
Это первая часть большого онлайн-курса, на которой вы научитесь создавать, дообучать и оптимизировать собственные большие языковые модели (LLM). Под руководством экспертов вы изучите современные архитектуры, методы дообучения PEFT, выравнивания моделей с помощью RLHF и способы уменьшения их размера для эффективного использования.
Что вы освоите в этой части:
Ключевые навыки:
Раздел 1. Своя LLM
Потехин Александр. NLP Lead X5 Tech
Соломатин Роман. ML Engineer (LLM, Ops) X5 Tech
Андреева Дарья. ML Engineer (NLP) X5 Tech
Желтова Кристина. Газпромбанк, директор по разработке моделей
Кокуйкин Евгений. CEO Raft
Цена 29942 рублей (за первую часть из пяти).
Следующие части курса:
Скрытое содержимое. Для просмотра необходимо: иметь статус Модератор.
Первая из пяти складчин на полный курс.
Создавай, обучай и внедряй LLM‑проекты под руководством экспертов и практиков
Что даст курс?
- Возможность создать LLM-проект
освоив технологии разработки LLM, вы сможете запускать свои проекты с нуля, создавая решения на базе передовых технологий. - Улучшить существующие сервисы
возможность создавать и оптимизировать LLM для реальных задач, повышая эффективность бизнес-процессов и улучшая качество сервисов.
Это первая часть большого онлайн-курса, на которой вы научитесь создавать, дообучать и оптимизировать собственные большие языковые модели (LLM). Под руководством экспертов вы изучите современные архитектуры, методы дообучения PEFT, выравнивания моделей с помощью RLHF и способы уменьшения их размера для эффективного использования.
Что вы освоите в этой части:
Ключевые навыки:
- Разбираться в архитектурах современных LLM (close vs open models)
- Запускать и адаптировать open-source модели под свои задачи
- Настраивать модели с помощью fine-tuning и PEFT (LoRA / QLoRA)
- Использовать методы RLHF для выравнивания моделей (включая DPO, PPO)
- Снижать ресурсоёмкость моделей через квантизацию и дистилляцию
- Hugging Face Transformers
- TRL (для RLHF)
- LoRA / QLoRA
Раздел 1. Своя LLM
- Современные LLM
Лекция: современные LLM, close vs open models, оценка качества, бенчмарки, что выбрать для своих задач, прайсинг
Лекция: оптимизации инференса в LLM - KV-caching, speculative decoding, MoE. - PEFT
Лекция: проблематика обучения LLM, обзор методов PeFT, нюансы применения
Семинар: сравнение методов файнтюнинга - полный, LP, LP+FT, PEFT - RLHF & Alignment
Лекция: что это и зачем, базовая терминология RL и обзор методов: - RLHF, PPO, DPO.
Семинар: TRL, RLHF для чат-модели - PPO или DPO - Уменьшение размеров модели
Лекция: обзор методов - дистилляция, квантование, прунинг, виды, применимость в LLM
Семинар: сравнение инструментов и влияние «битности» на качество, Quantization + LoRA и прочие миксы
Потехин Александр. NLP Lead X5 Tech
Соломатин Роман. ML Engineer (LLM, Ops) X5 Tech
Андреева Дарья. ML Engineer (NLP) X5 Tech
Желтова Кристина. Газпромбанк, директор по разработке моделей
Кокуйкин Евгений. CEO Raft
Цена 29942 рублей (за первую часть из пяти).
https://llmcourse.tech/
Следующие части курса: