NLP и LLM
От токенизации до LLM-агентов: обработка текста, трансформеры, большие языковые модели и production NLP-системы.
📝 Основы NLP
Введение в NLP
Задачи NLP, токенизация, предобработка текста, стемминг и лемматизация.
Представление текста
Bag of Words, TF-IDF, n-граммы — как превратить текст в числа.
Векторные представления слов
Word2Vec, GloVe, FastText — как слова становятся векторами.
Классификация текста
Naive Bayes, логистическая регрессия, CNN для текста — практические задачи.
🧠 Нейросетевые модели
⚡ Transformer и предобученные модели
🔥 Большие языковые модели
Основы LLM
Архитектуры, обучение, инференс, квантизация, GGUF/GPTQ.
Дообучение LLM
LoRA, QLoRA, PEFT, инструкционное обучение, RLHF/DPO.
Промпт-инжиниринг
Zero/few-shot, chain-of-thought, structured output, system prompts.
Оценка LLM
Бенчмарки, human eval, MMLU/HumanEval, оценка галлюцинаций, red-teaming.
🏗️ Обучение LLM — основы
Training Pipeline
Как обучают LLM: pre-training → mid-training → SFT → RLHF. Общая картина процесса.
SFT и дообучение
Supervised Fine-Tuning: chat templates, instruction datasets, sequence packing, distillation.
RLHF и DPO
Alignment через RLHF, DPO, RLVR. Как модель учится быть полезной и безопасной.
Scaling Laws и токенизация
Chinchilla, overtraining, BPE, vocab size trade-offs, LR schedules.
⚡ Frontier LLM Training
Современные архитектуры LLM
GQA/MLA, SwiGLU, gated attention, embedding sharing, RMSNorm — как устроены frontier модели.
Mixture of Experts (MoE)
Sparse-модели: routing, load balancing, shared experts. DeepSeek-V3, Kimi K2.
Позиционные кодирования и длинный контекст
RoPE, YaRN, RNoPE, document masking. Как модели масштабируются от 4K до 128K+ токенов.
Стабильность обучения и оптимизаторы
Logit softcapping, z-loss, AdamW, Muon, MuonClip, LR schedules, batch size scaling.
Продвинутый post-training
GRPO, RLVR, KTO/ORPO/APO, on-policy distillation, DeepSeek-R1 pipeline.
Data Curation и Multi-stage Training
опц.Data mixtures, ablation, synthetic data, multi-stage обучение. SmolLM3, Hermes 4, Kimi K2.
Distributed Training (Multi-GPU)
Data Parallelism, ZeRO, FSDP, Tensor/Pipeline Parallelism, 3D Parallelism. Как обучают модели на сотнях GPU.
🚀 Агенты и продакшн
RAG
Retrieval-Augmented Generation: чанкинг, эмбеддинги, реранкинг, гибридный поиск.
Векторные БД
FAISS, Qdrant, Weaviate, Milvus — индексы HNSW/IVF, выбор под задачу.
Оценка RAG-систем (RAGAS)
Метрики качества RAG: faithfulness, context precision/recall, answer relevancy. Фреймворк RAGAS для автоматической оценки.
LLM-агенты
ReAct, function calling, LangChain/LlamaIndex/CrewAI, оркестрация, memory.
NLP System Design
опц.Проектирование production NLP-систем: чат-бот, поиск, модерация.
Подготовка к собеседованию
Проверьте свои знания NLP — от токенизации до RAG и LLM.