На главную

Полная программа

Подробная программа теперь отображается как роадмап: проходите темы по этапам, открывайте материалы и отмечайте прогресс.

NLP и LLM

От токенизации до LLM-агентов: обработка текста, трансформеры, большие языковые модели и production NLP-системы.

Прогресс

0 из 30 тем
Кликни на кружок ○ чтобы отметить прогресс0%

📝 Основы NLP

0/4
Обязательно

Введение в NLP

Задачи NLP, токенизация, предобработка текста, стемминг и лемматизация.

3 ресурса
Читать →
Обязательно

Представление текста

Bag of Words, TF-IDF, n-граммы — как превратить текст в числа.

3 ресурса
Читать →
Обязательно

Векторные представления слов

Word2Vec, GloVe, FastText — как слова становятся векторами.

3 ресурса
Читать →
Обязательно

Классификация текста

Naive Bayes, логистическая регрессия, CNN для текста — практические задачи.

4 ресурса
Читать →

🧠 Нейросетевые модели

0/3
Обязательно

RNN и LSTM

Рекуррентные сети, затухание градиентов, LSTM/GRU, BiLSTM.

3 ресурса
Читать →
Обязательно

Языковые модели

N-грамм LM, нейросетевые LM, перплексия, стратегии генерации.

2 ресурса
Читать →
Обязательно

Seq2Seq и Attention

Encoder-decoder, механизм внимания, beam search, BPE-токенизация.

3 ресурса
Читать →

⚡ Transformer и предобученные модели

0/3
Обязательно

Transformer

Self-attention, multi-head attention, positional encoding — архитектура, изменившая NLP.

3 ресурса
Читать →
Обязательно

BERT

Masked LM, NSP, файнтюнинг, варианты: RoBERTa, ALBERT, DistilBERT.

3 ресурса
Читать →
Обязательно

GPT и авторегрессионные модели

GPT-1/2/3/4, scaling laws, emergent abilities, in-context learning.

3 ресурса
Читать →

🔥 Большие языковые модели

0/4
Обязательно

Основы LLM

Как устроены LLM изнутри: decoder-only архитектура, KV-cache для быстрого инференса, квантизация (GGUF, GPTQ, AWQ) для запуска на consumer GPU. Фокус на практике: запустить, оценить, выбрать модель.

4 ресурса
Читать →
Обязательно

Дообучение LLM

LoRA, QLoRA, PEFT, инструкционное обучение, RLHF/DPO.

3 ресурса
Читать →
Обязательно

Промпт-инжиниринг

Zero/few-shot, chain-of-thought, structured output, system prompts.

2 ресурса
Читать →
Обязательно

Оценка LLM

Бенчмарки, human eval, MMLU/HumanEval, оценка галлюцинаций, red-teaming.

2 ресурса
Читать →

🏗️ Обучение LLM — основы

0/4
Обязательно

Training Pipeline

Как обучают LLM: pre-training → mid-training → SFT → RLHF. Общая картина процесса.

3 ресурса
Читать →
Обязательно

SFT и дообучение

Supervised Fine-Tuning: chat templates, instruction datasets, sequence packing, distillation.

2 ресурса
Читать →
Обязательно

RLHF и DPO

Alignment через RLHF, DPO, RLVR. Как модель учится быть полезной и безопасной.

2 ресурса
Читать →
Обязательно

Scaling Laws и токенизация

Chinchilla, overtraining, BPE, vocab size trade-offs, LR schedules.

2 ресурса
Читать →

⚡ Frontier LLM Training

0/7
Обязательно

Современные архитектуры LLM

GQA/MLA, SwiGLU, gated attention, embedding sharing, RMSNorm — как устроены frontier модели.

2 ресурса
Читать →
Обязательно

Mixture of Experts (MoE)

Sparse-модели: routing, load balancing, shared experts. DeepSeek-V3, Kimi K2.

2 ресурса
Читать →
Обязательно

Позиционные кодирования и длинный контекст

RoPE, YaRN, RNoPE, document masking. Как модели масштабируются от 4K до 128K+ токенов.

2 ресурса
Читать →
Обязательно

Стабильность обучения и оптимизаторы

Logit softcapping, z-loss, AdamW, Muon, MuonClip, LR schedules, batch size scaling.

2 ресурса
Читать →
Обязательно

Продвинутый post-training

GRPO, RLVR, KTO/ORPO/APO, on-policy distillation, DeepSeek-R1 pipeline.

2 ресурса
Читать →
🌟 Бонус

Data Curation и Multi-stage Training

Data mixtures, ablation, synthetic data, multi-stage обучение. SmolLM3, Hermes 4, Kimi K2.

2 ресурса
Читать →
Обязательно

Distributed Training (Multi-GPU)

Data Parallelism, ZeRO, FSDP, Tensor/Pipeline Parallelism, 3D Parallelism. Как обучают модели на сотнях GPU.

3 ресурса
Читать →

🚀 Агенты и продакшн

0/5
Обязательно

RAG

Retrieval-Augmented Generation: чанкинг, эмбеддинги, реранкинг, гибридный поиск.

4 ресурса
Читать →
Обязательно

Векторные БД

FAISS, Qdrant, Weaviate, Milvus — индексы HNSW/IVF, выбор под задачу.

2 ресурса
Читать →
Обязательно

Оценка RAG-систем (RAGAS)

Метрики качества RAG: faithfulness, context precision/recall, answer relevancy. Фреймворк RAGAS для автоматической оценки.

4 ресурса
Читать →
Обязательно

LLM-агенты

ReAct, function calling, LangChain/LlamaIndex/CrewAI, оркестрация, memory.

3 ресурса
Читать →
🌟 Бонус

NLP System Design

Проектирование production NLP-систем: чат-бот, поиск, модерация.

2 ресурса
Читать →
ML Mentor — От нуля до оффера в ML