Полная программа
Подробная программа теперь отображается как роадмап: проходите темы по этапам, открывайте материалы и отмечайте прогресс.
Базовый ML
Путь от работы с данными до ансамблей и feature engineering — всё что нужно для уверенного старта в ML
Прогресс
0 из 17 темЗнакомство с данными
0/3Учимся загружать, исследовать и визуализировать данные — первый шаг в любом ML-проекте
Чтение данных (Pandas, CSV, JSON)
Учимся загружать данные из разных источников и работать с DataFrame — основной структурой для анализа.
EDA (разведочный анализ)
Разбираемся как исследовать данные: распределения, пропуски, корреляции, выбросы — до того как строить модель.
Визуализация (matplotlib, seaborn)
Знакомимся с построением графиков: гистограммы, scatterplot, heatmap, boxplot — чтобы видеть данные.
Линейные модели
0/4Осваиваем фундамент ML — линейные модели, метрики и оптимизацию
Линейная регрессия
Учимся предсказывать числовые значения — самая базовая модель ML, но суперважная для понимания всего остального.
Метрики регрессии (MAE, MSE, RMSE, R²)
Разбираемся как оценивать качество предсказаний — без метрик непонятно, хорошая модель или нет.
Градиентный спуск
Знакомимся с главным алгоритмом оптимизации в ML — как модели учатся на данных шаг за шагом.
Логистическая регрессия
Учимся решать задачи классификации — предсказываем вероятности принадлежности к классу.
Метрики классификации
0/3Глубоко разбираемся в метриках качества классификации — must have для любого собеса
Confusion Matrix, Precision, Recall, F1
Разбираемся в базовых метриках классификации — без них ни один собес не пройти.
ROC-AUC
Учимся оценивать модель по ROC-кривой и AUC — ключевая метрика для задач с дисбалансом классов.
Валидация и переобучение
Разбираемся с train/val/test split, кросс-валидацией и как бороться с переобучением.
Деревья и ансамбли
0/4Переходим к мощным моделям — деревья решений, Random Forest, бустинг
Решающие деревья
Знакомимся с деревьями решений — интуитивно понятная модель, которая лежит в основе всех ансамблей.
Random Forest
Учимся объединять много деревьев в ансамбль — баггинг, случайные подпространства и почему это работает.
Градиентный бустинг (XGBoost, LightGBM, CatBoost)
Осваиваем главное оружие на Kaggle и в продакшене — бустинг, который побеждает почти всех.
Feature Engineering
Учимся создавать новые признаки из сырых данных — часто важнее выбора модели.
Продвинутые темы
0/3Дорабатываем навыки — работа с грязными данными, категориями и отбором признаков
Работа с пропусками и выбросами
Разбираемся что делать, когда данные неидеальны — пропуски, выбросы, аномалии.
Категориальные признаки
Учимся кодировать категории: one-hot, label encoding, target encoding — и когда что использовать.
Feature Selection
Знакомимся с методами отбора признаков — убираем шум и ускоряем модели.