К реальным собесам
Реальный собесMirai2026-05-07

Mirai: LLM inference, RL и distributed training

Research/infra собеседование про continuous batching, exploration в RL, UCB при большом action space, LoRA memory trade-offs, FP16/BF16 и parallelism.

Таймлайн собеседования

Компактный список вопросов и задач по ходу записи: раскрывайте только нужные детали.

00:10:36-00:12:12Вопрос

Continuous batching в LLM inference

00:23:42-00:25:44Вопрос

Systematic exploration в RL

00:25:44-00:28:32Вопрос

UCB при 1000 actions и коротком horizon

00:32:33-00:35:26Вопрос

LoRA, memory и batch size

00:36:33-00:40:00Вопрос

FP16 vs BF16

00:43:26-00:48:10Вопрос

FSDP vs tensor/pipeline parallelism

Выводы и как готовиться

  • Continuous batching надо объяснять через decode scheduler, разные длины запросов и KV cache management.
  • В RL важно оценивать action-space/horizon до выбора exploration алгоритма.
  • LoRA и distributed training вопросы проверяют память: optimizer state, activation memory, tensor/pipeline/FSDP trade-offs.