Реальный собесMirai2026-05-07
Mirai: LLM inference, RL и distributed training
Research/infra собеседование про continuous batching, exploration в RL, UCB при большом action space, LoRA memory trade-offs, FP16/BF16 и parallelism.
Таймлайн собеседования
Компактный список вопросов и задач по ходу записи: раскрывайте только нужные детали.
00:10:36-00:12:12Вопрос
ВопросContinuous batching в LLM inference
00:23:42-00:25:44Вопрос
ВопросSystematic exploration в RL
00:25:44-00:28:32Вопрос
ВопросUCB при 1000 actions и коротком horizon
00:32:33-00:35:26Вопрос
ВопросLoRA, memory и batch size
00:36:33-00:40:00Вопрос
ВопросFP16 vs BF16
00:43:26-00:48:10Вопрос
ВопросFSDP vs tensor/pipeline parallelism
Выводы и как готовиться
- Continuous batching надо объяснять через decode scheduler, разные длины запросов и KV cache management.
- В RL важно оценивать action-space/horizon до выбора exploration алгоритма.
- LoRA и distributed training вопросы проверяют память: optimizer state, activation memory, tensor/pipeline/FSDP trade-offs.