К тренажеру
ВопросHardragРеальный собес

RAG для factual search snippets

Как бы ты сделал retrieval-augmented generation для короткого factual snippet в поисковой выдаче?

Короткий ответ

Entity retrieval -> trusted evidence ranking -> constrained generation -> factuality checks -> fallback на extractive/template snippet.

Полный разбор

RAG path: resolve entity, retrieve trusted documents/knowledge graph facts, score evidence by freshness/authority/locale, generate short answer with constrained prompt/schema, then verify claims against evidence. Для поисковой карточки лучше не давать модели придумывать структуру: ограничить длину, tone, required fields and banned claims.

Quality gates: unsupported claims, contradiction, stale facts, language detection, policy checks, near-duplicate detection. Если evidence слабый, система должна деградировать в extractive snippet или не показывать карточку.

Теория

Главная задача RAG в поиске - не сделать текст красивее, а уменьшить unsupported generation.

Типичные ошибки

  • Подавать в LLM весь документ без evidence ranking.
  • Не иметь fallback.
  • Не проверять каждое важное утверждение.

Как отвечать на собеседовании

  • Опиши pipeline так, чтобы было понятно, где контролируется factuality.