Назад к курсу
АкадемияData Analytics + AIНеделя 9RAG: Retrieval-Augmented Generation
Урок 53Неделя 92.5 часа

RAG: Retrieval-Augmented Generation

LLM отвечает по твоим данным, а не галлюцинирует

95%vs 60% без

Точность с RAG

0grounded

Галлюцинаций

100msinstant

Поиск по векторам

scalable

Размер базы знаний

AI Insight

RAG решает главную проблему LLM — галлюцинации. Вместо "придумай ответ" модель говорит "вот что написано в документе, страница 47, параграф 3". Точность с 60% до 95%.

Ключевые темы

RAG = Retrieval + Generation: ищем релевантные чанки → скармливаем LLM
Vector databases: ChromaDB, Pinecone, Qdrant — хранение embeddings
Chunking strategies: по абзацам, по предложениям, semantic chunking
Embedding модели: sentence-transformers, OpenAI ada-002, Cohere
Advanced RAG: re-ranking, hybrid search (BM25 + vector), query expansion

Аналитика и графики

Старый подход vs AI-подход

🪦Старый век
🚀Новый век
Ответы по базе знаний

LLM галлюцинирует — 40% точность

RAG — 95% точность с источниками

Инструменты урока

ChromaDBLangChainsentence-transformersClaude APIQdrant

Домашнее задание

Практическое задание

Постройте RAG систему: 1) Загрузите 50+ документов (PDF/TXT), 2) Chunking + embeddings в ChromaDB, 3) Retrieval + Claude API для ответов, 4) Оцените качество: precision@K на 20 тестовых вопросах.

Урок 53 из 59