# RAG-Agent-Pipeline **Repository Path**: zwz050418/rag-agent-pipeline ## Basic Information - **Project Name**: RAG-Agent-Pipeline - **Description**: 一个面向「个人知识管理」场景的智能问答系统。用户可以上传本地文档,系统自动完成文本解析、切分与向量化存储,在问答阶段通过 RAG(Retrieval-Augmented Generation)+ Agent 流程,从向量数据库中检索相关片段,并调用大模型生成上下文感知的答案。 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-03-08 - **Last Updated**: 2026-03-08 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ## RAG-Agent-Pipeline 一个面向「个人知识管理」场景的智能问答系统。 用户可以上传本地文档,系统自动完成文本解析、切分与向量化存储,在问答阶段通过 RAG(Retrieval-Augmented Generation)+ Agent 流程,从向量数据库中检索相关片段,并调用大模型生成上下文感知的答案。 --- ### 项目简介 - **项目名称**:RAG-Agent-Pipeline - **核心目标**: - 管理个人或团队的文档知识库(PDF/TXT/Markdown 等); - 利用 RAG 技术,将检索到的文档上下文与大模型结合,给出有依据的回答; - 通过多步 Agent,将复杂目标拆解成多个子任务,结合 RAG 逐步完成并给出总结。 --- ### 技术栈总览 - **后端** - **框架**:FastAPI - **语言 & 运行环境**:Python 3.10+ - **向量数据库**:Milvus(推荐使用 Docker standalone 模式) - **Embedding & LLM** - 本地:Ollama(默认示例模型:`qwen2.5-coder:7b`,用于 Embedding 和 LLM) - 云端(可选):OpenAI(保留兼容接口) - **关键依赖**: - `fastapi`, `uvicorn` - `pymilvus` - `ollama`, `openai` - `pydantic-settings`, `python-dotenv` - `PyPDF2`, `numpy`, `pandas` - **前端** - **构建工具**:Vite - **框架**:Vue 3(`