# learn-ai-doc **Repository Path**: wanggang826/learn-ai-doc ## Basic Information - **Project Name**: learn-ai-doc - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-08-28 - **Last Updated**: 2025-10-10 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # learn-ai-doc ### python ollama LLM LangChain LlamaIndex Ai AgentRAG prompt mcpserver FastAPI 向量数据库 Weaviate Milvus Es #### ai编辑器学习90% 工作中用起来 #### python语法 70% #### ollama 一个本地运行管理大模型的工具 60% ##### 安装ollama 1. 下载ollama [ollama.com](https://ollama.com) 2. 安装ollama 1. windows 直接双击安装 2. macos 打开终端运行 `brew install ollama` 3. linux 打开终端运行 `curl -fsSL https://ollama.com/install.sh | sh` 3. 启动ollama 服务 `ollama serve` 4. 验证ollama 服务是否启动 `ollama list` ##### #### LLM 大语言模型 也叫大型语言模型,是一种人工智能模型,旨在理解和生成人类语言 #### Transformer #### Embedding 嵌入模型,向量化 是一种将文本数据转换为数值向量的技术,用于捕捉文本的语义信息,以便进行文本相似度计算、信息检索和文本分类等任务。 #### LangChain 全能型 LLM 应用开发管家 #### LlamaIndex LLM 的数据框架 1. 无缝连接 LLM 与各类外部或私有数据源,高效地连接、处理和检索数据,为 LLM 提供高质量的上下文信息,特别适合需要高效处理和查询大量文本数据的场景。 #### Ai Agent #### RAG RAG就是通过检索获取相关的知识并将其融入Prompt,让大模型能够参考相应的知识从而给出合理回答。因此,可以将RAG的核心理解为“检索+生成”,前者主要是利用向量数据库的高效存储和检索能力,召回目标知识;后者则是利用大模型和Prompt工程,将召回的知识合理利用,生成目标答案 ##### 结合ai在做项目进一步加深理解和实践 1. 数据准备阶段:数据提取——>文本分割——>向量化(embedding)——>数据入库 2. 应用阶段:用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答案 #### prompt 提示工程 #### mcpserver #### FastAPI #### 向量数据库 #### Weaviate #### Milvus #### Es