# knowledge_graph_edu **Repository Path**: ibdp/knowledge_graph_edu ## Basic Information - **Project Name**: knowledge_graph_edu - **Description**: 知识图谱生成和其他零碎 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-12-11 - **Last Updated**: 2025-12-11 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 知识图谱生成工具 ## 项目简介 本项目是一个基于Ollama和spaCy的知识图谱生成工具,能够从文本中提取实体和实体关系,生成结构化的知识图谱,并以HTML格式可视化展示。 ## 功能特点 - ✅ 基于Ollama的初始知识图谱生成 - ✅ 章节梳理和知识点提取 - ✅ 专业的实体类型和关系类型体系 - ✅ 基于初始知识图谱的二次加工 - ✅ 增强的实体和关系提取 - ✅ 详细的进度条显示 - ✅ 良好的错误处理和用户体验 - ✅ 可视化的HTML输出 ## 依赖项 项目依赖以下Python库: ``` spacy>=3.0.0 pandas>=1.3.0 pyvis>=0.1.9 tqdm>=4.60.0 requests>=2.25.0 argparse>=1.4.0 numpy>=1.21.0 ``` ## 安装步骤 ### 1. 安装Python依赖 ```bash # 使用pip安装依赖 pip install -r requirements.txt # 安装spaCy中文模型 python -m spacy download zh_core_web_sm ``` ### 2. 安装Ollama #### Linux ```bash curl -fsSL https://ollama.com/install.sh | sh ``` #### macOS ```bash brew install ollama ``` #### Windows 从[Ollama官网](https://ollama.com/)下载安装包并安装。 ## 调用方式 ### 基本调用 ```bash python generate_kg.py --input transcript.txt --output kg.html --model qwen2:7b ``` ### 使用快速模式 ```bash python generate_kg.py --input transcript.txt --output kg.html --model qwen2:7b --fast ``` ## 命令参数 | 参数 | 类型 | 必须 | 描述 | |------|------|------|------| | --input | string | 是 | 输入文本文件路径 | | --output | string | 否 | 输出HTML文件路径(默认:kg.html) | | --model | string | 否 | Ollama模型名称(默认:qwen2:7b-q4_K_M) | | --fast | bool | 否 | 快速模式:按字符分块(默认:false) | | --ollama-url | string | 否 | Ollama服务地址(默认:http://localhost:11434) | | --skip-ollama-check | bool | 否 | 跳过Ollama服务状态检查(默认:false) | ## 适用系统 - ✅ Linux - ✅ macOS - ✅ Windows ## Ollama安装和模型加载 ### 1. 启动Ollama服务 ```bash # Linux/macOS ollama serve # Windows 在命令提示符中运行:ollama serve ``` ### 2. 配置Ollama绑定地址 默认情况下,Ollama仅绑定localhost,如果需要从其他机器访问,需要配置绑定地址: ```bash # Linux/macOS export OLLAMA_HOST=0.0.0.0 ollama serve # Windows set OLLAMA_HOST=0.0.0.0 ollama serve ``` ### 3. 拉取模型 ```bash # 拉取qwen2:7b模型 ollama pull qwen2:7b # 拉取其他模型 ollama pull llama3:8b ollama pull gemma:7b ``` ### 4. 查看已安装的模型 ```bash ollama list ``` ## 示例用法 ### 示例1:使用默认参数 ```bash python generate_kg.py --input sample.txt --output kg.html ``` ### 示例2:使用快速模式和自定义模型 ```bash python generate_kg.py --input sample.txt --output kg.html --model llama3:8b --fast ``` ### 示例3:使用自定义Ollama服务地址 ```bash python generate_kg.py --input sample.txt --output kg.html --ollama-url http://192.168.121.2:11434 ``` ## 项目结构 ``` ├── generate_kg.py # 主程序文件 ├── requirements.txt # 依赖项配置 ├── README.md # 项目文档 └── sample.txt # 示例输入文件(可选) ``` ## 注意事项 1. 确保Ollama服务已启动并运行 2. 确保已安装所需的模型 3. 输入文本文件应为UTF-8或GBK编码 4. 对于大文件,建议使用快速模式 5. 可以使用--skip-ollama-check参数跳过服务检查 6. 可以使用--ollama-url参数指定自定义服务地址 ## 许可证 MIT License ## 联系方式 如有问题或建议,请提交Issue或Pull Request。