# ollama_api_request **Repository Path**: ming_log/ollama_api_request ## Basic Information - **Project Name**: ollama_api_request - **Description**: No description available - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 0 - **Created**: 2025-07-04 - **Last Updated**: 2025-11-06 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # ollama-api-request ## 项目简介 本项目是一个用于与本地部署的 Ollama API 进行交互的 Python 脚本集合,支持文本嵌入、对话和生成等多种大模型推理请求。适用于需要通过 Python 脚本快速调用本地大模型 API 的场景。 ## 主要功能 - **文本嵌入(Embedding)** 通过 `api_request_embed.py`,可向本地 Ollama API 发送文本,获取其嵌入向量,并支持将结果转为 PyTorch 张量进行后续处理。 - **对话(Chat)** 通过 `api_request_chat.py`,以流式或非流式方式与本地大模型进行多轮对话,支持自定义 system prompt 和消息内容。 - **文本生成(Generate)** 通过 `api_request_generate.py`,以流式或非流式方式向本地大模型发送 prompt,获取生成结果,适合问答、创作等场景。 ## 依赖环境 - Python >= 3.10 - requests >= 2.32.4 - torch >= 2.7.1 - jupyter >= 1.1.1(如需在 notebook 环境下使用) 可通过如下命令安装依赖: ```bash uv sync ``` ## 使用方法 1. **启动本地 Ollama API 服务** 请确保本地 Ollama API 已在 `http://localhost:6008` 启动,并开放 `/api/embed`、`/api/chat`、`/api/generate` 等接口。 2. **运行脚本示例** - 获取文本嵌入: ```bash python api_request_embed.py ``` 输出为输入文本的嵌入张量 shape。 - 进行对话: ```bash python api_request_chat.py ``` 输出为与大模型的对话内容。 - 文本生成: ```bash python api_request_generate.py ``` 输出为大模型生成的文本。 3. **自定义调用** 你可以根据需要修改各脚本中的 `ip_addr`、`api_route`、`messages`、`system`、`prompt` 等参数,实现自定义请求。 ## 目录结构 ``` . ├── api_request_embed.py # 文本嵌入请求脚本 ├── api_request_chat.py # 对话请求脚本 ├── api_request_generate.py # 文本生成请求脚本 ├── main.py # 示例入口(打印 hello) ├── pyproject.toml # 项目依赖与元信息 ├── uv.lock # 依赖锁定文件 ├── .gitignore ├── .python-version └── README.md ``` ## 备注 - 本项目仅为本地 API 请求示例,需配合本地 Ollama API 服务使用。 - 如需扩展更多模型或接口,可参考现有脚本结构进行修改。