# ai3f **Repository Path**: aizuda/ai3f ## Basic Information - **Project Name**: ai3f - **Description**: 🔥 Faithful 忠诚 + Friendly 友好 + Focused 专注 = ai3f 智能机器人助手 - **Primary Language**: Unknown - **License**: AGPL-3.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 4 - **Forks**: 2 - **Created**: 2026-01-31 - **Last Updated**: 2026-02-04 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 🤖 ai3f 智能机器人助手 - 🔥 Faithful 忠诚 + Friendly 友好 + Focused 专注 = ai3f > 当前是一个测试项目,未来有一万种可能,敬请期待 ## 支持大模型 - 本地大模型 [Ollama](https://ollama.com/) 自主安装适用内网环境 - 国内大模型 [deepseek](https://deepseek.com/) ## 功能说明 - IM 聊天辅助,支持:钉钉 ## 配置说明 本项目支持通过 YAML 配置文件管理钉钉机器人和 Ollama 服务的相关配置。 ### 配置文件结构 修改 `config.example.yaml` 配置文件重命名 `config.yaml` 并修改配置文件内容 ```yaml # 钉钉机器人配置 # 获取方式: 钉钉开发者后台 -> 创建应用 -> 获取 Client ID 和 Client Secret dingTalk: # 钉钉应用的 Client ID clientId: "your_dingtalk_client_id" # 钉钉应用的 Client Secret clientSecret: "your_dingtalk_client_secret" # Ollama 服务地址 # 默认为本地地址,如果使用远程服务,请修改此地址 baseUrl: "http://localhost:11434" # LLM 服务配置 llm: # LLM 服务地址,例如 Ollama 或其他 LLM 服务 baseUrl: "http://localhost:11434" # 认证令牌(可选),如果服务需要认证则填写 authToken: "" # 大模型(可选)例如 ollama 模型名称 model: "qwen3:4b" # 智能体角色 role: "user" # 是否流式返回 stream: false ``` ### 自定义配置文件路径 可以通过环境变量 `CONFIG_FILE` 指定自定义配置文件路径: ```bash CONFIG_FILE=./my-config.yaml go run main.go ``` ## 开发说明 [钉钉机器人接入文档](https://opensource.dingtalk.com/developerpedia/docs/explore/tutorials/stream/overview) ### 依赖项目包 [fiber](https://gofiber.io/) [dingtalk-stream-sdk-go](github.com/open-dingtalk/dingtalk-stream-sdk-go) [go-deepseek](https://github.com/p9966/go-deepseek)