# Microi.OpenClaw **Repository Path**: cham-lu/microi.openclaw ## Basic Information - **Project Name**: Microi.OpenClaw - **Description**: OpenClaw 本地管理工具,一键环境搭建 & 服务管理 & 远程连接 Microi 吾码低代码平台。 - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 39 - **Created**: 2026-03-13 - **Last Updated**: 2026-03-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 🦞 Microi.OpenClaw **OpenClaw 本地管理工具** —— AI 智能助手网关 · 一键环境搭建 · 多模型接入 · 可独立运行/可接入 Microi 平台

--- ## 📖 简介 `Microi.OpenClaw` 是 [OpenClaw](https://github.com/openclaw/openclaw) 的 **本地桌面管理工具**(Electron exe),帮助你在 Windows / macOS / Linux 上: 1. **一键安装** Node.js 22 + OpenClaw CLI(全自动,无需手动配置) 2. **内置 AI 对话** 聊天界面输入自然语言即可与 AI 交互 3. **多模型支持** DeepSeek-V3、通义千问 (Qwen)、Ollama、GPT-4o、Claude 等,一键切换 4. **可视化管理** OpenClaw Gateway 服务的启动/停止/重启 5. **实时查看** 运行日志和系统资源(CPU/内存/网络) 6. **配置编辑** openclaw.json(可视化 + JSON 源码双模式 + 模型模板快选) 7. **显示 IP+端口** 内网/外网 IP 及服务端口,方便路由器端口映射 8. **远程连接** [Microi 吾码低代码平台](https://microi.net),实现云端统一管理多节点 > 💡 本项目可 **完全独立运行**(自带 AI 对话和模型配置),也可搭配 **Microi 吾码低代码平台** 实现多节点集中管控。 --- ## 📸 界面预览 --- ## ✨ 功能特性 | 功能 | 说明 | |---|---| | 💬 AI 对话 | 内置聊天界面,自然语言与 AI 实时交互,支持流式输出 (SSE) | | 🤖 多模型接入 | 支持 **DeepSeek-V3**、**通义千问 (Qwen)**、**Ollama** 本地模型、GPT-4o、Claude 等 | | 📦 环境检测 | 自动检测 Node.js 22+、npm、OpenClaw CLI、Git 是否已安装 | | 🚀 一键安装 | 全自动下载安装 Node.js 22 便携版 + `npm install -g openclaw` + MinGit | | ▶️ 服务管理 | 启动/停止/重启 OpenClaw Gateway,显示 PID、运行时间、实时输出 | | 📋 实时日志 | WebSocket 实时推送日志,支持级别过滤、自动滚动 | | ⚙️ 配置编辑 | 可视化编辑模型/Gateway 配置,内置 DeepSeek/Qwen/Ollama/GPT/Claude 模板 | | 🌐 网络信息 | 显示内网 IP + 外网 IP + 服务端口,方便路由器端口映射 | | 📊 系统监控 | CPU / 内存使用率实时显示 | | 🔗 远程连接 | 心跳上报到 Microi 平台,实现多节点统一管理 | | 📥 版本更新 | 一键 `npm update -g openclaw` 更新 | | 🔌 端口自适应 | 端口 5567 被占用时自动尝试下一个(最多 +10) | --- ## 🏗️ 架构 ``` microi.openclaw/ ├── electron/ # Electron 主进程 │ └── main.js # 桌面应用入口(端口重试逻辑) ├── index.html # 页面入口 ├── package.json # 项目配置 + electron-builder 打包 ├── vite.config.js # Vite 构建配置 │ ├── src/ # 前端 (Vue 3 + Element Plus) │ ├── main.js # 入口 │ ├── App.vue # 根组件 (暗色主题) │ ├── router/index.js # 路由 │ └── views/ │ ├── Layout.vue # 侧边栏布局 (含 IP+端口显示) │ ├── Chat.vue # 💬 AI 对话 (聊天框) │ ├── Home.vue # 主页 (状态+快捷操作) │ ├── Environment.vue # 环境管理 │ ├── Service.vue # 服务管理 │ ├── Config.vue # 配置编辑 (模型模板) │ ├── Logs.vue # 实时日志 │ └── Remote.vue # 远程连接 │ ├── server/ # 后端 (Express + WebSocket) │ ├── index.js # 服务入口 (端口 5567+) │ ├── utils.js # 工具函数 (Node.js/npm 路径探测) │ └── routes/ │ ├── chat.js # 💬 AI 对话代理 (转发至 Gateway) │ ├── env.js # 环境检测与自动安装 │ ├── service.js # Gateway 启停 │ ├── config.js # 配置读写 (openclaw.json) │ ├── logs.js # 日志读取 │ ├── status.js # 系统状态 + 网络信息 │ ├── machine.js # 机器信息 │ ├── remote.js # 远程连接 │ └── action.js # 快捷操作 │ ├── dist/ # 前端构建产物 └── release/ # 安装包输出目录 └── Microi.OpenClaw Setup 1.0.0.exe ``` --- ## 🚀 快速开始 ### 普通用户(推荐) 直接下载安装包,双击安装即可使用,**无需任何编程知识**: | 平台 | 下载 | |---|---| | Windows | [Microi.OpenClaw Setup 1.0.0.exe](https://gitee.com/microi-net/microi.openclaw/releases) | 安装后打开应用,进入 **环境管理**,点击 **一键安装全部依赖**,即可自动下载 Node.js 22 和 OpenClaw CLI。 ### 开发者 ```bash git clone https://gitee.com/microi-net/microi.openclaw.git cd microi.openclaw npm install npm run dev ``` ### 首次使用 1. 打开管理界面,进入 **环境管理** 页面 2. 点击 **🚀 一键安装全部依赖**(自动下载 Node.js 22 便携版 + OpenClaw CLI) 3. 全部显示 ✅ 后,进入 **配置编辑** 页面 4. 选择模型模板(如 DeepSeek V3),填入 API Key,点击保存 5. 进入 **服务管理** 启动 Gateway,或直接在 **AI 对话** 中与 AI 交互 6. 侧边栏底部可查看当前 **内网/外网 IP + 端口**,路由器映射时使用 ### 支持的大模型 | 模型 | 配置方式 | 说明 | |---|---|---| | DeepSeek-V3 | 内置模板,填 API Key 即可 | 推荐 · 高性价比国产大模型 | | 通义千问 (Qwen) | 内置模板,填 DashScope API Key | 阿里云通义千问 | | Ollama 本地模型 | 内置模板,填本地地址 | 完全离线,隐私安全 | | GPT-4o | 内置模板,填 OpenAI Key | OpenAI | | Claude | 内置模板,填 Anthropic Key | Anthropic | | 自定义 | 手动填写 Base URL + Key | 兼容 OpenAI 格式的任意服务 | --- ## ⚙️ 独立运行 vs 接入 Microi 平台 ### 独立运行(无需 Microi 平台) 本工具 **开箱即用**,独立运行时提供以下功能: - 💬 **AI 对话**:内置聊天框,直接与大模型交互 - 🤖 **模型配置**:可视化切换 DeepSeek / Qwen / Ollama / GPT / Claude - ▶️ **Gateway 管理**:启动/停止/重启/日志查看 - 📦 **环境自检**:Node.js 22 + npm + OpenClaw CLI + Git - 🌐 **网络信息**:显示 IP 和端口,支持路由器端口映射后外网访问 ### 接入 Microi 吾码低代码平台 作为 Microi 平台的**本地节点**,实现多节点集中管控: ``` ┌─────────────────────────┐ │ Microi 吾码低代码平台 │ │ (云端 / 内网服务器) │ │ │ │ 统一管理多个节点 │ └─────┬───────────┬─────────┘ │ │ 心跳上报 │ │ 心跳上报 ▼ ▼ ┌───────────────┐ ┌───────────────┐ │ 节点A (Win) │ │ 节点B (Mac) │ │ microi.openclaw│ │ microi.openclaw│ │ ↓ 管理 ↓ │ │ ↓ 管理 ↓ │ │ OpenClaw GW │ │ OpenClaw GW │ └───────────────┘ └───────────────┘ ``` 在 **远程连接** 页面填入 Microi 平台地址和密钥,即可将本地节点接入平台统一管理。 --- ## 🛠️ 技术栈 | 层级 | 技术 | 说明 | |---|---|---| | 桌面框架 | Electron 33 | 跨平台桌面应用 | | 前端框架 | Vue 3 + Vite | 现代化前端工具链 | | UI 组件 | Element Plus | 企业级组件库 | | 后端框架 | Express 4 | Node.js Web 框架 | | AI 运行时 | OpenClaw | Node.js/TypeScript AI 助手网关 | | 实时通信 | ws (WebSocket) | 日志推送 & 进程输出 | | 进程管理 | tree-kill | 跨平台进程树终止 | | 机器标识 | node-machine-id | 生成机器唯一码 | --- ## 📝 配置说明 ### 配置文件 OpenClaw 使用 `~/.openclaw/openclaw.json` 作为全局配置文件,可通过管理界面的 **配置编辑** 页面修改。 ### 端口 | 服务 | 端口 | 说明 | |---|---|---| | 前端开发 | 5566 | Vite 开发服务器 | | 管理后端 | 5567+ | Express + WebSocket(占用时自动 +1,最多尝试 10 次) | | OpenClaw Gateway | 18789 | OpenClaw AI 网关(可在配置中修改) | --- ## 🔧 开发命令 ```bash # 同时启动前端 + 后端(Web 开发模式) npm run dev # Electron 开发模式(桌面窗口) npm run dev:electron # 仅启动后端 npm run dev:server # 仅启动前端 npm run dev:client # 构建前端 npm run build:web # 构建 Windows 安装包 npm run build:win ``` --- ## ❓ 常见问题 ### Q: 一键安装卡住或失败? Node.js 22 便携版约 30MB,国内网络可能较慢。程序会自动从 nodejs.org 下载。如果多次失败,可手动安装 Node.js 22 并确保加入 PATH。 ### Q: 安装 OpenClaw CLI 失败? ```bash # 手动安装 npm install -g openclaw@latest ``` ### Q: 端口 5567 被占用? 程序会自动尝试 5567 ~ 5576 共 10 个端口。如果全部被占用,请先释放端口。 ### Q: 如何使用 Ollama 本地模型? 1. 安装并启动 [Ollama](https://ollama.com/) 2. 在配置编辑中选择 **Ollama** 模板 3. 确认 Base URL 为 `http://localhost:11434` 4. 填入模型名(如 `llama3.1`) 5. 保存并重启 Gateway ### Q: 如何从外网访问? 侧边栏底部显示当前服务的内网 IP 和端口。在路由器设置端口映射(将外网端口映射到该 IP:端口)即可外网访问。 --- ## 🤝 相关项目 | 项目 | 说明 | |---|---| | [OpenClaw](https://github.com/openclaw/openclaw) | OpenClaw Node.js AI 智能助手网关 | | [Microi.net](https://microi.net) | Microi 吾码低代码平台 | --- ## 📄 许可证 MIT License --- Made with ❤️ for the OpenClaw & Microi community