# wanwu
**Repository Path**: zyxgame/wanwu
## Basic Information
- **Project Name**: wanwu
- **Description**: 联通元景万悟智能体平台是一款企业级的支持多租户的大模型应用开发平台,帮助用户打造智能体、工作流、文本问答等应用,并可进行模型纳管。平台license友好,欢迎各位开发者进行二次开发。
- **Primary Language**: Unknown
- **License**: Apache-2.0
- **Default Branch**: main
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 35
- **Created**: 2025-07-18
- **Last Updated**: 2025-07-18
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
**元景万悟智能体平台**是一款面向**企业级**场景的**一站式**、**商用license友好**的**智能体开发平台**,致力于为企业提供安全、高效、合规的一站式AI解决方案。我们以"技术开放、生态共建"为核心理念,通过整合大语言模型、业务流程自动化等前沿技术,构建了覆盖模型全生命周期管理、MCP、联网检索、智能体快速开发、企业知识库建设、复杂工作流编排等完整功能体系的AI工程化平台。平台采用模块化架构设计,支持灵活的功能扩展和二次开发,在确保企业数据安全和隐私保护的同时,大幅降低了AI技术的应用门槛。无论是中小型企业快速构建智能化应用,还是大型企业实现复杂业务场景的智能化改造,元景万悟智能体平台都能提供强有力的技术支撑,助力企业加速数字化转型进程,实现降本增效和业务创新。
### 📢 新闻
- **[2025-07-10]**
- MCP广场新增行业MCP server
------
### 🔥 采用宽松友好的 Apache 2.0 License,支持开发者自由扩展与二次开发
✔ **企业级工程化**:提供从模型纳管到应用落地的完整工具链,解决LLM技术落地"最后一公里"问题
✔ **开放开源生态**:采用宽松友好的 **Apache 2.0 License**,支持开发者自由扩展与二次开发
✔ **全栈技术支持**:配备专业团队为生态伙伴提供 **架构咨询、性能优化** 全周期赋能
✔ **多租户架构**:提供多租户账号体系,满足用户成本控制、数据安全隔离、业务弹性扩展、行业定制化、快速上线及生态协同等核心需求
------
### 🚩 核心功能模块
**1. 模型纳管(Model Hub)**
▸ 支持 **数百种专有/开源大模型**(包括GPT、Claude、Llama等系列)的统一接入与生命周期管理
▸ 深度适配 **OpenAI API 标准** 及 **联通元景** 生态模型,实现异构模型的无缝切换
▸ 提供 **多推理后端支持**(vLLM、TGI等)与 **自托管解决方案**,满足不同规模企业的算力需求
#### **2. MCP**
▸ **标准化接口**:使 AI 模型能够无缝连接各种外部工具(如 GitHub、Slack、数据库等),而无需为每个数据源单独开发适配器
▸ **内置丰富精选推荐**:整合大量优质MCP接口,让用户方便快捷,轻松调用
#### **3. 联网检索**(Web Search)
▸ **实时信息获取**:具备强大的联网检索能力,能够实时从互联网获取最新的信息。在问答场景中,当用户的问题需要最新的新闻、数据等信息时,平台可以快速检索并返回准确的结果,提升回答的时效性和准确性
▸ **多源数据整合**:整合了多种互联网数据源,包括新闻网站、学术数据库、行业报告等。通过对多源数据的整合和分析,为用户提供更全面、更深入的信息。例如,在市场调研场景中,可以同时从多个数据源获取相关数据,进行综合分析和评估
▸ **智能检索策略**:采用智能检索算法,根据用户的问题自动优化检索策略,提高检索效率和准确性。支持关键词检索、语义检索等多种检索方式,满足不同用户的需求。同时,对检索结果进行智能排序和筛选,优先展示最相关、最有价值的信息
#### **4. 可视化工作流(Workflow Studio)**
▸ 通过 **低代码拖拽画布** 快速构建复杂AI业务流程
▸ 内置 **条件分支、API、大模型、知识库、代码、MCP** 等多种节点,支持端到端流程调试与性能分析
#### **5. 企业级知识库、RAG Pipeline**
▸ 提供**知识库创建**→ **文档解析→向量化→检索→精排** 的全流程知识管理能力,支持pdf/docx/txt/xlsx/csv/pptx等 **多种格式** 文档,还支持网页资源的抓取和接入
▸ 集成 **多模态检索** 、**级联切分** 与 **自适应切分**,显著提升问答准确率
#### **6. 智能体开发框架(Agent Framework)**
▸ 可基于 **函数调用(Function Calling)** 的Agent构建范式,支持工具扩展、私域知识库关联与多轮对话
▸ 支持**在线调试**
#### **7. 后端即服务(BaaS)**
▸ 提供 **RESTful API** ,支持与企业现有系统(OA/CRM/ERP等)深度集成
▸ 提供 **细粒度权限控制**,保障生产环境稳定运行
------
### 📢 功能比较
| 功能 | 元景万悟智能体平台 | Dify.AI | Fastgpt | Ragflow |
| :---------: | :----------------: | :------------------: | :------------------: | :----------------: |
| 编程方法 | API + 应用程序导向 | API + 应用程序导向 | API + 应用程序导向 | API + 应用程序导向 |
| 易用性 | 高(学习成本低) | 中高(需一定学习量) | 中高(需一定学习量) | 中(偏技术) |
| 资源消耗 | 低 | 低 | 低 | 高 |
| 支持的LLMs | ✅ | ✅ | ✅ | ✅ |
| RAG引擎 | ✅ | ✅ | ✅ | ✅ |
| MCP | ✅ | ✅(需安装工具使用) | ✅ | ✅(需安装工具使用) |
| 搜索增强 | ✅ | ✅(需安装工具使用) | ✅ | ✅(需安装工具使用) |
| Agent | ✅ | ✅ | ✅ | ✅ |
| 工作流 | ✅ | ✅ | ✅ | ✅ |
| 可观测性 | ✅ | ✅ | ✅ | ✅ |
| 本地部署 | ✅ | ✅ | ✅ | ✅ |
| license友好 | ✅ | ❌(商用有限制) | ❌(商用有限制) | 未完全开源 |
| 多租户 | ✅ | ❌(商用有限制) | ❌(商用有限制) | ✅ |
------
### 🎯 典型应用场景
- **智能客服**:基于RAG+Agent实现高准确率的业务咨询与工单处理
- **知识管理**:构建企业专属知识库,支持语义搜索与智能摘要生成
- **流程自动化**:通过工作流引擎实现合同审核、报销审批等业务的AI辅助决策
平台已成功应用于 **金融、工业、政务** 等多个行业,助力企业将LLM技术的理论价值转化为实际业务收益。我们诚邀开发者加入开源社区,共同推动AI技术的民主化进程。
------
### 🚀 快速开始
元景万悟智能体平台的工作流模块使用的是[wanwu-agentscope](https://github.com/UnicomAI/wanwu-agentscope.git)项目,可到其仓库查看详细。
- **Docker安装(推荐)**
1. 首次运行前
1.1 拷贝环境变量文件
```bash
cp .env.bak .env
```
1.2 根据系统修改.env文件中的`WANWU_ARCH`、`WANWU_EXTERNAL_IP`变量
```
# amd64 / arm64
WANWU_ARCH=amd64
# external ip port(注意localhost要换成本机局域网或对外IP,例如192.168.0.xx,不能是localhost或127.0.0.1)
WANWU_EXTERNAL_IP=localhost
```
1.3 创建docker运行网络
```
docker network create wanwu-net
```
2. 启动服务(首次运行会自动从Docker Hub拉取镜像)
```bash
# amd64系统执行:
docker compose --env-file .env --env-file .env.image.amd64 up -d
# arm64系统执行:
docker compose --env-file .env --env-file .env.image.arm64 up -d
```
3. 登录系统:http://localhost:8081
```
默认用户:admin
默认密码:Wanwu123456
```
4. 关闭服务
```bash
# amd64系统执行:
docker compose --env-file .env --env-file .env.image.amd64 down
# arm64系统执行:
docker compose --env-file .env --env-file .env.image.arm64 down
```
- **源码启动(开发)**
1. 基于上述Docker安装步骤,将系统服务完整启动
2. 以后端bff-service服务为例
2.1 停止bff-service
```
make -f Makefile.develop stop-bff
```
2.2 编译bff-service可执行文件
```
# amd64系统执行:
make build-bff-amd64
# arm64系统执行:
make build-bff-arm64
```
2.3 启动bff-service
```
make -f Makefile.develop run-bff
```
------
### 🔗 使用的其他开源项目
- https://github.com/modelscope/agentscope 作为元景万悟智能体平台中工作流模块的开发框架;
- https://github.com/langchain-ai/langchain.git 作为元景万悟智能体平台中智能体的各类基础组件开发;
- https://github.com/QwenLM/Qwen-Agent.git 作为元景万悟智能体平台中react智能体的构建;
------
### 📰 TODO LIST
- 支持智能体、文本问答、工作流取消发布
- 支持知识库命中测试、关键词管理
- 工作流支持公开发布
- 应用广场支持按照应用名称进行搜索
- 支持设定敏感词安全护栏
- 支持知识库OCR解析
- 支持工作流的导入导出
- 支持自定义MCP Server,即可以把工作流、智能体、或者符合OpenAPI规范的API作为tools添加到MCP Server里进行发布
- 增加模型供应商
- 增加工作流节点类型
- 支持知识库打标签
- 支持自定义工具
------
### 💬 Q & A
- **【Q】Linux系统Elastic(elastic-wanwu)启动报错:Memory limited without swap.**
【A】关闭服务,执行 `sudo sysctl -w vm.max_map_count=262144` 后,重启服务
- **【Q】Windows系统Agent(agent-wanwu)启动报错:bash: ./start_all.sh: /bin/bash^M: bad interpreter**
【A】git配置关闭自动回车换行(CRLF),执行 `git config --global core.autocrlf false` 后,关闭服务,重新clone wanwu仓库,重启服务**
- **【Q】模型导入相关**
【A】以导入联通元景LLM为例(导入OpenAI-API-compatible或导入Embedding、Rerank类型类似):
```
1. 联通元景MaaS云LLM的Open API接口例如:https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions
2. 用户在联通元景MaaS云上申请到的API Key形如:sk-abc********************xyz
3. 确认API与Key可正确请求LLM,以请求yuanjing-70b-chat为例:
curl --location 'https://maas.ai-yuanjing.com/openapi/compatible-mode/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Accept: application/json' \
--header 'Authorization: Bearer sk-abc********************xyz' \
--data '{
"model": "yuanjing-70b-chat",
"messages": [{
"role": "user",
"content": "你好"
}]
}'
4. 导入模型:
4.1【模型名称】必须为上述curl中可以正确请求的model;例如 yuanjing-70b-chat
4.2【API Key】必须为上述curl中可以正确请求的key;例如 sk-abc********************xyz(注意不填Bearer前缀)
4.3【推理URL】必须为上述curl中可以正确请求的url;例如 https://maas.ai-yuanjing.com/openapi/compatible-mode/v1(注意不带 /chat/completions 后缀)
5. 导入Embedding模型同上述导入LLM,注意推理URL不带 /embeddings 后缀
6. 导入Rerank模型同上述导入LLM,注意推理URL不带 /rerank 后缀
```
### ⚖️ 许可证
元景万悟智能体平台根据Apache License 2.0发布。
------
### 📩 联系我们
