# MultyAgentCollabration **Repository Path**: emperors-chair/multy-agent-collabration ## Basic Information - **Project Name**: MultyAgentCollabration - **Description**: 基于动态角色管理、价值驱动协作与经验演化机制的多智能体协同问题解决系统及方法,适用于复杂问题的自动化求解与决策支持。 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 2 - **Forks**: 0 - **Created**: 2025-03-07 - **Last Updated**: 2025-03-07 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 本项目旨在模拟多个行业专家对问题进行精细分工,并逐一回答后汇总,从而得到更专业的回复。 向量数据库这个模块我也是刚开始学,那里仍有很大的优化空间,优化完成后才是真正意义的协作或者协同,先提供一个思路,欢迎同行业的高手一起来探讨。 最近Manus的推出对我影响挺大,我的想法开始于2024年4月,但是因为个人还在成长,技术栈没完全成熟,错过了一些机会,不过这也才是刚刚开始,我相信未来会越来越好,总有机会,与Monica.im、谷歌这些高手一决高下,我热切期望这一天的到来。 本人由于工作原因不能全神贯注于此项目中,从业余时间尽可能地修复bug并迭代,所以有不周到之处,尽管指出,在此尤为感谢,如果有一些建设性的思路,我非常愿意结交朋友,请吃饭更是的不在话下(如果坐标江浙沪的话),后续相应的原理设计书和视频配套我会补充出来,尽情期待! 作者:Asix.Lee QQ: 1004960125 可加QQ留言 采用模块化设计的核心逻辑: ![目录结构](%E7%9B%AE%E5%BD%95%E7%BB%93%E6%9E%84.png) 模型调用方法可参考 https://www.openaidoc.com.cn/docs/quickstart 操作步骤 1.安装ollama 与 lmstudio 下拉gguf模型 比如我的gguf模型是 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf 2.本地导入模型,在ollama中可以调用,配置lmstudio 参考本链接 https://blog.csdn.net/c858845275/article/details/145544208 3.按照requirements.txt安装依赖 我的虚拟环境设置python为3.9 conda create -n ovtest python=3.9 pip install -r requirements.txt 4.开始前注意几个配置 lmstudio里的服务要开启,模型上载 ollama start 开启服务(ollama右下角小图标先关掉然后再从cmd里执行指令,不要关掉,否则无法调用) 下载sqlite,参考链接 https://www.cnblogs.com/xiaosongboke/p/17609152.html 把这两个文件放到同一文件夹中按照链接操作 sqlite-dll-win-x64-3490100.zip sqlite-tools-win-x64-3490100.zip 5.测试本地大模型连接情况 testConnectModel.py 用于测试模型是否连接成功,如果失败,请检查ollama服务是否开启,以及模型是否上传到lmstudio中 6.测试可用后,更改ModelUse.py中的模型名称,比如我这里用的是 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf 7.运行代码 main.py