# chatztc **Repository Path**: 394911284/chatztc ## Basic Information - **Project Name**: chatztc - **Description**: ChatGLM - **Primary Language**: JavaScript - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 17 - **Forks**: 2 - **Created**: 2023-04-20 - **Last Updated**: 2024-11-01 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # ChatGLM,ChatRWKV的api插件 #### 介绍 这是一个对接ChatGLM,ChatRWKV的聊天api的云崽bot插件 #### 安装教程 第 1 步:在云崽根目录下打开终端,运行 git clone --depth=1 https://gitee.com/394911284/chatztc.git ./plugins/chatztc/ 第 2 步: 重启云崽服务 第 3 步: 配置接口地址,在qq聊天界面使用下面的命令进行设置 #ai设置接口地址http://0.0.0.0:8000 第 4 步:(可选)手动进入目录修改可选一些配置文件,配置完需要重启云崽服务 ./plugins/chatztc/config/config.json "automatic_suggestion_order": true,//当指令不正确时,是否进行建议 "public_prefix": "#ai",//公共的指令头(和其他插件指令冲突时修改,或者改为自己觉得方便的指令头) 备注:更新项目代码方式为,进入项目目录,输入git pull指令 cd ./plugins/chatztc/ git pull 如果帮助还是没有变,可以备份并删除config.json,然后重启云崽,新生成的就会有所有的帮助指令了 #### qq聊天界面使用说明 ------ai指令列表------ #ai帮助 唤出ai帮助 #ai: 使用ChatGLM进行聊天,示例:#ai:你好 #ai设置接口地址 用来设置api接口地址 #ai读取接口地址 用来查看api接口地址 #ai设置记忆条数 用来设置ai保存的历史聊天数量,示例:#ai设置记忆条数3 #ai获取设置的记忆条数 用来获取ai保存的历史聊天数量 #ai查看下次发送的历史聊天 发给ai的历史包括设定的人设的对话和记忆条数内的几次对话 #ai清除下次发送的历史聊天 清除记忆条数内的几次对话,不清除人设,也不会清除聊天记录 #ai关闭直接对话 关闭不带前缀直接和ai对话,防止影响群友聊天或者其他插件,重启云崽之后可以彻底取消监听 #ai开启直接对话 开启不带前缀直接和ai对话,可能需要重启云崽才会生效 #ai设置人设 将上次对白设置为人设,会将上次的对白添加在历史聊天的顶部 #ai获取人设 用来获取ai始终记得的历史聊天 #ai删除人设 用来删除ai始终记得的历史聊天 #ailog 输出聊天历史 #aidellog 删除聊天历史 下面是实际使用效果: ![输入图片说明](QQ%E5%9B%BE%E7%89%8720230420190857.jpg) ==============ChatGLM安装说明============== ChatGLM秋叶大神的整合包在这里 https://www.bilibili.com/video/BV1E24y1u7Go/?spm_id_from=333.999.0.0&vd_source=69701cb5cfa769975f4fcee38b58440f int4量化模型下载(能优化显存为6G,8G显存的显卡能快速运行) 链接:https://pan.baidu.com/s/1izUy6i7XsaSwu9xLTgrufA 提取码:kg3g 下载后放到秋叶大神的整合包的这个目录下 ChatGLM-webui\model\chatglm-6b-int4 api.py和启动的bat下载,放在ChatGLM-webui根目录 链接:https://pan.baidu.com/s/1uOkhGRt3ZF00nDZxrsQ6Tw 提取码:64jt 最后,ChatGLM官方项目地址 https://github.com/THUDM/ChatGLM-6B ==============ChatGLM安装说明============== ==============ChatRWKV安装说明============== ChatRWKV懒人版python包 https://zhuanlan.zhihu.com/p/612879065 模型推荐使用这个(适合聊天,适合完成任务,包括写代码) RWKV-4-Raven-7B-v7-ChnEng-20230404-ctx2048.pth 下载地址 https://huggingface.co/BlinkDL/rwkv-4-raven/tree/main 我写的api启动文件 api.py和启动的run_api.bat下载,放在ChatRWKV根目录(最新的api第一次运行会处理数据并缓存,第二次运行才能跑起来,第二次会快很多) 链接:https://pan.baidu.com/s/1MmBI6WY3uYMMOgA-WIAuxA 提取码:vnn7 启动前需要调整api.py 43行到49行之间的内容,包括RWKV_CUDA_ON是否开启,模型路径和运算使用的strategy参数 os.environ['RWKV_JIT_ON'] = '1' os.environ["RWKV_CUDA_ON"] = '1' # '1' to compile CUDA kernel (10x faster), requires c++ compiler & cuda libraries from rwkv.model import RWKV # pip install rwkv #模型路径,后面不需要加.pth model_path='C:/Users/ZTC/Documents/RWKV-4-Raven-7B-v7-ChnEng-20230404-ctx2048' #运行模式,见官方文档说明,修改配置之后,需要去模型所在的目录删除缓存文件,就是带"-convert.pth"结尾的文件 strategy_set='cuda fp16i8 *31+' ==============ChatRWKV安装说明============== 最后这个是上述两种聊天api的共用的接口格式,用来给QQ端调用的,如果想用自己实现的api接口,这个格式可以作为参考 默认部署在本地的 8000 端口,通过 POST 方法进行调用 ``` curl -X POST "http://127.0.0.1:8000" \ -H 'Content-Type: application/json' \ -d '{"prompt": "你好", "history": []}' ``` 得到的返回值为 ``` { "response":"你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。", "history":[["你好","你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。"]], "status":200, "time":"2023-03-23 21:38:40" } ``` ![输入图片说明](QQ%E6%88%AA%E5%9B%BE20230613201114.jpg)