diff --git a/data/articles.json b/data/articles.json index 76c2fcadc0f37448ff77e14c2784a84bae1753ce..6637d1ebd75846f1b176dea7860451d3206ab191 100644 --- a/data/articles.json +++ b/data/articles.json @@ -1,4 +1,12 @@ [ + { + "author": "Wuwei", + "date": "2023-05-10T06:00:00", + "link": "https://blog.jianmu.dev/2023/05/10/%E6%8A%80%E6%9C%AF%E6%96%87%E7%AB%A0/%E5%BB%BA%E6%9C%A8%E7%A4%BE%E5%8C%BA%E5%8A%A9%E4%BD%A0%E7%8E%A9%E8%BD%ACChatGLM/", + "platform": {}, + "read_counts": 0, + "title": "建木社区助你玩转ChatGLM" + }, { "author": "建木", "date": "2023-04-19T09:00:00", diff --git "a/source/_drafts/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" "b/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" similarity index 89% rename from "source/_drafts/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" rename to "source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" index fd7e9f5c67ce97522660f3382bb4630ed8a426c2..cbd24a296c0629bb3d59805ee74b6b0158e726dd 100644 --- "a/source/_drafts/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" +++ "b/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254ChatGLM.md" @@ -31,7 +31,7 @@ docker run --gpus all -d --runtime=nvidia -e CONC_CNT=10 -e WEB_PORT=3550 -e QUA ![](/assets/技术文章/建木社区助你玩转ChatGLM/node.png) ChatGLM-6B部署节点在建木hub的地址:[https://jianmuhub.com/autoops/chatglm_deploy ](https://jianmuhub.com/autoops/chatglm_deploy) -节点描述:在指定IP的Linux服务上远程部署ChatGLM-6B模型并启动一个web_demo服务,节点支持web_demo以无量化、4Byte量化和8Byte量化方式加载模型。无量化方式将获得更高精度的回答,但是需要更高的显存。默认以无量化方式运行,如显存不足可以尝试通过节点配置来量化加载模型。 +节点描述:在指定IP的Linux服务上远程部署ChatGLM-6B模型并启动一个web_demo服务,节点支持web_demo以无量化、4Byte量化和8Byte量化方式加载模型。无量化方式将获得更高精度的回答,但是需要更高的显存。默认以无量化方式运行,如显存不足可以尝试通过节点配置来量化加载模型。 使用方法: 在私有部署的最新版本建木中创建自动化流程时直接编排使用 更详细的使用教程,请前往建木节点仓库查看。