diff --git "a/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo.md" "b/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo.md" index c81462bd5c9bade7407f38833164b81597693ddf..9f82dc7e2adf8588e273a04fc0383d82f42a2a17 100644 --- "a/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo.md" +++ "b/source/_posts/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo.md" @@ -9,11 +9,11 @@ author: 邵嘉诚 --- 在发布 ChatGLM 镜像及部署节点后,我们收到了许多用户的反馈,他们希望了解更多关于如何搭建会话 AI 模型平台。为了满足这些需求,我们决定提供一个流行的工具包——NVIDIA NeMo 的镜像及部署节点,以便于用户能更快上手并开始使用 NeMo。 ### 什么是NeMo? -NVIDIA NeMo 是一个用于构建会话 AI 的工具包,它可以帮助研究人员在自动语音识别(ASR)、文本到语音合成(TTS)、大型语言模型(LLMs)和自然语言处理(NLP)等领域进行工作,主要目的是帮助来自工业界和学术界的研究人员重用以前的工作(代码和预训练模型),并使创建新的会话 AI 模型变得更加容易。 +NVIDIA NeMo 是一个用于构建会话 AI 的工具包,它可以帮助研究人员在自动语音识别(ASR)、文本到语音合成(TTS)、大型语言模型(LLMs)和自然语言处理(NLP)等领域进行工作,主要目的是帮助来自工业界和学术界的研究人员重用以前的工作(代码和预训练模型),并使创建新的会话 AI 模型变得更加容易。 ### 如何部署? -![](/assets/技术文章/建木社区助你玩转NeMo/image.png) -最新nemo镜像已上传至jianmuhub,地址为https://res.jianmuhub.com/image/autoops/nemo +![](/assets/技术文章/建木社区助你玩转NeMo/image.png) +最新NeMo镜像已上传至jianmuhub,地址为https://res.jianmuhub.com/image/autoops/nemo 使用方法如下 ```bash @@ -26,14 +26,35 @@ docker run --gpus all -d --runtime=nvidia --shm-size=8g \ # 3.启动后,可通过浏览器http://localhost:8888访问jupyter界面 ``` +部署完成后,就可以得到一个预装NeMo的jupyterLab环境,登陆后如下: +![](/assets/技术文章/建木社区助你玩转NeMo/jupyterLab.png) + + ### 如何通过建木节点部署? -![](/assets/技术文章/建木社区助你玩转NeMo/node.png) +![](/assets/技术文章/建木社区助你玩转NeMo/node.png) NeMo部署节点在建木hub的地址:https://jianmuhub.com/autoops/nemo_deploy -该节点可在指定IP的Linux服务上远程部署NeMo并启动jupyter服务,默认指定容器共享内存大小为8g,内存无限制,堆栈大小为64mb,可根据实际配置自行修改。部署要求服务器已安装docker,nvidia驱动及nvidia容器运行时,具体要求参照节点仓库readme。 +该节点可在指定IP的Linux服务上远程部署NeMo并启动jupyter服务,默认指定容器共享内存大小为8g,内存无限制,堆栈大小为64mb,可根据实际配置自行修改。部署要求服务器已安装docker,nvidia驱动及nvidia容器运行时,具体要求参照节点仓库readme。 + +部署过程中遇到任何问题,欢迎开issue或者加入建木社区用户群交流。 + +### 如何使用NeMo +部署完成后,即可通过NeMo调用会话AI的相关模型,这里提供一个调用asr模型进行音频转文字的样例,代码如下: +``` +import nemo.collections.asr as nemo_asr +asr_model = nemo_asr.models.EncDecCTCModel.from_pretrained(model_name="stt_zh_citrinet_1024_gamma_0_25").cuda() -使用过程中遇到任何问题,欢迎开issue或者加入建木社区用户群交流。 +!wget 'https://nemo-public.s3.us-east-2.amazonaws.com/zh-samples/common_voice_zh-CN_21347786.mp3' +audio_sample = 'common_voice_zh-CN_21347786.mp3' +transcribed_text = asr_model.transcribe([audio_sample]) +print(transcribed_text) +``` + +执行结果如下: +``` +['我们尽了最大努力'] +``` ### 最后 本次分享内容介绍到这就结束啦!未来,建木社区将更加努力地推进大模型对话技术的发展,为用户提供更加优质的服务。 diff --git "a/source/assets/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo/jupyterLab.png" "b/source/assets/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo/jupyterLab.png" new file mode 100644 index 0000000000000000000000000000000000000000..b63b6b8777e389a99a6775cab5e12d09c1b8a301 Binary files /dev/null and "b/source/assets/\346\212\200\346\234\257\346\226\207\347\253\240/\345\273\272\346\234\250\347\244\276\345\214\272\345\212\251\344\275\240\347\216\251\350\275\254NeMo/jupyterLab.png" differ