# MASR **Repository Path**: uestc_yhr/MASR ## Basic Information - **Project Name**: MASR - **Description**: No description available - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: develop - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2024-11-19 - **Last Updated**: 2024-11-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ![python version](https://img.shields.io/badge/python-3.11+-orange.svg) ![GitHub forks](https://img.shields.io/github/forks/yeyupiaoling/MASR) ![GitHub Repo stars](https://img.shields.io/github/stars/yeyupiaoling/MASR) ![GitHub](https://img.shields.io/github/license/yeyupiaoling/MASR) ![支持系统](https://img.shields.io/badge/支持系统-Win/Linux/MAC-9cf) # MASR流式与非流式语音识别项目(此分支尚未完成,请使用其他分支) MASR是一款基于Pytorch实现的自动语音识别框架,MASR全称是神奇的自动语音识别框架(Magical Automatic Speech Recognition),当前为V3版本,如果想使用V2版本,请在这个分支[V2](https://github.com/yeyupiaoling/MASR/tree/release/2.3.x)。MASR致力于简单,实用的语音识别项目。可部署在服务器,Nvidia Jetson设备,未来还计划支持Android等移动设备。 **欢迎大家扫码入知识星球或者QQ群讨论,知识星球里面提供项目的模型文件和博主其他相关项目的模型文件,也包括其他一些资源。**
知识星球 QQ群
本项目使用的环境: - Anaconda 3 - Python 3.11 - Pytorch 2.4.0 - Windows 11 or Ubuntu 22.04 ## 项目快速了解 1. 本项目支持流式识别模型`deepspeech2`、`conformer`,每个模型都支持流式识别和非流式识别,在配置文件中`streaming`参数设置。 2. 本项目支持三种解码器,分别是贪心解码器`ctc_greedy_search`、`ctc_prefix_beam_search`、`attention_rescoring`准确率更高。 ## 更新记录 - 2024.10: 正式发布最终级的V3版本。 ## 模型下载 1. [WenetSpeech](./docs/wenetspeech.md) (10000小时,普通话) 的预训练模型列表,错误率类型为字错率(CER): | 使用模型 | 是否为流式 | 预处理方式 | 解码方式 | test_net | test_meeting | aishell_test | 下载地址 | |:-----------:|:-----:|:-----:|:----------------------:|:--------:|:------------:|:------------:|:--------:| | Conformer | True | fbank | ctc_greedy_search | | | | 加入知识星球获取 | | Conformer | True | fbank | ctc_prefix_beam_search | | | | 加入知识星球获取 | | Conformer | True | fbank | attention_rescoring | | | | 加入知识星球获取 | | DeepSpeech2 | True | fbank | ctc_greedy_search | | | | 加入知识星球获取 | 2. [AIShell](https://openslr.magicdatatech.com/resources/33) (179小时,普通话) 的预训练模型列表,错误率类型为字错率(CER): | 使用模型 | 是否为流式 | 预处理方式 | 解码方式 | 自带的测试集 | 下载地址 | |:-----------:|:-----:|:-----:|:----------------------:|:-------:|:--------:| | Conformer | True | fbank | ctc_greedy_search | 0.06134 | 加入知识星球获取 | | Conformer | True | fbank | ctc_prefix_beam_search | 0.06132 | 加入知识星球获取 | | Conformer | True | fbank | attention_rescoring | 0.05366 | 加入知识星球获取 | | DeepSpeech2 | True | fbank | ctc_greedy_search | 0.12000 | 加入知识星球获取 | 3. [Librispeech](https://openslr.magicdatatech.com/resources/12) (960小时,英语) 的预训练模型列表,错误率类型为词错率(WER): | 使用模型 | 是否为流式 | 预处理方式 | 解码方式 | 自带的测试集 | 下载地址 | |:-----------:|:-----:|:-----:|:----------------------:|:-------:|:--------:| | Conformer | True | fbank | ctc_greedy_search | 0.07432 | 加入知识星球获取 | | Conformer | True | fbank | ctc_prefix_beam_search | 0.07418 | 加入知识星球获取 | | Conformer | True | fbank | attention_rescoring | 0.06549 | 加入知识星球获取 | | DeepSpeech2 | True | fbank | ctc_greedy_search | 0.15491 | 加入知识星球获取 | 4. 其他数据集的预训练模型列表,错误率类型,如果是中文就是字错率(CER),英文则是词错率(WER),中英混合为混合错误率(MER): | 使用模型 | 是否为流式 | 预处理方式 | 数据集 | 语言 | 解码方式 | 测试数据 | 下载地址 | |:---------:|:-----:|:-----:|:---------------:|:---:|:----------------------:|:----:|:--------:| | Conformer | True | fbank | 粤语数据集 | 粤语 | ctc_greedy_search | | 加入知识星球获取 | | Conformer | True | fbank | 粤语数据集 | 粤语 | ctc_prefix_beam_search | | 加入知识星球获取 | | Conformer | True | fbank | 粤语数据集 | 粤语 | attention_rescoring | | 加入知识星球获取 | | Conformer | True | fbank | 中英混合数据集 | 中英文 | ctc_greedy_search | | 加入知识星球获取 | | Conformer | True | fbank | 中英混合数据集 | 中英文 | ctc_prefix_beam_search | | 加入知识星球获取 | | Conformer | True | fbank | 中英混合数据集 | 中英文 | attention_rescoring | | 加入知识星球获取 | | Conformer | True | fbank | 更大数据集(13000+小时) | 普通话 | ctc_greedy_search | | 加入知识星球获取 | | Conformer | True | fbank | 更大数据集(13000+小时) | 普通话 | ctc_prefix_beam_search | | 加入知识星球获取 | | Conformer | True | fbank | 更大数据集(13000+小时) | 普通话 | attention_rescoring | | 加入知识星球获取 | **说明:** 1. 这里字错率或者词错率是使用`eval.py`。 2. 分别给出了使用三个解码器的错误率,其中`ctc_prefix_beam_search`、`attention_rescoring`的解码搜索大小为10。 3. 训练时使用了噪声增强和混响增强,以及其他增强方法,具体请看配置参数`configs/augmentation.yml`。 4. 这里只提供了流式模型,但全部模型都支持流式和非流式的,在配置文件中`streaming`参数设置。 >有问题欢迎提 [issue](https://github.com/yeyupiaoling/MASR/issues) 交流 ## 文档教程 - [快速安装](./docs/install.md) - [快速使用](./docs/GETTING_STARTED.md) - [数据准备](./docs/dataset.md) - [WenetSpeech数据集](./docs/wenetspeech.md) - [合成语音数据](./docs/generate_audio.md) - [数据增强](./docs/augment.md) - [训练模型](./docs/train.md) - [执行评估](./docs/eval.md) - [导出模型](./docs/export_model.md) - [使用标点符号模型](./docs/punctuation.md) - 预测 - [本地预测](./docs/infer.md) - [说话人日志语音识别](./docs/infer.md) - [Web部署模型](./docs/infer.md) - [GUI界面预测](./docs/infer.md) - [常见问题解答](./docs/faq.md) ## 相关项目 - 基于Pytorch实现的声纹识别:[VoiceprintRecognition-Pytorch](https://github.com/yeyupiaoling/VoiceprintRecognition-Pytorch) - 基于Pytorch实现的分类:[AudioClassification-Pytorch](https://github.com/yeyupiaoling/AudioClassification-Pytorch) - 基于PaddlePaddle实现的语音识别:[PPASR](https://github.com/yeyupiaoling/PPASR) ## 打赏作者

打赏一块钱支持一下作者

打赏作者
## 参考资料 - https://github.com/yeyupiaoling/PPASR - https://github.com/jiwidi/DeepSpeech-pytorch - https://github.com/wenet-e2e/WenetSpeech - https://github.com/wenet-e2e/wenet - https://github.com/SeanNaren/deepspeech.pytorch