# mxr-voiceprint-recognition-pytorch **Repository Path**: WangJiaHui202144/mxr-voiceprint-recognition-pytorch ## Basic Information - **Project Name**: mxr-voiceprint-recognition-pytorch - **Description**: 本项目使用了EcapaTdnn、ResNetSE、ERes2Net、CAM++等多种先进的声纹识别模型,同时本项目也支持了MelSpectrogram、Spectrogram、MFCC、Fbank等多种数据预处理方法。 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: develop - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 3 - **Created**: 2025-12-04 - **Last Updated**: 2026-04-30 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 简体中文 | [English](./README_en.md) 基于 [夜雨飘零](https://github.com/yeyupiaoling/VoiceprintRecognition-Pytorch) 项目, 1.新增 Web 端声纹对比、声纹识别、说话人日志。 2.新增基于声学特征和CTC强制对齐检测的吞音的音频成分识别。 3.新增基于qwen3-embedding-4b的意图识别。 # 基于 Pytorch 实现的声纹识别系统 ![python version](https://img.shields.io/badge/python-3.8+-orange.svg) ![GitHub forks](https://img.shields.io/github/forks/yeyupiaoling/VoiceprintRecognition-Pytorch) ![GitHub Repo stars](https://img.shields.io/github/stars/yeyupiaoling/VoiceprintRecognition-Pytorch) ![GitHub](https://img.shields.io/github/license/yeyupiaoling/VoiceprintRecognition-Pytorch) ![支持系统](https://img.shields.io/badge/支持系统-Win/Linux/MAC-9cf) 本分支为 1.1 版本,如果要使用之前的 1.0 版本请在[1.0 分支](https://github.com/yeyupiaoling/VoiceprintRecognition-Pytorch/tree/release/1.0.5)使用。本项目使用了 EcapaTdnn、ResNetSE、ERes2Net、CAM++等多种先进的声纹识别模型,不排除以后会支持更多模型,同时本项目也支持了 MelSpectrogram、Spectrogram、MFCC、Fbank 等多种数据预处理方法,使用了 ArcFace Loss,ArcFace loss:Additive Angular Margin Loss(加性角度间隔损失函数),对应项目中的 AAMLoss,对特征向量和权重归一化,对 θ 加上角度间隔 m,角度间隔比余弦间隔在对角度的影响更加直接,除此之外,还支持 AMLoss、ARMLoss、CELoss 等多种损失函数。 **本项目是如果对你有帮助,欢迎 Star,避免之后需要找不到了。** **欢迎大家扫码入知识星球或者 QQ 群讨论,知识星球里面提供项目的模型文件和博主其他相关项目的模型文件,也包括其他一些资源。**
知识星球 QQ群
使用环境: - uv - Python 3.11 - Pytorch 2.9.0 - Windows 11 or Ubuntu 22.04/24.04 # 在线试用 - **网页版:[声纹对比](https://tools.yeyupiaoling.cn/speech/voiceprint_compare)** - **网页版:[声纹识别](https://tools.yeyupiaoling.cn/speech/voiceprint_recognition)** - **网页版:[说话人日志](https://tools.yeyupiaoling.cn/speech/speaker_diarization)**
微信小程序   微信小程序   微信小程序
声纹对比微信小程序         声纹识别微信小程序         说话人日志微信小程序
# 目录 - [基于 Pytorch 实现的声纹识别系统](#基于-pytorch-实现的声纹识别系统) - [在线试用](#在线试用) - [目录](#目录) - [项目记录](#项目记录) - [项目特性](#项目特性) - [模型下载](#模型下载) - [训练 CN-Celeb 数据,共有 2796 个说话人。](#训练-cn-celeb-数据共有-2796-个说话人) - [训练 VoxCeleb1\&2 数据,共有 7205 个说话人。](#训练-voxceleb12-数据共有-7205-个说话人) - [预处理方法效果对比实验](#预处理方法效果对比实验) - [损失函数效果对比实验](#损失函数效果对比实验) - [安装环境](#安装环境) - [创建数据](#创建数据) - [修改预处理方法(可选)](#修改预处理方法可选) - [提取特征(可选)](#提取特征可选) - [训练模型](#训练模型) - [评估模型](#评估模型) - [推理接口](#推理接口) - [声纹对比](#声纹对比) - [声纹识别](#声纹识别) - [说话人日志(分离说话人)](#说话人日志分离说话人) - [web 服务](#web-服务) - [Docker 跨平台部署](#docker-跨平台部署) - [其他版本](#其他版本) - [参考资料](#参考资料) # 项目记录 1. 2024.10.12:发布 1.1 版本。 # 项目特性 1. 支持模型:EcapaTdnn、TDNN、Res2Net、ResNetSE、ERes2Net、CAM++ 2. 支持池化层:AttentiveStatsPool(ASP)、SelfAttentivePooling(SAP)、TemporalStatisticsPooling(TSP)、TemporalAveragePooling(TAP)、TemporalStatsPool(TSTP) 3. 支持损失函数:AAMLoss、SphereFace2、AMLoss、ARMLoss、CELoss、SubCenterLoss、TripletAngularMarginLoss 4. 支持预处理方法:MelSpectrogram、Spectrogram、MFCC、Fbank、Wav2vec2.0、WavLM 5. 支持数据增强方法:语速增强、音量增强、噪声增强、混响增强、SpecAugment **模型论文:** - EcapaTdnn:[ECAPA-TDNN: Emphasized Channel Attention, Propagation and Aggregation in TDNN Based Speaker Verification](https://arxiv.org/abs/2005.07143v3) - PANNS:[PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition](https://arxiv.org/abs/1912.10211v5) - TDNN:[Prediction of speech intelligibility with DNN-based performance measures](https://arxiv.org/abs/2203.09148) - Res2Net:[Res2Net: A New Multi-scale Backbone Architecture](https://arxiv.org/abs/1904.01169) - ResNetSE:[Squeeze-and-Excitation Networks](https://arxiv.org/abs/1709.01507) - CAMPPlus:[CAM++: A Fast and Efficient Network for Speaker Verification Using Context-Aware Masking](https://arxiv.org/abs/2303.00332v3) - ERes2Net:[An Enhanced Res2Net with Local and Global Feature Fusion for Speaker Verification](https://arxiv.org/abs/2305.12838v1) # 模型下载 ### 训练 CN-Celeb 数据,共有 2796 个说话人。 | 模型 | Params(M) | 数据集 | train speakers | threshold | EER | MinDCF | 模型下载 | | :--------: | :-------: | :--------------------------------: | :------------: | :-------: | :-----: | :-----: | :--------------: | | ERes2NetV2 | 6.6 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.20089 | 0.08071 | 0.45705 | 加入知识星球获取 | | ERes2Net | 6.6 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.20014 | 0.08132 | 0.45544 | 加入知识星球获取 | | CAM++ | 6.8 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.23323 | 0.08332 | 0.48536 | 加入知识星球获取 | | ResNetSE | 7.8 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.19066 | 0.08544 | 0.49142 | 加入知识星球获取 | | EcapaTdnn | 6.1 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.23646 | 0.09259 | 0.51378 | 加入知识星球获取 | | TDNN | 2.6 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.23858 | 0.10825 | 0.59545 | 加入知识星球获取 | | Res2Net | 5.0 | [CN-Celeb](http://openslr.org/82/) | 2796 | 0.19526 | 0.12436 | 0.65347 | 加入知识星球获取 | | CAM++ | 6.8 | 更大数据集 | 2W+ | 0.33 | 0.07874 | 0.52524 | 加入知识星球获取 | | ERes2Net | 55.1 | 其他数据集 | 20W+ | 0.36 | 0.02936 | 0.18355 | 加入知识星球获取 | | ERes2NetV2 | 56.2 | 其他数据集 | 20W+ | 0.36 | 0.03847 | 0.24301 | 加入知识星球获取 | | CAM++ | 6.8 | 其他数据集 | 20W+ | 0.29 | 0.04765 | 0.31436 | 加入知识星球获取 | 说明: 1. 评估的测试集为[CN-Celeb 的测试集](https://aistudio.baidu.com/aistudio/datasetdetail/233361),包含 196 个说话人。 2. 使用语速增强分类大小翻三倍`speed_perturb_3_class: True`。 3. 使用的预处理方法为`Fbank`,损失函数为`AAMLoss`。 4. 参数数量不包含了分类器的参数数量。 5. 使用了噪声增强和混响增强。 ### 训练 VoxCeleb1&2 数据,共有 7205 个说话人。 | 模型 | Params(M) | 数据集 | train speakers | threshold | EER | MinDCF | 模型下载 | | :--------: | :-------: | :---------: | :------------: | :-------: | :-----: | :-----: | :--------------: | | CAM++ | 6.8 | VoxCeleb1&2 | 7205 | 0.22504 | 0.02436 | 0.15543 | 加入知识星球获取 | | EcapaTdnn | 6.1 | VoxCeleb1&2 | 7205 | 0.24877 | 0.02480 | 0.16188 | 加入知识星球获取 | | ERes2NetV2 | 6.6 | VoxCeleb1&2 | 7205 | 0.20710 | 0.02742 | 0.17709 | 加入知识星球获取 | | ERes2Net | 6.6 | VoxCeleb1&2 | 7205 | 0.20233 | 0.02954 | 0.17377 | 加入知识星球获取 | | ResNetSE | 7.8 | VoxCeleb1&2 | 7205 | 0.22567 | 0.03189 | 0.23040 | 加入知识星球获取 | | TDNN | 2.6 | VoxCeleb1&2 | 7205 | 0.23834 | 0.03486 | 0.26792 | 加入知识星球获取 | | Res2Net | 5.0 | VoxCeleb1&2 | 7205 | 0.19472 | 0.04370 | 0.40072 | 加入知识星球获取 | | CAM++ | 6.8 | 更大数据集 | 2W+ | 0.28 | 0.03182 | 0.23731 | 加入知识星球获取 | | ERes2Net | 55.1 | 其他数据集 | 20W+ | 0.53 | 0.08904 | 0.62130 | 加入知识星球获取 | | ERes2NetV2 | 56.2 | 其他数据集 | 20W+ | 0.52 | 0.08649 | 0.64193 | 加入知识星球获取 | | CAM++ | 6.8 | 其他数据集 | 20W+ | 0.49 | 0.10334 | 0.71200 | 加入知识星球获取 | 说明: 1. 评估的测试集为[VoxCeleb1&2 的测试集](https://aistudio.baidu.com/aistudio/datasetdetail/255977),包含 158 个说话人。 2. 使用语速增强分类大小翻三倍`speed_perturb_3_class: True`。 3. 使用的预处理方法为`Fbank`,损失函数为`AAMLoss`。 4. 参数数量不包含了分类器的参数数量。 ### 预处理方法效果对比实验 | 预处理方法 | 数据集 | train speakers | threshold | EER | MinDCF | 模型下载 | | :------------------------------------------------------------------------------: | :------: | :------------: | :-------: | :-----: | :-----: | :--------------: | | Fbank | CN-Celeb | 2796 | 0.14574 | 0.10988 | 0.58955 | 加入知识星球获取 | | MFCC | CN-Celeb | 2796 | 0.14868 | 0.11483 | 0.61275 | 加入知识星球获取 | | Spectrogram | CN-Celeb | 2796 | 0.14962 | 0.11613 | 0.60057 | 加入知识星球获取 | | MelSpectrogram | CN-Celeb | 2796 | 0.13458 | 0.12498 | 0.60741 | 加入知识星球获取 | | [wavlm-base-plus](https://huggingface.co/microsoft/wavlm-base-plus) | CN-Celeb | 2796 | 0.14166 | 0.13247 | 0.62451 | 加入知识星球获取 | | [w2v-bert-2.0](https://huggingface.co/facebook/w2v-bert-2.0) | CN-Celeb | 2796 | | | | 加入知识星球获取 | | [wav2vec2-large-xlsr-53](https://huggingface.co/facebook/wav2vec2-large-xlsr-53) | CN-Celeb | 2796 | | | | 加入知识星球获取 | | [wavlm-large](https://huggingface.co/microsoft/wavlm-large) | CN-Celeb | 2796 | | | | 加入知识星球获取 | 说明: 1. 评估的测试集为[CN-Celeb 的测试集](https://aistudio.baidu.com/aistudio/datasetdetail/233361),包含 196 个说话人。 2. 实验数据为[CN-Celeb](http://openslr.org/82/),实验模型为`CAM++`,损失函数为`AAMLoss`。 3. 数据使用`extract_features.py`提前提取特征,也就是说训练中没有使用对音频的数据增强。 4. `w2v-bert-2.0`、`wav2vec2-large-xlsr-53`是多语言数据预训练得到的,`wavlm-base-plus`、`wavlm-large`的预训练数据仅用英文。 ### 损失函数效果对比实验 | 损失函数 | 数据集 | train speakers | threshold | EER | MinDCF | 模型下载 | | :----------------------: | :------: | :------------: | :-------: | :-----: | :-----: | :--------------: | | AAMLoss | CN-Celeb | 2796 | 0.14574 | 0.10988 | 0.58955 | 加入知识星球获取 | | SphereFace2 | CN-Celeb | 2796 | 0.20377 | 0.11309 | 0.61536 | 加入知识星球获取 | | TripletAngularMarginLoss | CN-Celeb | 2796 | 0.28940 | 0.11749 | 0.63735 | 加入知识星球获取 | | SubCenterLoss | CN-Celeb | 2796 | 0.13126 | 0.11775 | 0.56995 | 加入知识星球获取 | | ARMLoss | CN-Celeb | 2796 | 0.14563 | 0.11805 | 0.57171 | 加入知识星球获取 | | AMLoss | CN-Celeb | 2796 | 0.12870 | 0.12301 | 0.63263 | 加入知识星球获取 | | CELoss | CN-Celeb | 2796 | 0.13607 | 0.12684 | 0.65176 | 加入知识星球获取 | 说明: 1. 评估的测试集为[CN-Celeb 的测试集](https://aistudio.baidu.com/aistudio/datasetdetail/233361),包含 196 个说话人。 2. 实验数据为[CN-Celeb](http://openslr.org/82/),实验模型为`CAM++`,预处理方法为`Fbank`。 3. 数据使用`extract_features.py`提前提取特征,也就是说训练中没有使用对音频的数据增强。 ## 安装环境 - 首先安装的是 Pytorch 的 GPU 版本,如果已经安装过了,请跳过。 ```shell # 启动 # uvicorn main:app --host 127.0.0.1 --port 8000 --reload # 支持cpu uv sync --extra cpu # 支持cuda uv sync --extra cu128 # 另外transformers5和4的api变化有些不同,你可以 transformers==4.57.6指定版本 uv pip install transformers==4.57.6 qwen-asr # uv pip install flash-attn --no-build-isolation uv run infer.py ``` # 创建数据 本教程笔者使用的是[CN-Celeb](https://openslr.elda.org/resources/82),这个数据集一共有约 3000 个人的语音数据,有 65W+条语音数据,下载之后要解压数据集到`dataset`目录,另外如果要评估,还需要下载[CN-Celeb 的测试集](https://aistudio.baidu.com/aistudio/datasetdetail/233361)。如果读者有其他更好的数据集,可以混合在一起使用,但最好是要用 python 的工具模块 aukit 处理音频,降噪和去除静音。 首先是创建一个数据列表,数据列表的格式为`<语音文件路径\t语音分类标签>`,创建这个列表主要是方便之后的读取,也是方便读取使用其他的语音数据集,语音分类标签是指说话人的唯一 ID,不同的语音数据集,可以通过编写对应的生成数据列表的函数,把这些数据集都写在同一个数据列表中。 执行`create_data.py`程序完成数据准备。 ```shell python create_data.py ``` 执行上面的程序之后,会生成以下的数据格式,如果要自定义数据,参考如下数据列表,前面是音频的相对路径,后面的是该音频对应的说话人的标签,就跟分类一样。**自定义数据集的注意**,测试数据列表的 ID 可以不用跟训练的 ID 一样,也就是说测试的数据的说话人可以不用出现在训练集,只要保证测试数据列表中同一个人相同的 ID 即可。 ``` dataset/CN-Celeb2_flac/data/id11999/recitation-03-019.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-10-023.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-06-025.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-04-014.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-06-030.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-10-032.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-06-028.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-10-031.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-05-003.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-04-017.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-10-016.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-09-001.flac 2795 dataset/CN-Celeb2_flac/data/id11999/recitation-05-010.flac 2795 ``` # 修改预处理方法(可选) 配置文件中默认使用的是 Fbank 预处理方法,如果要使用其他预处理方法,可以修改配置文件中的安装下面方式修改,具体的值可以根据自己情况修改。如果不清楚如何设置参数,可以直接删除该部分,直接使用默认值。 ```yaml # 数据预处理参数 preprocess_conf: # 是否使用HF上的Wav2Vec2类似模型提取音频特征 use_hf_model: False # 音频预处理方法,也可以叫特征提取方法 # 当use_hf_model为False时,支持:MelSpectrogram、Spectrogram、MFCC、Fbank # 当use_hf_model为True时,指定的是HuggingFace的模型或者本地路径,比如facebook/w2v-bert-2.0或者./feature_models/w2v-bert-2.0 feature_method: "Fbank" # 当use_hf_model为False时,设置API参数,更参数查看对应API,不清楚的可以直接删除该部分,直接使用默认值。 # 当use_hf_model为True时,可以设置参数use_gpu,指定是否使用GPU提取特征 method_args: sample_frequency: 16000 num_mel_bins: 80 ``` # 提取特征(可选) 在训练过程中,首先是要读取音频数据,然后提取特征,最后再进行训练。其中读取音频数据、提取特征也是比较消耗时间的,所以我们可以选择提前提取好取特征,训练模型的是就可以直接加载提取好的特征,这样训练速度会更快。这个提取特征是可选择,如果没有提取好的特征,训练模型的时候就会从读取音频数据,然后提取特征开始。提取特征步骤如下: 1. 执行`extract_features.py`,提取特征,特征会保存在`dataset/features`目录下,并生成新的数据列表`train_list_features.txt`、`enroll_list_features.txt`和`trials_list_features.txt`。 ```shell python extract_features.py --configs=configs/cam++.yml --save_dir=dataset/features ``` 2. 修改配置文件,将`dataset_conf.train_list`、`dataset_conf.enroll_list`和`dataset_conf.trials_list`修改为`train_list_features.txt`、`enroll_list_features.txt`和`trials_list_features.txt`。 # 训练模型 使用`train.py`训练模型,本项目支持多个音频预处理方式,通过`configs/ecapa_tdnn.yml`配置文件的参数`preprocess_conf.feature_method`可以指定,`MelSpectrogram`为梅尔频谱,`Spectrogram`为语谱图,`MFCC`梅尔频谱倒谱系数等等。通过参数`augment_conf_path`可以指定数据增强方式。训练过程中,会使用 VisualDL 保存训练日志,通过启动 VisualDL 可以随时查看训练结果,启动命令`visualdl --logdir=log --host 0.0.0.0` ```shell # 单卡训练 CUDA_VISIBLE_DEVICES=0 python train.py # 多卡训练 CUDA_VISIBLE_DEVICES=0,1 torchrun --standalone --nnodes=1 --nproc_per_node=2 train.py ``` 训练输出日志: ``` [2023-08-05 09:52:06.497988 INFO ] utils:print_arguments:13 - ----------- 额外配置参数 ----------- [2023-08-05 09:52:06.498094 INFO ] utils:print_arguments:15 - configs: configs/ecapa_tdnn.yml [2023-08-05 09:52:06.498149 INFO ] utils:print_arguments:15 - do_eval: True [2023-08-05 09:52:06.498191 INFO ] utils:print_arguments:15 - local_rank: 0 [2023-08-05 09:52:06.498230 INFO ] utils:print_arguments:15 - pretrained_model: None [2023-08-05 09:52:06.498269 INFO ] utils:print_arguments:15 - resume_model: None [2023-08-05 09:52:06.498306 INFO ] utils:print_arguments:15 - save_model_path: models/ [2023-08-05 09:52:06.498342 INFO ] utils:print_arguments:15 - use_gpu: True [2023-08-05 09:52:06.498378 INFO ] utils:print_arguments:16 - ------------------------------------------------ [2023-08-05 09:52:06.513761 INFO ] utils:print_arguments:18 - ----------- 配置文件参数 ----------- [2023-08-05 09:52:06.513906 INFO ] utils:print_arguments:21 - dataset_conf: [2023-08-05 09:52:06.513957 INFO ] utils:print_arguments:24 - dataLoader: [2023-08-05 09:52:06.513995 INFO ] utils:print_arguments:26 - batch_size: 64 [2023-08-05 09:52:06.514031 INFO ] utils:print_arguments:26 - num_workers: 4 [2023-08-05 09:52:06.514066 INFO ] utils:print_arguments:28 - do_vad: False [2023-08-05 09:52:06.514101 INFO ] utils:print_arguments:28 - enroll_list: dataset/enroll_list.txt [2023-08-05 09:52:06.514135 INFO ] utils:print_arguments:24 - eval_conf: [2023-08-05 09:52:06.514169 INFO ] utils:print_arguments:26 - batch_size: 1 [2023-08-05 09:52:06.514203 INFO ] utils:print_arguments:26 - max_duration: 20 [2023-08-05 09:52:06.514237 INFO ] utils:print_arguments:28 - max_duration: 3 [2023-08-05 09:52:06.514274 INFO ] utils:print_arguments:28 - min_duration: 0.5 [2023-08-05 09:52:06.514308 INFO ] utils:print_arguments:28 - noise_aug_prob: 0.2 [2023-08-05 09:52:06.514342 INFO ] utils:print_arguments:28 - noise_dir: dataset/noise [2023-08-05 09:52:06.514374 INFO ] utils:print_arguments:28 - num_speakers: 3242 [2023-08-05 09:52:06.514408 INFO ] utils:print_arguments:28 - sample_rate: 16000 [2023-08-05 09:52:06.514441 INFO ] utils:print_arguments:28 - speed_perturb: True [2023-08-05 09:52:06.514475 INFO ] utils:print_arguments:28 - target_dB: -20 [2023-08-05 09:52:06.514508 INFO ] utils:print_arguments:28 - train_list: dataset/train_list.txt [2023-08-05 09:52:06.514542 INFO ] utils:print_arguments:28 - trials_list: dataset/trials_list.txt [2023-08-05 09:52:06.514575 INFO ] utils:print_arguments:28 - use_dB_normalization: True [2023-08-05 09:52:06.514609 INFO ] utils:print_arguments:21 - loss_conf: [2023-08-05 09:52:06.514643 INFO ] utils:print_arguments:24 - args: [2023-08-05 09:52:06.514678 INFO ] utils:print_arguments:26 - easy_margin: False [2023-08-05 09:52:06.514713 INFO ] utils:print_arguments:26 - margin: 0.2 [2023-08-05 09:52:06.514746 INFO ] utils:print_arguments:26 - scale: 32 [2023-08-05 09:52:06.514779 INFO ] utils:print_arguments:24 - margin_scheduler_args: [2023-08-05 09:52:06.514814 INFO ] utils:print_arguments:26 - final_margin: 0.3 [2023-08-05 09:52:06.514848 INFO ] utils:print_arguments:28 - use_loss: AAMLoss [2023-08-05 09:52:06.514882 INFO ] utils:print_arguments:28 - use_margin_scheduler: True [2023-08-05 09:52:06.514915 INFO ] utils:print_arguments:21 - model_conf: [2023-08-05 09:52:06.514950 INFO ] utils:print_arguments:24 - backbone: [2023-08-05 09:52:06.514984 INFO ] utils:print_arguments:26 - embd_dim: 192 [2023-08-05 09:52:06.515017 INFO ] utils:print_arguments:26 - pooling_type: ASP [2023-08-05 09:52:06.515050 INFO ] utils:print_arguments:24 - classifier: [2023-08-05 09:52:06.515084 INFO ] utils:print_arguments:26 - num_blocks: 0 [2023-08-05 09:52:06.515118 INFO ] utils:print_arguments:21 - optimizer_conf: [2023-08-05 09:52:06.515154 INFO ] utils:print_arguments:28 - learning_rate: 0.001 [2023-08-05 09:52:06.515188 INFO ] utils:print_arguments:28 - optimizer: Adam [2023-08-05 09:52:06.515221 INFO ] utils:print_arguments:28 - scheduler: CosineAnnealingLR [2023-08-05 09:52:06.515254 INFO ] utils:print_arguments:28 - scheduler_args: None [2023-08-05 09:52:06.515289 INFO ] utils:print_arguments:28 - weight_decay: 1e-06 [2023-08-05 09:52:06.515323 INFO ] utils:print_arguments:21 - preprocess_conf: [2023-08-05 09:52:06.515357 INFO ] utils:print_arguments:28 - feature_method: MelSpectrogram [2023-08-05 09:52:06.515390 INFO ] utils:print_arguments:24 - method_args: [2023-08-05 09:52:06.515426 INFO ] utils:print_arguments:26 - f_max: 14000.0 [2023-08-05 09:52:06.515460 INFO ] utils:print_arguments:26 - f_min: 50.0 [2023-08-05 09:52:06.515493 INFO ] utils:print_arguments:26 - hop_length: 320 [2023-08-05 09:52:06.515527 INFO ] utils:print_arguments:26 - n_fft: 1024 [2023-08-05 09:52:06.515560 INFO ] utils:print_arguments:26 - n_mels: 64 [2023-08-05 09:52:06.515593 INFO ] utils:print_arguments:26 - sample_rate: 16000 [2023-08-05 09:52:06.515626 INFO ] utils:print_arguments:26 - win_length: 1024 [2023-08-05 09:52:06.515660 INFO ] utils:print_arguments:21 - train_conf: [2023-08-05 09:52:06.515694 INFO ] utils:print_arguments:28 - log_interval: 100 [2023-08-05 09:52:06.515728 INFO ] utils:print_arguments:28 - max_epoch: 30 [2023-08-05 09:52:06.515761 INFO ] utils:print_arguments:30 - use_model: EcapaTdnn [2023-08-05 09:52:06.515794 INFO ] utils:print_arguments:31 - ------------------------------------------------ ······ =============================================================================================== Layer (type:depth-idx) Output Shape Param # =============================================================================================== Sequential [1, 9726] -- ├─EcapaTdnn: 1-1 [1, 192] -- │ └─Conv1dReluBn: 2-1 [1, 512, 98] -- │ │ └─Conv1d: 3-1 [1, 512, 98] 163,840 │ │ └─BatchNorm1d: 3-2 [1, 512, 98] 1,024 │ └─Sequential: 2-2 [1, 512, 98] -- │ │ └─Conv1dReluBn: 3-3 [1, 512, 98] 263,168 │ │ └─Res2Conv1dReluBn: 3-4 [1, 512, 98] 86,912 │ │ └─Conv1dReluBn: 3-5 [1, 512, 98] 263,168 │ │ └─SE_Connect: 3-6 [1, 512, 98] 262,912 │ └─Sequential: 2-3 [1, 512, 98] -- │ │ └─Conv1dReluBn: 3-7 [1, 512, 98] 263,168 │ │ └─Res2Conv1dReluBn: 3-8 [1, 512, 98] 86,912 │ │ └─Conv1dReluBn: 3-9 [1, 512, 98] 263,168 │ │ └─SE_Connect: 3-10 [1, 512, 98] 262,912 │ └─Sequential: 2-4 [1, 512, 98] -- │ │ └─Conv1dReluBn: 3-11 [1, 512, 98] 263,168 │ │ └─Res2Conv1dReluBn: 3-12 [1, 512, 98] 86,912 │ │ └─Conv1dReluBn: 3-13 [1, 512, 98] 263,168 │ │ └─SE_Connect: 3-14 [1, 512, 98] 262,912 │ └─Conv1d: 2-5 [1, 1536, 98] 2,360,832 │ └─AttentiveStatsPool: 2-6 [1, 3072] -- │ │ └─Conv1d: 3-15 [1, 128, 98] 196,736 │ │ └─Conv1d: 3-16 [1, 1536, 98] 198,144 │ └─BatchNorm1d: 2-7 [1, 3072] 6,144 │ └─Linear: 2-8 [1, 192] 590,016 │ └─BatchNorm1d: 2-9 [1, 192] 384 ├─SpeakerIdentification: 1-2 [1, 9726] 1,867,392 =============================================================================================== Total params: 8,012,992 Trainable params: 8,012,992 Non-trainable params: 0 Total mult-adds (M): 468.81 =============================================================================================== Input size (MB): 0.03 Forward/backward pass size (MB): 10.36 Params size (MB): 32.05 Estimated Total Size (MB): 42.44 =============================================================================================== [2023-08-05 09:52:08.084231 INFO ] trainer:train:388 - 训练数据:874175 [2023-08-05 09:52:09.186542 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [0/13659], loss: 11.95824, accuracy: 0.00000, learning rate: 0.00100000, speed: 58.09 data/sec, eta: 5 days, 5:24:08 [2023-08-05 09:52:22.477905 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [100/13659], loss: 10.35675, accuracy: 0.00278, learning rate: 0.00100000, speed: 481.65 data/sec, eta: 15:07:15 [2023-08-05 09:52:35.948581 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [200/13659], loss: 10.22089, accuracy: 0.00505, learning rate: 0.00100000, speed: 475.27 data/sec, eta: 15:19:12 [2023-08-05 09:52:49.249098 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [300/13659], loss: 10.00268, accuracy: 0.00706, learning rate: 0.00100000, speed: 481.45 data/sec, eta: 15:07:11 [2023-08-05 09:53:03.716015 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [400/13659], loss: 9.76052, accuracy: 0.00830, learning rate: 0.00100000, speed: 442.74 data/sec, eta: 16:26:16 [2023-08-05 09:53:18.258807 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [500/13659], loss: 9.50189, accuracy: 0.01060, learning rate: 0.00100000, speed: 440.46 data/sec, eta: 16:31:08 [2023-08-05 09:53:31.618354 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [600/13659], loss: 9.26083, accuracy: 0.01256, learning rate: 0.00100000, speed: 479.50 data/sec, eta: 15:10:12 [2023-08-05 09:53:45.439642 INFO ] trainer:__train_epoch:334 - Train epoch: [1/30], batch: [700/13659], loss: 9.03548, accuracy: 0.01449, learning rate: 0.00099999, speed: 463.63 data/sec, eta: 15:41:08 ``` 启动 VisualDL:`visualdl --logdir=log --host 0.0.0.0`,VisualDL 页面如下:
VisualDL页面
# 评估模型 训练结束之后会保存预测模型,我们用预测模型来预测测试集中的音频特征,然后使用音频特征进行两两对比,计算 EER 和 MinDCF。 ```shell python eval.py ``` 输出类似如下: ``` ······ ------------------------------------------------ W0425 08:27:32.057426 17654 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.5, Driver API Version: 11.6, Runtime API Version: 10.2 W0425 08:27:32.065165 17654 device_context.cc:465] device: 0, cuDNN Version: 7.6. [2023-03-16 20:20:47.195908 INFO ] trainer:evaluate:341 - 成功加载模型:models/EcapaTdnn_Fbank/best_model/model.pth 100%|███████████████████████████| 84/84 [00:28<00:00, 2.95it/s] 开始两两对比音频特征... 100%|███████████████████████████| 5332/5332 [00:05<00:00, 1027.83it/s] 评估消耗时间:65s,threshold:0.26,EER: 0.14739, MinDCF: 0.41999 ``` # 推理接口 下面给出了几个常用的接口,更多接口请参考`mvector/predict.py`,也可以往下看`声纹对比`和`声纹识别`的例子。 ```python from mvector.predict import MVectorPredictor predictor = MVectorPredictor(configs='configs/cam++.yml', model_path='models/CAMPPlus_Fbank/best_model/') # 获取音频特征 embedding = predictor.predict(audio_data='dataset/a_1.wav') # 获取两个音频的相似度 similarity = predictor.contrast(audio_data1='dataset/a_1.wav', audio_data2='dataset/a_2.wav') # 注册用户音频 predictor.register(user_name='夜雨飘零', audio_data='dataset/test.wav') # 识别用户音频 name, score = predictor.recognition(audio_data='dataset/test1.wav') # 获取所有用户 users_name = predictor.get_users() # 删除用户音频 predictor.remove_user(user_name='夜雨飘零') ``` # 声纹对比 下面开始实现声纹对比,创建`infer_contrast.py`程序,首先介绍几个重要的函数,`predict()`函数是可以获取声纹特征,`predict_batch()`函数是可以获取一批的声纹特征,`contrast()`函数可以对比两条音频的相似度,`register()`函数注册一条音频到声纹库里面,`recognition()`函输入一条音频并且从声纹库里面对比识别,`remove_user()`函数移除你好。声纹库里面的注册人。我们输入两个语音,通过预测函数获取他们的特征数据,使用这个特征数据可以求他们的对角余弦值,得到的结果可以作为他们相识度。对于这个相识度的阈值`threshold`,读者可以根据自己项目的准确度要求进行修改。 ```shell python infer_contrast.py --audio_path1=audio/a_1.wav --audio_path2=audio/b_2.wav ``` 输出类似如下: ``` [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:13 - ----------- 额外配置参数 ----------- [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - audio_path1: dataset/a_1.wav [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - audio_path2: dataset/b_2.wav [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - configs: configs/ecapa_tdnn.yml [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - model_path: models/EcapaTdnn_Fbank/best_model/ [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - threshold: 0.6 [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:15 - use_gpu: True [2023-04-02 18:30:48.009149 INFO ] utils:print_arguments:16 - ------------------------------------------------ ······································································ W0425 08:29:10.006249 21121 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.5, Driver API Version: 11.6, Runtime API Version: 10.2 W0425 08:29:10.008555 21121 device_context.cc:465] device: 0, cuDNN Version: 7.6. 成功加载模型参数和优化方法参数:models/EcapaTdnn_Fbank/best_model/model.pth audio/a_1.wav 和 audio/b_2.wav 不是同一个人,相似度为:-0.09565544128417969 ``` 同时还提供了有 GUI 界面的声纹对比程序,执行`infer_contrast_gui.py`启动程序,界面如下,分别选择两个音频,点击开始判断,就可以判断它们是否是同一个人。
声纹对比界面
# 声纹识别 在新闻识别里面主要使用到`register()`函数和`recognition()`函数,首先使用`register()`函数函数来注册音频到声纹库里面,也可以直接把文件添加到`audio_db`文件夹里面,使用的时候通过`recognition()`函数来发起识别,输入一条音频,就可以从声纹库里面识别到所需要的说话人。 有了上面的声纹识别的函数,读者可以根据自己项目的需求完成声纹识别的方式,例如笔者下面提供的是通过录音来完成声纹识别。首先必须要加载语音库中的语音,语音库文件夹为`audio_db`,然后用户回车后录音 3 秒钟,然后程序会自动录音,并使用录音到的音频进行声纹识别,去匹配语音库中的语音,获取用户的信息。通过这样方式,读者也可以修改成通过服务请求的方式完成声纹识别,例如提供一个 API 供 APP 调用,用户在 APP 上通过声纹登录时,把录音到的语音发送到后端完成声纹识别,再把结果返回给 APP,前提是用户已经使用语音注册,并成功把语音数据存放在`audio_db`文件夹中。 ```shell python infer_recognition.py ``` 输出类似如下: ``` [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:13 - ----------- 额外配置参数 ----------- [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - audio_db_path: audio_db/ [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - configs: configs/ecapa_tdnn.yml [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - model_path: models/EcapaTdnn_Fbank/best_model/ [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - record_seconds: 3 [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - threshold: 0.6 [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:15 - use_gpu: True [2023-04-02 18:31:20.521040 INFO ] utils:print_arguments:16 - ------------------------------------------------ ······································································ W0425 08:30:13.257884 23889 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.5, Driver API Version: 11.6, Runtime API Version: 10.2 W0425 08:30:13.260191 23889 device_context.cc:465] device: 0, cuDNN Version: 7.6. 成功加载模型参数和优化方法参数:models/ecapa_tdnn/model.pth Loaded 沙瑞金 audio. Loaded 李达康 audio. 请选择功能,0为注册音频到声纹库,1为执行声纹识别:0 按下回车键开机录音,录音3秒中: 开始录音...... 录音已结束! 请输入该音频用户的名称:夜雨飘零 请选择功能,0为注册音频到声纹库,1为执行声纹识别:1 按下回车键开机录音,录音3秒中: 开始录音...... 录音已结束! 识别说话的为:夜雨飘零,相似度为:0.920434 ``` 同时还提供了有 GUI 界面的声纹识别程序,执行`infer_recognition_gui.py`启动,点击`注册音频到声纹库`按钮,理解开始说话,录制 3 秒钟,然后输入注册人的名称,之后可以`执行声纹识别`按钮,然后立即说话,录制 3 秒钟后,等待识别结果。`删除用户`按钮可以删除用户。`实时识别`按钮可以实时识别,可以一直录音,一直识别。
声纹识别界面
# 说话人日志(分离说话人) 执行`infer_speaker_diarization.py`程序,输入音频路径,就可以分离出说话人,并显示结果,建议音频长度不要低于 10 秒。更多功能可以查看该程序参数。 ```shell python infer_speaker_diarization.py --audio_path=dataset/test_long.wav ``` 输出类似如下: ``` 2024-10-10 19:30:40.768 | INFO | mvector.predict:__init__:61 - 成功加载模型参数:models/CAMPPlus_Fbank/best_model/model.pth 2024-10-10 19:30:40.795 | INFO | mvector.predict:__create_index:127 - 声纹特征索引创建完成,一共有3个用户,分别是:['沙瑞金', '夜雨飘零', '李达康'] 2024-10-10 19:30:40.796 | INFO | mvector.predict:__load_audio_db:142 - 正在加载声纹库数据... 100%|██████████| 3/3 [00:00 说话人日志 项目同样提供了 GUI 界面的程序,执行`infer_speaker_diarization_gui.py`程序。更多功能可以查看该程序参数。 ```shell python infer_speaker_diarization_gui.py ``` 可以打开这样一个页面,进行说话人识别:
说话人日志
注意:如果说话人名字是中文的,需要设置安装字体才能正常显示,一般情况下 Windows 无需安装,Ubuntu 需要安装。如果 Windows 确实是缺少字体,只需要[字体文件](https://github.com/tracyone/program_font)这里下载`.ttf`格式的文件,复制到`C:\Windows\Fonts`即可。Ubuntu 系统操作如下。 1. 安装字体 ```shell git clone https://github.com/tracyone/program_font && cd program_font && ./install.sh ``` 2. 执行下面 Python 代码 ```python import matplotlib import shutil import os path = matplotlib.matplotlib_fname() path = path.replace('matplotlibrc', 'fonts/ttf/') print(path) shutil.copy('/usr/share/fonts/MyFonts/simhei.ttf', path) user_dir = os.path.expanduser('~') shutil.rmtree(f'{user_dir}/.cache/matplotlib', ignore_errors=True) ``` # web 服务 相关 web 结构 ```bash app/ ├─ main.py # 启动文件 ├─ core/ # 最小核心模块 │ ├─ config.py # 参数配置文件 │ ├─ response.py # 统一响应 │ ├─ gobal_exception.py # 全局异常 │ ├─ logger.py # 统一日志 │ ├─ auto_import.py # 自动扫描routers │ ├─ middleware_request_id.py # 分布式链路追踪id │ ├─ middleware_access_log.py # 访问日志中间件 │ └─ middleware_auth.py # 认证中间件 ├─ routers/ # 全局路由 │ ├─ index.py # 首页 │ └─ model.py # 模型接口 ├─ service/ # 服务层业务处理 └─ schemas/ # 待定 # 启动 # uvicorn main:app --host 127.0.0.1 --port 8000 --reload # 支持cpu uv sync --extra cpu # 支持cuda uv sync --extra cu128 # 另外transformers5和4的api变化有些不同,你可以 transformers==4.57.6指定版本 uv pip install transformers==4.57.6 qwen-asr # uv pip install flash-attn --no-build-isolation uv run infer.py ``` 注意:Transformers(以下简称 tsfs)必须通过 pip 方式安装。启动包含 tsfs 依赖的脚本时,tsfs 会触发依赖自检并自动下载匹配版本,但该过程会同时引发 uv 的路径依赖校验。由于遵循“就近依赖优先”原则,系统会优先匹配 tsfs 直接关联的 torch 版本,从而导致 pyproject.toml 中预设的 torch 依赖被覆盖失效。为避免此问题,请务必手动执行下述安装步骤。此外,除 tsfs 外的若干依赖项可能与 tsfs 版本存在耦合关系,因此一并纳入以下安装清单中进行统一管理。 uv add会触发uv的依赖路径检查 uv pip install直接安装则不会触发依赖重建 注意,(windows系统)需要注释如下代码中的断言, .venv\Lib\site-packages\yeaudio\audio.py 否则无法识别基于 FastAPI 的 SpooledTemporaryFile 类型音频文件。(该包在window下的bug) ```python def from_file(cls, file): """从音频文件创建音频段,支持wav、mp3、mp4等多种音频格式 :param file: 文件路径,或者文件对象 :type file: str, BufferedReader :return: 音频片段实例 :rtype: AudioSegment """ # assert os.path.exists(file), f'文件不存在,请检查路径:{file}' try: samples, sample_rate = soundfile.read(file, dtype='float32') except: # 支持更多格式数据 samples, sample_rate = decode_audio(file=file) return cls(samples, sample_rate) ``` # Docker 跨平台部署 参数请在`core/config.py`中修改。 使用 dockerfile 构建镜像,如下命令启动容器 ```shell # 你需要检查dockerfile的torch配置和你的设备cuda版本一致 vim Dockerfile # 构建镜像 docker build -t voiceprint-recogntition-pytorch:Dockerfile . docker builder prune --filter "until=24h" # 启动临时容器拷贝文件到本地 docker run -it --name voiceprint voiceprint-recogntition-pytorch:Dockerfile /bin/bash # 开新终端 拷贝数据 docker cp voiceprint:/workspace $PWD # 退出容器并删除临时容器 docker rm -f voiceprint # 拷贝模型到本地 mv <模型地址> ./workspace/models # 启动 docker run -it -p 8000:8000 --shm-size=8g \ -v $PWD/workspace:/workspace \ --restart=always \ --name voiceprint voiceprint-recogntition-pytorch:Dockerfile /bin/bash bash run.sh start # 启动后访问 http://127.0.0.1:8000 会有页面提示 ``` # 其他版本 - Tensorflow:[VoiceprintRecognition-Tensorflow](https://github.com/yeyupiaoling/VoiceprintRecognition-Tensorflow) - PaddlePaddle:[VoiceprintRecognition-PaddlePaddle](https://github.com/yeyupiaoling/VoiceprintRecognition-PaddlePaddle) - Keras:[VoiceprintRecognition-Keras](https://github.com/yeyupiaoling/VoiceprintRecognition-Keras) # 参考资料 1. https://github.com/PaddlePaddle/PaddleSpeech 2. https://github.com/yeyupiaoling/PaddlePaddle-MobileFaceNets 3. https://github.com/yeyupiaoling/PPASR 4. https://github.com/alibaba-damo-academy/3D-Speaker 5. https://github.com/wenet-e2e/wespeaker