基于Kersa实现的声纹识别

  |   0 评论   |   0 浏览   |   夜雨飘零

基于 Kersa 实现的声纹识别

本项目是基于 VGG-Speaker-Recognition 开发的,本项目主要是用于声纹识别,也有人称为说话人识别。本项目包括了自定义数据集的训练,声纹对比,和声纹识别。

本教程源码:https://github.com/yeyupiaoling/Kersa-Speaker-Recognition

安装环境

本项目使用的是 Python 3.7,Keras2.3.1 和 Tensorflow1.15.3,音频处理使用 librosa 库,安装方法如下。

  1. 安装 Tensorflow GPU 版本,CUDA 为 10.0,CUDNN 为 7。
pip install tensorflow-gpu==1.15.3
  1. 安装 Keras。
pip install keras==2.3.1
  1. 安装 librosa 库,最简单的方式就是使用 pip 命令安装,如下。如安装的是 librosa 0.6.3--0.7.2,依赖的是 numba0.49.0,源码安装的时候要留意,否者会报错 No module named numba.decorators
pip install pytest-runner
pip install librosa

如果 pip 命令安装不成功,那就使用源码安装,下载源码:https://github.com/librosa/librosa/releases/, windows 的可以下载 zip 压缩包,方便解压。

pip install pytest-runner
tar xzf librosa-<版本号>.tar.gz 或者 unzip librosa-<版本号>.tar.gz
cd librosa-<版本号>/
python setup.py install

如果出现 libsndfile64bit.dll': error 0x7e 错误,请指定安装版本 0.6.3,如 pip install librosa==0.6.3

如果出现 audioread.exceptions.NoBackendError 错误,解决方法如下。

Windows: 安装 FFMPEG, 下载地址:http://blog.gregzaal.com/how-to-install-ffmpeg-on-windows/,笔者下载的是 64 位,static 版。
然后到 C 盘,笔者解压,修改文件名为 FFMPEG,存放在 C:\Program Files`目录下,并添加环境变量 C:\Program Files\ffmpeg\bin`

最后修改源码,路径为 C:\Python3.7\Lib\site-packages\audioread\ffdec.py,修改 32 行代码,如下:

COMMANDS = ('C:\\Program Files\\ffmpeg\\bin\\ffmpeg.exe', 'avconv')

Linux: 安装 FFMPEG。

sudo add-apt-repository ppa:djcj/hybrid
sudo apt-get update
sudo apt-get install ffmpeg  

配置环境变量。

export PATH=/usr/bin/ffmpeg:${PATH}
  1. 其他的依赖库自行安装。

自定义数据训练

本节介绍自定义数据集训练,如何不想训练模型,可以直接看下一节,使用官方公开的模型进行声纹识别。

数据获取

自定义数据列表格式如下,前面是音频的相对路径,后面的是该音频对应的说话人的标签,就跟分类一样。

dataset/ST-CMDS-20170001_1-OS/20170001P00001A0119.wav	0
dataset/ST-CMDS-20170001_1-OS/20170001P00001A0120.wav	0
dataset/ST-CMDS-20170001_1-OS/20170001P00001I0001.wav	1
dataset/ST-CMDS-20170001_1-OS/20170001P00001I0002.wav	1
dataset/ST-CMDS-20170001_1-OS/20170001P00001I0003.wav	1
  1. 本项目默认是支持 Aishell,Free ST-Chinese-Mandarin-Corpus,THCHS-30,VoxCeleb2 这 4 个数据集的,需要把他们下载并解压到 dataset 目录下,有一点要注意的是,VoxCeleb2 数据集解压之后,把训练集和测试集里的 aac 目录下的文件夹都放在同一个 VoxCeleb2 目录下,他们的下载地址如下。
  1. 下载并解压完成之后,执行 create_data.py 生成数据列表,如何读者有其他自定义的数据集,可以参考这个文件中的代码,生成自己数据集的数据列表,其中 delete_error_audio() 函数是检查数据是否有错误或者过短的,这个比较耗时,如果读者能够保证数据没有问题,可以跳过这个函数。

训练

在执行训练之前,可能需要修改 train.py 中的几个参数。

  • gpu 是指定是用那个几个 GPU 的,如何多卡的情况下,最好全部的 GPU 都使用上。
  • resume 这个是用于恢复训练的,如何之前有训练过的模型,可以只用这个参数指定模型的路径,恢复训练。
  • batch_size 根据自己显存的大小设置 batch 的大小。
  • n_classes 是分类数量,这个可以查看上一步生成数据列表最后一个得到分类数量,但也记得加 1,因为 label 是从 0 开始的。
  • multiprocess 这个参数是指定使用多少个线程读取数据,因为读取音频需要比较慢,训练默认也是使用 4 个多线程训练的,所以如果使用多线程读取数据,就不要使用多线程读取数据,否则反之,Ubuntu 下最好使用多线程读取数据。但是 Windows 不支持多个线程读取数据,在 Windows 下必须是 0。
  • net 参数是指定使用的模型,有两种模型可以选择,较小的 resnet34s,和较大的 resnet34l。

最后执行 train.py 开始训练,在训练过程中,每一步都会保存模型,同时也使用 Tensorboard 记录训练的 logs 信息。

预测

使用训练完成的模型,或者是官方提供的模型,笔者这里提供了国内的下载:点击下载,把模型存放在 pretrained 目录下。

本项目提供三种预测方案:

  • 第一种是声纹对比 predict_contrast.py,即对比两个音频的声纹相似度,其中参数 audio1_pathaudio2_path 就是需要对比的音频路径,其他的参数需要跟训练的一致。
  • 第二种是录音识别 predict_recognition.py,即通过录音识别说话的人属于声纹库中的那个,并输出说话人的名称和跟声纹库对比的相识度,同样其他的参数需要跟训练的一致。
  • 第三种是服务接口方式 predict_server.py,即通过 HTTP 提供接口,通过网络请求注册或者识别声纹,还有也提供了在线录音识别的页面,但是在线录音只能在 localhost 下使用,否则只能是 HTTPS 协议才能调用 Chrome 浏览器的录音功能。

声纹对比:

声纹对比

录音声纹识别:

录音声纹识别

页面:

声纹识别服务

启动日志:

声纹识别服务

录音识别结果:

声纹识别服务

在线播放录音:

声纹识别服务

模型下载

模型 下载地址
官方提供的模型 点击下载
自训练超大数据集的模型 训练中

标题:基于Kersa实现的声纹识别
作者:夜雨飘零
地址:https://blog.doiduoyi.com/articles/1594777432559.html

评论

发表评论