本文介绍如何在新一代 Kaldi 训练框架 icefall 中训练一个 识别中文流式模型。同时也描述如何在服务端框架 sherpa 中 部署训练好的模型。
本文也提供预训练模型的链接,供大家下载, 方便大家在 sherpa 中进行尝试。
(是不是看不懂?看不懂就对了,请往下看 ↓ ↓ ↓)

简介

新一代 Kaldi 训练框架 icefall[1] 中,目前支持 以下 3 种基于 RNN-T 的流式识别模型:
  • • Emformer-based[2]
  • • ConvEmformer-based[3]
  • • Conformer-based[4]
本文介绍如何基于第 3 种 Conformer-based 模型,利用 WenetSpeech[5] 中文数据集, 训练一个识别中文的流式模型。
同时,我们也会介绍如何利用新一代 Kaldi 的服务端框架 sherpa[6] 部署训练好的流式识别模型。
本文不涉及流式识别模型的内部工作原理。感兴趣的读者 可以自行阅读 icefall 中相关的源代码。

训练

环境配置

开始训练之前,我们先要配置训练所需的环境,安装所需的软件。
下述链接:
https://icefall.readthedocs.io/en/latest/
提供了详细的安装步骤,此处不再赘述。
如果大家在配置环境的时候,碰到了自己无法解决的问题,可以通过以下两种方式 获得帮助:
  1. 1. 在 https://github.com/k2-fsa/icefall/issues 提一个 issue,详细描述所碰到的问题。
  2. 2. 关注新一代 Kaldi 公众号,从中找到工作人员的微信号,添加好友,然后加入 Next-gen Kaldi 交流群,进而寻求帮助。

准备数据

配置好 icefall 所需环境后,紧接着的一步就是准备数据,提取特征了。
我们假设读者已经下载好了 WenetSpeech 数据集。生成训练所需的数据命令如下:
cd
 egs/wenetspeech/ASR

./prepare.sh
对的,就是这么简单!
我们强烈建议读者阅读 prepare.sh[7],并修改其中指向 WenetSpeech 数据集所在的路径。

开始训练

准备好训练所需的数据之后,我们就可以开始训练了。训练所需命令如下:
export
 CUDA_VISIBLE_DEVICES=
"0,1,2,3,4,5,6,7"

python3 ./pruned_transducer_stateless5/train.py \

  --lang-dir data/lang_char \

  --exp-dir pruned_transducer_stateless5/exp_L_streaming \

  --world-size 8 \

  --num-epochs 15 \

  --start-epoch 1 \

  --max-duration 140 \

  --valid-interval 3000 \

  --model-warm-step 3000 \

  --save-every-n 8000 \

  --average-period 1000 \

  --training-subset L \

  --dynamic-chunk-training True \

  --causal-convolution True \

  --short-chunk-size 25 \

  --num-left-chunks 4
训练中的 checkpoints epoch-1.ptepoch-2.pt 等保存在上述指定的目录 --exp-dir 中, 即 pruned_transducer_stateless5/exp_L_streaming.

解码

当我们有上一步的 checkpoints 时,就可以开始解码了。解码命令如下:
python3 pruned_transducer_stateless5/streaming_decode.py \

  --epoch 6 \

  --avg 1 \

  --decode-chunk-size 16 \

  --left-context 64 \

  --right-context 0 \

  --exp-dir ./pruned_transducer_stateless5/exp_L_streaming \

  --use-averaged-model True \

  --decoding-method greedy_search \

  --num-decode-streams 200
在 WenetSpeech 的 3 个测试集 DevTest_Net 和 Test_Meeting 上的 CER 如下表所示。
CheckpointDecoding methodDevTest_NetTest_Meeting
epoch-5greedy search8.7910.8016.82
epoch-6greedy search8.7910.4716.34
如果想看更详细的结果,请各位读者访问如下链接:
https://github.com/k2-fsa/icefall/pull/447
下面的截图,是来自 wenet[8] 中的结果:
值得注意的是wenet 中,使用 8 个 A100 GPU (文档中未注明 GPU RAM 是 40 GB 还是 80 GB)训 练了 50 个 epoch。而 icefall 使用 8 个 V100 GPU (32 GB RAM)训练 5 个 epoch (使用了speed perturb增广)就可以达到 wenet 中同样的效果,甚至更好。
我们提供的预训练模型下载链接如下:
https://huggingface.co/luomingshuang/icefall_asr_wenetspeech_pruned_transducer_stateless5_streaming/tree/main/exp
欢迎各位读者尝试,并比较解码速度。

部署

有了上面训练好的模型之后,接下来的工作,就是怎么把它用起来。这就是服务端框架 sherpa 所要做的事情。
sherpa 的安装方法可以参考如下链接:
https://k2-fsa.github.io/sherpa/installation/index.html
接下来我们介绍,如何部署上面的预训练模型。

下载模型

我们提供的模型存储在 Hugging face[9] 上,通过 git lfs 管理。模型下载命令为:
sudo apt-get install git-lfs

git lfs install


cd
 /path/to/sherpa

git 
clone
 https://huggingface.co/luomingshuang/icefall_asr_wenetspeech_pruned_transducer_stateless5_streaming

启动服务器

下载好模型之后,我们就可以启动服务器了。命令如下:
./sherpa/bin/streaming_conformer_rnnt/streaming_server.py \

  --port 6006 \

  --max-batch-size 50 \

  --max-wait-ms 5 \

  --nn-pool-size 1 \

  --nn-model-filename ./icefall_asr_wenetspeech_pruned_transducer_stateless5_streaming/exp/cpu_jit_epoch_5_avg_1_torch.1.7.1.pt \

  --token-filename ./icefall_asr_wenetspeech_pruned_transducer_stateless5_streaming/data/lang_char/tokens.txt

启动客户端

启动好服务器后,我们就可以运行客户端了。新开一个命令行窗口,输入如下命令:
cd
 /path/to/sherpa

cd
 ./sherpa/bin/web

python3 -m http.server 6008
然后打开浏览器,访问如下链接:
http://localhost:6008/streaming_record.html
出现如下界面:
点击 Streaming-Record 按钮,然后说话,就可以实时的看见识别的结果了。
具体的识别效果,可以访问如下视频:

总结

我们介绍了如何在新一代 Kaldi 中训练和部署一个中文流式识别模型。并在 WenetSpeech 三个测试集上与 wenet 在 CER 上进行了对比。结果表明, 新一代 Kaldi 具有收敛速度快的优点。

往期文章

本文出品:新一代Kaldi-NGK编辑部
撰文:蛋哥的匡匡和双双
(如果你也想成为蛋哥的某某,我们欢迎大家给新一代Kaldi投稿

投稿邮箱地址:[email protected]
小编将送出蛋哥亲自手绘的新一代KaldiT恤~)

引用链接

[1]
 icefall: 
https://github.com/k2-fsa/icefall
[2]
 Emformer-based: 
https://github.com/k2-fsa/icefall/tree/master/egs/librispeech/ASR/pruned_stateless_emformer_rnnt2
[3]
 ConvEmformer-based: 
https://github.com/k2-fsa/icefall/tree/master/egs/librispeech/ASR/conv_emformer_transducer_stateless2
[4]
 Conformer-based: 
https://github.com/k2-fsa/icefall/pull/447
[5]
 WenetSpeech: 
https://github.com/wenet-e2e/WenetSpeech
[6]
 sherpa: 
http://github.com/k2-fsa/sherpa
[7]
 prepare.sh: 
https://github.com/k2-fsa/icefall/blob/master/egs/wenetspeech/ASR/prepare.sh
[8]
 wenet: 
https://github.com/wenet-e2e/wenet/tree/main/examples/wenetspeech/s0
[9]
 Hugging face: 
https://huggingface.co/
继续阅读
阅读原文