2. 山东省智能建筑技术重点实验室, 济南 250101
2. Shandong Provincial Key Laboratory of Intelligent Building Technology, Jinan 250101, China
随着科技的飞速发展, 语音识别技术已经成为了智能设备的标配, 这项技术贯穿了多门学科理论, 包含了模式识别、电子技术、数理统计、信号处理、计算机科学、物理声学、生理科学和语言学等. 由于语音交互提供了更自然、更便利、更高效的沟通形式, 语音必定将成为未来最主要的人机互动接口之一.
在20世纪50年代, 贝尔实验室就开始基于简单的孤立词语音识别技术的研究[1]. 1968年, 苏联科学家Vintsyuk提出采用动态规划的算法实现动态时间规整(dynamic time warping, DTW)[2, 3], 一度成为当时语音识别的主流技术. 后来模式识别、动态规划算法和线性预测编码这3种技术被引入到语音识别中, 成功的使得孤立词语音识别系统从理论上得以完善, 并且可以达到实用化的水平[4, 5]. 进入80年代后, 基于隐马尔科夫模型(hidden Markov model, HMM)[6, 7]的声学建模和基于N-gram的语言模型在语音识别中得到运用[8, 9], 这时期语音识别开始从孤立词识别系统向大量词汇连续语音识别系统发展. 后来又结合高斯混合模型(Gaussian mixed model, GMM), 形成基于高斯混合模型-隐马尔可夫模型(Gaussian mixed model-hidden Markov model, GMM-HMM)[10]的语音识别框架, 使基于HMM的语音识别模型效果得到提升.
进入21世纪后, 深度学习技术不断发展, 在2011年, 微软研究院的Deng等人以音素状态为建模单位提出了深度神经网络-隐马尔可夫模型(DNN-HMM)的识别方法, 用DNN模型代替原来的GMM模型, 对每一个状态进行建模, 显著降低了错误率[11]. 但DNN-HMM语音识别模型的性能还是会受到数据强制分割、对齐、HMM 遗留的多模块独立训练等问题的限制[12].
到2015年, 从联结时序分类算法(connectionist temporal classification, CTC)[13]引入到语音识别领域后, 端到端技术开始流行. 端到端技术将整个识别网络简化成一个单一的网络结构, 在训练时只需要注意整个系统的输入和输出, 直接将输入音频序列映射到单词或其他字素序列, 大大减少了对语音识别系统构建的难度, 受到越来越多研究人员的欢迎[14-16].
近几年, 研究人员注意到具有自注意力机制的深度神经网络模型 “Transformer”[17], 在机器翻译、计算机视觉等领域中展现出强劲识别的性能. Dong等人首次将Transformer模型引入到语音识别领域中来, 使得Transformer能够完成语音识别任务[18]. Transformer在提取长序列依赖的时候更有效, 但是提取局部细微特征的能力较弱, 而卷积则更擅长提取局部特征[19-21]. Conformer模型[22]将卷积模块加入到Transformer模型的编码器部分, 达到增强识别效果的目的. Transformer模型在推理过程中无需使用语言模型即可获得不错的识别效果, 但所得文本从语言学角度上看质量较差, 结合语言模型之后将得到不错的效果. 本文将Conformer模型所搭建的语音识别系统在数据集AISHELL-1和aidatatang_200zh上与Transformer模型作比较, 并且增加语言模型[23, 24]后比较了语音识别系统识别性能以及实时率的差异, 并且在不同程度的噪声数据中测试了识别的准确率.
1 Conformer模型结构本文所使用的Conformer结构是在Transformer模型编码器的基础上增加卷积模块, 构成Conformer 编码器. 结构如图1所示, Conformer编码器由多个Conformer块堆叠而成[22].
1.1 Conformer 块
Conformer模型核心就是编码器中的Conformer块, 其结构如图2所示, 由Layer Norm模块、前馈层、卷积层和多头注意力层组成. 在前馈层、卷积层和多头注意力层上都有残差结构, 这里残差结构的引入是为了便于卷积网络的训练[25]. 同时卷积模块和多头注意力模块相连起到效果增强的作用.
1.2 多头自注意力层
在多头自注意力模块中, 其结构如图3所示, 使用了残差结构和Dropout来帮助训练更深层次的网络, 防止多头注意力层向量丢失重要信息[26].
多头注意力模块中的注意力机制从输入的大量信息中选择关键信息加以处理. 使用信息提取的方法将维度为
$ Z = {\text{ }}Attention{\text{ }}(Q, K, V) = {\text{ }}{\textit{Softmax}}\left( {\frac{{Q{K^{\rm{T}}}}}{{\sqrt {{d_K}} }}} \right) \cdot V $ | (1) |
其中, 对
多头注意力机制是将
$ MultiHead(Q, K, V) = Concat(hea{d_1}, \cdots , hea{d_n}){W^O} $ | (2) |
$ hea{d_i} = {\text{ }}Attention{\text{ }}\left( {QW_i^Q, KW_i^K, VW_i^V} \right) $ | (3) |
其中,
Conformer块结构中的卷积模块如图4所示, 由Layer Norm、Batch Norm、Pointwise卷积、Depthwise卷积、GLU激活层和ReLU激活层所组成. 整体运用了残差结构, 增强了梯度的传播, 防止梯度消失[25].
在卷积模块中使用深度可分离卷积, 深度可分离卷积由Pointwise 卷积和 Depthwise 卷积组成, 它将普通的卷积操作分解为两个过程, 这么做可以用较少的参数学习更丰富的特征并且减少了计算量. Pointwise 卷积运算负责将深度卷积的输出按通道投影到新的特征图上; Depthwise 卷积不同于原始卷积, 一个卷积核负责一个通道, 独立地在每个通道上进行空间卷积[28].
GLU激活函数如式(4)所示:
$ {h_l}(X) = (X * W + b) \otimes (X * V + c) $ | (4) |
其中,
前馈网络(feed forward network , FFN)的结构如图5所示, 由两个线性层组成, 使用ReLU激活函数进行线性变换, 使用Dropout层来减少过拟合的发生.
如式(5)所示, 前馈层目的是为了更新注意力层输出向量的每个状态信息. 其中
$ {\textit{FFN}}(x) = \max\left( {0, x{W_1} + {b_1}} \right){W_2} + {b_2} $ | (5) |
然后在经过Layer Norm 层归一化重新定位, 对编码器的深度网络进行平滑优化[29]. 同时控制输入向量长度的动态变化, 防止神经网络层的参数变化导致输入的分布产生较大差异.
2 语言模型语言模型用于评估文本序列是否符合人类语言使用习惯, 是传统语音识别系统中不可或缺的一部分. 语言模型可以基于语法规则, 也可以基于统计方法. 基于语法规则的语言模型来源于语言学家掌握的语言学领域知识. 而基于统计方法的语言模型, 通过对大量文本语料进行处理, 获得给定词序列出现的概率分布, 以客观描述词与词之间组合的可能性, 适合于处理大规模真实文本.
统计语言模型的目标是计算给定词序列
$\begin{split} P(w) &= P\left( {{w_1}{w_2} \cdots {w_{t - 1}}{w_t}} \right) \\ &= P\left( {{w_1}} \right)P\left( {{w_2}|{w_1}} \right) \cdots P\left( {{w_t}|{w_1}{w_2} \cdots {w_{t - 1}}} \right) \end{split} $ | (6) |
其中, 条件概率
但是, 纯端到端的模型并没有结合语言模型, 在结合语言模型之后会更好地利用中文语言特性得到更加准确的预测结果. 而N-gram语言模型有着成熟完备的训练工具, 语料或多或少都可以进行训练并且训练速度也很快, 因此本实验采用N-gram语言模型[9].
2.1 N-gram语言模型N-gram 是语音识别中最常用到的语言模型. N-gram 指文本中连续出现的
当
$ p\left( {{w_1}, {w_2}, \cdots , {w_m}} \right) = \prod\limits_{i = 1}^m p \left( {{w_i}} \right) $ | (7) |
当
$ p\left( {{w_1}, {w_2}, \cdots , {w_m}} \right) = \prod\limits_{i = 1}^m p \left( {{w_i}\mid {w_{i - 1}}} \right) $ | (8) |
当
$ p = \left( {{w_1}, {w_2}, \cdots , {w_m}} \right) = \prod\limits_{i = 1}^m p \left( {{w_i}\mid {w_{i - 2}}{w_{i - 1}}} \right) $ | (9) |
多元模型N-gram可以表示为式(10):
$ p\left( {{w_1}\mid {w_{i - n - 1}}, \cdots , {w_{i - 1}}} \right) = \frac{{C\left( {{w_{i - n - 1}}, \cdots , {w_i}} \right)}}{{C\left( {{w_{i - n - 1}}, \cdots , {w_{i - 1}}} \right)}} $ | (10) |
其中,
目前主要使用困惑度进行对比来确定语言模型的好坏, 这种指标比较客观. 给定句子
$ PPL(w) = P{\left( {{w_1}{w_2} \cdots {w_T}} \right)^{ - \frac{1}{T}}} $ | (11) |
困惑度简称为
语言模型的概率需要通过大量的文本语料来估计, 采用最大似然算法. 但是在统计的预料中数量有限, 因此会存在数据稀疏的情况, 这会导致零概率或估计不准的问题, 因此对预料中未出现或少量出现的词序列, 需要采用平滑技术进行间接预测.
平滑技术主要有3种, 有折扣法、插值法和回退法[30]. 折扣法是降低概率不为0项的概率, 从已有的观测值概率调配一些给未观测值的概率来提高概率为0项的概率, 但没有考虑低阶模型和高阶模型间的关系故不单独使用; 插值法是将高阶模型和低阶模型做线性组合, 充分利用高阶和低阶语言模型, 把高阶的概率信息分配给低阶的模型; 回退法是基于低阶模型估计未观察到的高阶模型.
3 构建语音识别系统端到端语音识别系统, 不同于传统方法将语音识别任务分解为声学模型、字典和语言模型多个子任务, 而是经过一个复杂网络直接产生对应的语言文本, 并且在不使用语言模型的情况下就能进行语音识别的工作, 实现从输入语音到输出文本的转换[31].
结构如图6所示, 编码器部分负责将语音输入序列映射到特征序列, 生成指定长度的向量. 解码器部分对最终的识别结果进行解码, 根据语义向量生成指定的序列.
预处理模块就是对初始输入进行处理, 如图7所示, 该结构是由数据增强层、池化层、线性层和Dropout所组成.
数据增强层通过使用SpecAugment[32, 33]方法在log梅尔声谱层面上进行数据增强, 可以将模型的过拟合问题转化为欠拟合问题, 以便通过大网络和长时训练策略来缓解欠拟合问题, 提升语音识别效果. 池化层处理输入, 较好地保留了低层次输入, 在保留了编码器的表示能力和模型整体精度的同时显著降低了计算量.
线性层又称为全连接层, 其每个神经元与上一个层所有神经元相连, 实现对前一层的线性组合或线性变换. Dropout对于神经网络单元按照一定的概率将其暂时从网络中丢弃, 有效地减轻过拟合的发生, 一定程度上达到了正则化的效果.
3.1 端到端结构端到端模型结构如图8所示, 该结构编码器部分为Conformer 的编码器, 由12个Conformer块堆叠而成, 解码器部分由CTC解码器构成.
输入数据经过预处理后进入Conformer编码器, CTC解码器由线性层组成, 将编码器的输出转化为CTC激活后解码输出, 解码算法为CTC Prefix Beam Search[34-36].
CTC网络的输出形式为
结合语言模型后的模型结构, 如图9所示. 编码器部分由12个Conformer块组成, 解码器部分为先经过CTC WFST search打分后再由Attention解码器重新打分得到最终结果[14,37]. 在结合语言模型的结构中, CTC WFST search 是该结构的核心, 该步骤包含了构建解码图和解码器两部分.
解码图用TLG来表示, 即将T、L和G各层次信息组合到一张图中, 其中T表示建模单元, L表示词典, G表示语言模型. 以端到端模型训练的中文汉字作为建模单元T, 词典L则是由词语或句子拆分成建模单元而构成, 语言模型G是由N-gram语言模型转换为加权有限状态转换器(weighted finite-state transducer, WFST)的形式表示[38, 39]. WFST通常用来描述状态之间的转移信息, 能够将语言模型直接表示成图的形式, 语言模型概率经处理后作为图中的权重. 当图构建完成之后, 语言模型的概率就成了图权重的一部分, 解码时直接使用图的权重而不用去查询语言模型, 它实现了输入序列到输出序列的转换.
解码器部分采用的是Viterbi解码, 根据输入寻求最佳状态序列. 解码过程是逐帧推进, 结合转移弧上的权重, 得到每个时刻扩展路径的累计代价, 然后对比指向同一个状态的不同路径的累计代价, 选择值更小的路径并更新状态信息, 直到Viterbi解码最后一帧然后回溯路径, 得到最优路径. 对得到的信息再进行Attention解码重打分, Attention解码器使用Transformer结构的解码器部分, 通过使用注意力机制最终输出最合适的结果[37,40, 41].
4 实验 4.1 实验数据实验所用到的语音数据由两部分组成, 一部分来自于北京希尔贝壳科技有限公司出版的中文语声数据集AISHELL-1, 其包含178 h来自400个说话人的普通话声频和相应文本信息. AISHELL-1中的声频数据重采样为16 kHz, 16位的WAV格式. 开发人员将数据集分为3个部分: 训练集、验证集和测试集. 训练集包含来自340个说话者的120098个发音和大约140 h的普通话语声数据; 验证集包含来自40个说话者的14326个语句; 测试集包含来自20个说话者的7176个语句. 对于每个说话者, 大约发布了360个语句(大约26 min的语声).
另一部分来自于由北京数据堂科技有限公司开发的中文普通话语音语料库aidatatang_200zh, 语料库包含 200 h的声学数据, 主要是移动记录数据, 邀请了来自中国不同口音地区的600名演讲者参与录音, 每个句子的转录准确率大于 98%, 数据文件中保留了语音数据编码和说话人信息等详细信息.
4.2 实验配置实验所用的机器操作系统为Ubuntu 20.04.2LTS, CPU为Intel Xeon Silver 4210 , 128 GB内存, GPU为3块RTX2080 SUPER (6 GB)显卡, 共18 GB显存.
SpecAugment使用了2个最大频率掩码和2个最大时间掩码以缓解过拟合问题. 在编码器的前端使用两个核大小为3×3、步幅为2的卷积子采样层. 编码器中使用12个Conformer块, 注意力头数设置为 4, 学习率设置为0.002, batch size设置为8, epoch设置为120, beam size设置为10. Attention解码器中解码器个数为6个, 语言模型使用三元语法模型, 即N-gram语言模型中的N为3[32,37].
实验中输入特征是80维梅尔滤波器组特征即Fbank特征, 将语音通过预加重、分帧、加窗、傅里叶变换、功率谱以及滤波器组有序计算. 设置窗长为20 ms, 帧移为10 ms.
训练使用CTC loss与Attention loss联合优化训练, 这样设置的目的是避免CTC对齐关系过于随机还能加快训练的收敛速度, 并且可以使训练过程更加稳定, 从而取得更好的识别结果.
$ L(x, y) = \lambda {L_{{\rm{CTC}}}}(x, y) + (1 - \lambda ){L_{{\rm{ATT}}}}(x, y) $ | (14) |
训练所使用的组合损失如式(12)所示,
本实验基于Kaldi[44]、Espnet (end-to-end speech processing toolkit)工具包[45]和WeNet[37]语音识别工具包来进行. Kaldi是著名的开源语音识别工具, 这套工具提供了目前工业界最常用的模型训练工具, 它使用WFST来实现解码算法, 其主要的代码是C++编写, 在此之上使用bash和Python脚本做了一些工具. Espnet工具箱融合了Kaldi的数据处理和特征提取, 同时借助PyTorch和Chainer, 使用Python实现了许多端到端模型. WeNet是出门问问语音团队联合西工大语音实验室开源的一款语音识别工具包, 模型训练完全基于PyTorch生态, 结构类似于Kaldi但并不依赖于Kaldi等安装复杂的工具.
4.3 评价标准本文在数据集AISHELL-1 和数据集aidatatang_200zh上评价实验结果, 采用字错率(character error rate, CER)作为评价指标. 字错率即为了使识别出来的词序列和标准的词序列之间保持一致, 需要进行替换、删除或者插入某些词, 这些插入
$ CER = \frac{{S + D + I}}{N} $ | (12) |
在数据集AISHELL-1和aidatatang_200zh上, 不添加语言模型的情况下, 实验结果如表1, 以Conformer模型所搭建的语音识别系统与Transformer模型做对比, 可以看出在相同的数据集上训练Conformer模型较Transformer模型具有更低的字错率. 在AISHELL-l数据集上Conformer模型要比Transformer模型字错率低5.82%, 在aidatatang_200zh数据集上Conformer模型比Transformer模型字错率低2.71%.
添加语言模型之后, 在相同数据集上使用文中识别方法的结果如表2, 不难看出在AISHELL-1数据集上Conformer模型在结合语言模型之后比Transformer模型结合语言模型的字错率低3.23%, 在aidatatang_200zh数据集上结合语言模型的Conformer模型比结合语言模型的Transformer模型字错率低1.69%.
经以上实验表明, 在添加语言模型后Conformer模型和Transformer模型在两个不同的数据集上准确率均得到了进一步提升, 并且Conformer模型在添加语言模型之后识别效果最佳.
语音识别的实时率用来度量语音识别系统识别音频速度的值, 表示处理单位时长语音数据所需要的时间, 值越小表示处理语音的效率越高. 经测试结果如表3所示, 在不结合语言模型时Transformer模型的实时率比Conformer模型低0.06102, 在结合语言模型之后Transformer模型的实时率比Conformer模型低0.0344, 可以看出Transformer模型的实时率比Conformer模型的实时率稍好, 并且在结合语言模型之后两模型识别的实时率也均会发生升高, 但仍能在语音识别时达到不错的识别效率.
目前较新的语音识别模型有RNN-Transducer、Conformer-Transducer[45, 46], 以在AISHELL-1数据集上测试的结果为基准, 与结合语言模型的Conformer模型作比较, 其结果如表3所示,
由表4可以看出, 结合语言模型的Conformer模型较RNN-Transducer和Conformer-Transducer模型相比, 字错率分别下降了了2.34%和0.14%. 可以看出该模型在性能上有一定的优势.
测试结合语言模型的Conformer模型在噪声环境的性能, 在AISHELL-1数据集上加入不同比例的白噪声分别构成信噪比为10 dB、20 dB、40 dB、60 dB和80 dB的噪声数据. 测试结果如表5所示, 在测试信噪比为80 dB和60 dB含噪声数据时的性能和与使用纯净音频时的性能十分接近. 随着噪声强度的增加, 在测试信噪分别为40 dB和20 dB时, 音频质量接近日常生活环境, 此时识别的准确率有所下降. 信噪比为10 dB时语音数据声音嘈杂, 对模型的识别产生较大影响, 此时字错率升高. 由此可以看出噪声会对模型的性能产生影响, 随着噪声的增强, 模型识别的准确率有所下降.
5 结束语
本次实验通过比较不同模型的字错率, 可以看出由Conformer模型所搭建的中文语音识别系统较Transformer模型有更好的性能, 并且语言模型的添加对端到端语音识别系统识别准确的增加有着重要的作用. 模型识别语音的实时率小于0.2, 在进行语音识别时可以感受到细微的延迟并不会影响整体的效果. 并且通过在含有不同程度噪声数据上测试的结果, 可以看出不同程度的噪声均会对模型的性能产生一定的影响. 由于实验中所用于训练的语音数据是在安静的条件下录制的, 语音质量比较高, 这相较于模型在实际使用中所输入的语音数据过于完美, 并且实验所用的数据量不足无法涉及到现实中的各个生活场景, 因此后续考虑扩充实验数据量以提升模型的性能及鲁棒性, 使该模型能够在更多环境下使用.
[1] |
Davis KH, Biddulph R, Balashek S. Automatic recognition of spoken digits. The Journal of the Acoustical Society of America, 1952, 24(6): 637-642. DOI:10.1121/1.1906946 |
[2] |
Vintsyuk TK. Speech discrimination by dynamic programming. Cybernetics, 1968, 4(1): 52-57. |
[3] |
Sakoe H, Chiba S. Dynamic programming algorithm optimization for spoken word recognition. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1978, 26(1): 43-49. DOI:10.1109/TASSP.1978.1163055 |
[4] |
Buzo A, Gray A, Gray R, et al. Speech coding based upon vector quantization. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1980, 28(5): 562-574. DOI:10.1109/TASSP.1980.1163445 |
[5] |
Davis S, Mermelstein P. Comparison of parametric representations for monosyllabic word recognition in continuously spoken sentences. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1980, 28(4): 357-366. DOI:10.1109/TASSP.1980.1163420 |
[6] |
Lee KF, Hon HW, Hwang MY, et al. The SPHINX speech recognition system. International Conference on Acoustics, Speech, and Signal Processing. Glasgow: IEEE, 1989, 445-448. |
[7] |
Juang BH, Rabiner LR. Hidden Markov models for speech recognition. Technometrics, 1991, 33(3): 251-272. DOI:10.1080/00401706.1991.10484833 |
[8] |
Huang XD, Baker J, Reddy R. A historical perspective of speech recognition. Communications of the ACM, 2014, 57(1): 94-103. DOI:10.1145/2500887 |
[9] |
Cavnar WB, Trenkle JM. N-gram-based text categorization. Proceedings of SDAIR-94, 3rd Annual Symposium on Document Analysis and Information Retrieval. Las Vegas. 1994. 161175.
|
[10] |
Karpagavalli S, Chandra E. Phoneme and word based model for tamil speech recognition using GMM-HMM. 2015 International Conference on Advanced Computing and Communication Systems. Coimbatore: IEEE, 2015. 1–5.
|
[11] |
Deng L, Hinton G, Kingsbury B. New types of deep neural network learning for speech recognition and related applications: An overview. 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Vancouver: IEEE, 2013. 8599–8603.
|
[12] |
Wang D, Wang XD, Lv SH. An overview of end-to-end automatic speech recognition. Symmetry, 2019, 11(8): 1018. DOI:10.3390/sym11081018 |
[13] |
Graves A, Fernández S, Gomez F, et al. Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks. Proceedings of the 23rd International Conference on Machine Learning. Pittsburgh: ACM, 2006. 369–376.
|
[14] |
Miao YJ, Gowayyed M, Metze F. EESEN: End-to-end speech recognition using deep RNN models and WFST-based decoding. 2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Scottsdale: IEEE, 2015. 167–174.
|
[15] |
Lu L, Zhang XX, Renais S. On training the recurrent neural network encoder-decoder for large vocabulary end-to-end speech recognition. 2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Shanghai: IEEE, 2016. 5060–5064.
|
[16] |
Graves A, Jaitly N. Towards end-to-end speech recognition with recurrent neural networks. Proceedings of the 31st International Conference on Machine Learning. Beijing: ACM, 2014. II-1764–II-1772.
|
[17] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: ACM, 2017. 6000–6010.
|
[18] |
Dong LH, Xu S, Xu B. Speech-Transformer: A no-recurrence sequence-to-sequence model for speech recognition. 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Calgary: IEEE, 2018. 5884–5888.
|
[19] |
Bie A, Venkitesh B, Monteiro J, et al. A simplified fully quantized transformer for end-to-end speech recognition. arXiv: 1911.03604, 2019.
|
[20] |
刘长征, 张磊. 语音识别中卷积神经网络优化算法. 哈尔滨理工大学学报, 2016, 21(3): 34-38. |
[21] |
杨洋, 汪毓铎. 基于改进卷积神经网络算法的语音识别. 应用声学, 2018, 37(6): 940-946. DOI:10.11684/j.issn.1000-310X.2018.06.016 |
[22] |
Gulati A, Qin J, Chiu CC, et al. Conformer: Convolution-augmented transformer for speech recognition. Proceedings of the 21st Annual Conference of the International Speech Communication Association. Shanghai, 2020. 5036–5040.
|
[23] |
Graovac J, Mladenović M, Tanasijević I. NgramSPD: Exploring optimal n-gram model for sentiment polarity detection in different languages. Intelligent Data Analysis, 2019, 23(2): 279-296. DOI:10.3233/IDA-183879 |
[24] |
Pibiri GE, Venturini R. Handling massive N-gram datasets efficiently
. ACM Transactions on Information Systems, 2019, 37(2): 25. |
[25] |
He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016. 770–778.
|
[26] |
Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: A simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, 2014, 15(1): 1929-1958. |
[27] |
Bello I, Zoph B, Le Q, et al. Attention augmented convolutional networks. Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2019. 3285–3294.
|
[28] |
Kriman S, Beliaev S, Ginsburg B, et al. Quartznet: Deep automatic speech recognition with 1D time-channel separable convolutions. Proceedings of 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelona: IEEE, 2020. 6124–6128.
|
[29] |
Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift. Proceedings of the 32nd International Conference on Machine Learning. Lille: ACM, 2015. 448–456.
|
[30] |
徐望, 王炳锡. N-gram语言模型中的插值平滑技术研究. 信息工程大学学报, 2002, 3(4): 13-15. DOI:10.3969/j.issn.1671-0673.2002.04.004 |
[31] |
杨鸿武, 周刚. 基于改进混合CTC/attention架构的端到端普通话语音识别. 西北师范大学学报(自然科学版), 2019, 55(3): 48-53. |
[32] |
Park DS, Chan W, Zhang Y, et al. SpecAugment: A simple data augmentation method for automatic speech recognition. Proceedings of the 20th Annual Conference of the International Speech Communication Association. Graz, 2019. 2613–2617.
|
[33] |
Park DS, Zhang Y, Chiu CC, et al. Specaugment on large scale datasets. Proceedings of 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelona: IEEE, 2020. 6879–6883.
|
[34] |
杨德举, 马良荔, 谭琳珊, 等. 基于门控卷积网络与CTC的端到端语音识别. 计算机工程与设计, 2020, 41(9): 2650-2654. |
[35] |
杨威, 胡燕. 混合CTC/attention架构端到端带口音普通话识别. 计算机应用研究, 2021, 38(3): 755-759. |
[36] |
Hannun AY, Maas AL, Jurafsky D, et al. First-pass large vocabulary continuous speech recognition using Bi-directional recurrent dnns. arXiv: 1408.2873, 2014.
|
[37] |
Zhang BB, Wu D, Yang C, et al. WeNet: Production first and production ready end-to-end speech recognition toolkit. arXiv: 2102.01547, 2021.
|
[38] |
Mohri M, Pereira F, Riley M. Speech recognition with weighted finite-state transducers. Benesty J, Sondhi MM, Huang YA. Springer Handbook of Speech Processing. Berlin, Heidelberg: Springer, 2008. 559–584.
|
[39] |
Mohri M, Pereira F, Riley M. Weighted finite-state transducers in speech recognition. Computer Speech & Language, 2002, 16(1): 69-88. |
[40] |
张晓旭, 马志强, 刘志强, 等. Transformer在语音识别任务中的研究现状与展望. 计算机科学与探索, 2021, 15(9): 1578-1594. DOI:10.3778/j.issn.1673-9418.2103020 |
[41] |
胡章芳,蹇芳,唐珊珊. DFSMN-T: 结合强语言模型Transformer的中文语音识别. 计算机工程与应用, 2022, 58(9): 187-194. |
[42] |
Watanabe S, Hori T, Kim S, et al. Hybrid CTC/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, 2017, 11(8): 1240-1253. DOI:10.1109/JSTSP.2017.2763455 |
[43] |
Kim S, Hori T, Watanabe S. Joint CTC-attention based end-to-end speech recognition using multi-task learning. 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). New Orleans: IEEE, 2017. 4835–4839.
|
[44] |
Povey D, Ghoshal A, Boulianne G, et al. The Kaldi speech recognition toolkit. IEEE 2011 Workshop on Automatic Speech Recognition and Understanding Workshop. Hawaii: IEEE, 2011.
|
[45] |
Watanabe S, Hori T, Karita S, et al. Espnet: End-to-end speech processing toolkit. 19th Annual Conference of the International Speech Communication Association. Hyderabad, 2018. 2207–2211.
|
[46] |
Rao K, Sak H, Prabhavalkar R. Exploring architectures, data and units for streaming end-to-end speech recognition with RNN-transducer. 2017 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU). Okinawa: IEEE, 2017. 193–199.
|