摘要:基于自注意力机制的Transformer端到端模型在语音识别任务中表现出了卓越的性能. 然而, 该模型在浅层处理时对局部特征信息的捕捉能力存在一定的局限, 同时也没有充分考虑不同块之间的相互依赖性. 为了解决这些问题, 提出了一种改进的Conformer-SE端到端语音识别系统模型. 该模型首先采用了Conformer结构来替代Transformer中的编码器部分, 从而增强了模型对局部特征的提取能力. 接着, 通过引入SE注意力通道机制, 将每个块的输出以加权求和的形式整合到最终的输出中. 在Aishell-1这一公开数据集上的实验结果显示, 相较于原始的Transformer模型, Conformer-SE模型在字符错误率上相对降低了18.18%.