基于Conformer-SE的端到端语音识别
CSTR:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

2022年度吉林省教育厅科学技术研究项目(JJKH20220013KJ); 2023年大学生创新创业训练计划(202310206035)


End-to-end Speech Recognition Based on Conformer-SE
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    基于自注意力机制的Transformer端到端模型在语音识别任务中表现出了卓越的性能. 然而, 该模型在浅层处理时对局部特征信息的捕捉能力存在一定的局限, 同时也没有充分考虑不同块之间的相互依赖性. 为了解决这些问题, 提出了一种改进的Conformer-SE端到端语音识别系统模型. 该模型首先采用了Conformer结构来替代Transformer中的编码器部分, 从而增强了模型对局部特征的提取能力. 接着, 通过引入SE注意力通道机制, 将每个块的输出以加权求和的形式整合到最终的输出中. 在Aishell-1这一公开数据集上的实验结果显示, 相较于原始的Transformer模型, Conformer-SE模型在字符错误率上相对降低了18.18%.

    Abstract:

    The end-to-end Transformer model based on the self-attention mechanism shows superior performance in speech recognition. However, this model has limitations in capturing local feature information during shallow processing and does not fully consider the interdependence between different blocks. To address these issues, this study proposes Conformer-SE, an improved end-to-end model for speech recognition. The model first adopts the Conformer structure to replace the encoder in the Transformer model, thus enhancing its ability to extract local features. Next, by introducing the SE channel attention mechanism, it integrates the output of each block into the final output through a weighted sum. The experimental results on the Aishell-1 dataset show that the Conformer-SE model reduces the character error rate by 18.18% compared to the original Transformer model.

    参考文献
    相似文献
    引证文献
引用本文

马永杰,李罡.基于Conformer-SE的端到端语音识别.计算机系统应用,,():1-9

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2024-05-28
  • 最后修改日期:2024-06-26
  • 录用日期:
  • 在线发布日期: 2024-10-31
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号