基于话语间时序多模态数据的情绪分析方法
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金(71671048); 中国高校产学研创新基金项目(2020ITA02013)


Sentiment Analysis Method Based on Temporal Multimodal Data Between Utterances
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    长期以来, 传统的基于单模态数据情绪分析方法存在分析角度单一、分类准确率低下等问题, 时序多模态数据的分析方法为解决这些问题提供了可能. 本文基于话语间的时序多模态数据, 对现有的多模态情绪分析方法进行了改进, 使用双向门控循环网络(Bi-GRU)结合模态内和跨模态的上下文注意力机制进行情绪分析, 最后在MOSI和MOSEI数据集上进行验证. 实验表明, 利用话语间的时序多模态数据, 并且充分融合模态内以及跨模态上下文信息的方法, 能够从多模态特征和时序特征的角度进行情绪分析, 从而有效提高情绪分析任务的分类准确率.

    Abstract:

    The traditional sentiment analysis methods based on single-modal data have always had problems such as a single analysis angle and low classification accuracy. The analysis method based on temporal multimodal data provides the possibility to solve these problems. On the basis of the temporal multimodal data between utterances, this study improves the existing multimodal sentiment analysis method and uses the bidirectional gated recurrent unit (Bi-GRU) combined with the intra-modal and cross-modal context attention mechanism for sentiment analysis. The sentiment analysis is finally verified on the MOSI and MOSEI datasets. Experiments show that the method of using temporal multimodal data between utterances and fully integrating intra-modal and cross-modal context information can be applied to sentiment analysis from the perspective of multimodal and temporal features. By doing this, the classification accuracy of sentiment analysis can be effectively improved.

    参考文献
    相似文献
    引证文献
引用本文

冯广,江家懿,罗时强,伍文燕.基于话语间时序多模态数据的情绪分析方法.计算机系统应用,2022,31(5):195-202

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-07-31
  • 最后修改日期:2021-08-31
  • 录用日期:
  • 在线发布日期: 2022-04-11
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号