摘要:近年来, 方面级情感分析利用图神经网络挖掘依赖句法信息逐渐成为趋势, 但现有方法大多未考虑不同关系类型对内容词的影响, 难以区分关键的关联词. 此外, 多视角信息的相互补充对捕捉情感特征起重要作用, 但在过去的研究中融合机制常被忽视. 为解决这些问题, 提出一种多源信息融合图卷积网络(multi-source information graph convolutional network, MSI-GCN)有效捕获和集成三视角信息. 首先, 设计了一个双通道信息提取模块SSD-GCN (syntax-semantics dual graph convolutional network), 由类型嵌入的句法增强图卷积网络(TES-GCN)和语义图卷积网络(SEM-GCN)组成. TES-GCN通过引入类型嵌入层, 使用句法模块学习不同类型的权重来增强句法信息. SEM-GCN对自注意矩阵进行编码, 捕获语义信息, 并引入正交正则化来增强语义关联. 其次, 嵌入外部知识图表示丰富词汇特征. 最后, 引入局部门控-全局卷积网络, 充分利用视角之间的互补性, 对其进行有效融合. 本文在4个公开数据集上对提出的方法进行了评估, 准确率和Macro-F1值相比于基线模型均有所提升.