计算机系统应用  2018, Vol. 27 Issue (2): 230-235   PDF    
基于CSLSTM网络的文本情感分类
庄丽榕, 叶东毅     
福州大学 数学与计算机科学学院, 福州 350108
摘要:文本情感分类是自然语言处理领域的研究热点, 更是产品评价领域的重要任务.考虑到词向量与句向量之间的语义关系和用户信息、产品信息对文本情感分类的影响, 提出余弦相似度LSTM网络. 该网络通过在不同语义层级中引入用户信息和产品信息的注意力机制, 并根据词向量和句向量之间的相似度初始化词层级注意力矩阵中隐层节点的权重. 在Yelp13、Yelp14和IMDB三个情感分类数据集上的实验结果表明文中方法的有效性.
关键词: 文本情感分类    注意力机制    用户信息    产品信息    语义关系    相似度    
Text Sentiment Classification Based on CSLSTM Neural Network
ZHUANG Li-Rong, YE Dong-Yi     
College of Mathematics and Computer Science, Fuzhou University, Fuzhou 350108, China
Abstract: Text sentiment classification is a popular subject of natural language processing and the crucial problem in product evaluation. Based on semantic relationship of word vector and sentence vector and the impact of user information, product information to text sentiment classification, Cosine Similarity Long-Short Term (CSLSTM) network is proposed. CSLSTM considers attention mechanisms of user information and product information in various semantic levels. And it involves a effective initialization method in hidden level weights of word-level attention matrix according to similarity of word vector and sentence vector. The competitive results are derived from three sentiment classification datasets, Yelp13, Yelp 14, and IMDB.
Key words: text sentiment classification     attention mechanisms     user information     product information     semantic relationship     similarity    

1 引言

情感分类旨在发现主观性文档中表达的态度和情感的倾向性. 随着信息技术飞速发展, 尤其是微博、微信等新社交网络的兴起, 用户可以更加方便、及时的进行信息交流和意见表达. 大量网络用户每天都会发布并传播高达上亿条的信息, 这些海量的文本信息表达了用户观点倾向和情感信息. 为了更好挖掘人们对评论事物的情感倾向, 需要对这些评论信息进行情感分类, 根据分类的结果制定相应的策略, 因此文本情感分类具有广泛的实用价值[1,2].

由于文本情感分类的多领域融合性以及情感信息的价值可挖掘性, 国内外学者在相关领域做了许多研究, 并取得诸多成果, 大致分为基于传统的机器学习和深度学习两个方向.

传统的机器学习方法, 通过人工设计特征, 将自然语言文本转化为结构化的特征向量提取情感特征, 并构造情感分类器, 将待分类的文本通过分类器进行情感倾向性分类. Pang[3]最早将机器学习方法应用到文本情感分类中, 把n-gram和词性进行组合作为情感特征, 之后分别采用朴素贝叶斯、最大熵和支持向量机(Support Vector Machine, SVM)分类器对电影评论进行情感分类. 为了提高文本情感分类的精度, Kim[4]除了考察传统的n-gram模型外, 还引入了位置特征和评价词特征来完成文本的情感分类. 徐军等人[5]选择具有语义倾向的词语作为特征项, 实验发现具有正负面情感的词语对情感分类起到决定性作用, 选择这些词语作为特征可以提高文本情感分类的精度. 李素科等[6]针对监督学习分类中标注工作需要大量的人工劳动力, 提出了一种基于特征聚类的半监督式情感分类方法, 该方法提高了情感分类的性能, 同时只需要对少量训练数据实例进行情感类别标注.

传统机器学习属于浅层模型, 浅层模型的一个主要局限性就是需要依赖人工经验抽取样本特征, 而这些特征的设计都需要专家的领域知识, 耗费大量的人工成本, 系统迁移性差. 深度学习通过学习一种深层的非线性的网络结构来弥补这一约束, 能够实现复杂函数的逼近, 从样本集中抓取到数据的本质特征[710]. 因此, 采用深度学习方法成为近几年自然语言处理领域内的研究热点.

考虑到文本中词之间的时序信息和RNN循环神经网络[11](Recurrent Neural Network, RNN)处理长文本任务会出现长期依赖的问题, Tai[12]和Tang[13]等使用拥有门机制的长短期记忆模型(Long-Short Term Memory, LSTM)[14] 进行文本情感分类, 首先获取句子级的文本表示, 然后利用句子级表示获得更高级的语义表示作为文本的特征, 提高了文本情感分类的精度. 但由于大多数产品评论的情感分类将关注点更多放在文本内容上, 忽略了用户和产品本身特点对情感分类的影响. 考虑到用户信息和产品信息对情感分类的重要性, Tang[15]尝试将二者的信息和神经网络结合起来, 在输入层将词向量、用户向量和产品向量结合起来, 然后利用CNN进行建模, 通过softmax分类. 但这个模型仍存在一定问题, 首先, 在输入层将用户向量和产品向量结合在一起导致模型的计算量较大; 其次, 只有词层级引入用户信息和产品信息, 不够充分. 于是, Chen[16]提出了层级LSTM网络, 通过注意力机制在不同语义级别中引入用户和产品信息, 降低了模型的计算量并且充分引入用户信息和产品信息, 提高了情感分类的准确度. 但Chen在引入注意力机制时, 采取随机初始权重矩阵, 忽视了词向量与句向量间的语义关系. 对此, 本文提出了CSLSTM网络(Cosine Similarity Long Short-Term Memory), 通过在不同层级中引入用户信息和产品信息的注意力机制, 并根据词向量和句向量的相似度初始化词层级注意力矩阵中隐层节点的权重. 实验结果表明, 本文所提出的CSLSTM网络具有较好的分类效果.

2 CSLSTM网络的文本情感分类

本文所提出的CSLSTM网络情感分类主要分为以下几个部分: 首先对文本分类中的一些符号进行定义; 接着通过层级的LSTM获得文本的语义表示; 之后通过注意力机制在不同语义层级引入用户信息和产品信息; 然后根据词向量与句向量的语义关系对隐层节点初始权重进行赋值; 最后将获得语义作为文本特征进行情感分类.

2.1 符号定义

为了方便研究, 对本文中所用到的一些符号进行定义. 假设用户 $u \in U$ 关于产品 $p \in P$ 发表了评论d, 且文本d包含n个句子, 则文本d表示如下:

$d = ({s_1},{s_2},\cdots,{s_n})$ (1)

其中, si表示评论文本d中的第i个句子.

假设某个句子si包含m个词, 则句子si表示如下:

${s_i} = (x_1^i,x_2^i,\cdots,x_m^i)$ (2)

其中, $x_j^i$ 表示句子si中的第j个词.

2.2 情感分类模型

本文首先对句子进行建模, 得到句子的语义表示, 再利用句子对文本进行建模. 考虑到文本中词之间的时序信息和长文本存在长期依赖问题, 本文在词层级选择LSTM网络对句子进行建模. 同样, 在句子层级也选择LSTM网络对文本进行建模. 在词层级的建模过程中, 首先将词 $x_j^i$ 映射到低维语义空间, 获取词向量 ${\bf{x}}_j^i \in {{\bf{R}}^d}$ , 之后在每个时刻, 给定一个输入 ${\bf{x}}_j^i$ , 得到当前网络中的细胞状态 ${\bf{c}}_j^i$ 和隐层状态 ${\bf{h}}_j^i$ , 其中 ${\bf{c}}_j^i$ ${\bf{h}}_j^i$ 的状态更新方式如下:

${\bf{in}}_j^i = \sigma ({{\bf{W}}_{inh}} \cdot {\bf{h}}_{j - 1}^i + {{\bf{W}}_{inx}} \cdot {\bf{x}}_j^i + {{\bf{b}}_{in}})$ (3)
${\bf{f}}_j^i = \sigma ({{\bf{W}}_{fh}} \cdot {\bf{h}}_{j - 1}^i + {{\bf{W}}_{fx}} \cdot {\bf{x}}_j^i + {{\bf{b}}_f})$ (4)
${\bf{o}}_j^i = \sigma ({{\bf{W}}_{oh}} \cdot {\bf{h}}_{j - 1}^i + {{\bf{W}}_{ox}} \cdot {\bf{x}}_j^i + {{\bf{b}}_o})$ (5)
$\overline {\bf{c}} _j^i = \tanh ({{\bf{W}}_{ch}} \cdot {\bf{h}}_{j - 1}^i + {{\bf{W}}_{cx}} \cdot {\bf{x}}_j^i + {{\bf{b}}_c})$ (6)
${\bf{c}}_j^i = {\bf{f}}_j^i \odot {\bf{c}}_{j - 1}^i + {\bf{in}}_j^i \odot \overline {\bf{c}} _j^i$ (7)
${\bf{h}}_j^i = {\bf{o}}_j^i \odot \tanh ({\bf{c}}_j^i)$ (8)

其中, σ为sigmoid函数; ${\bf{in,f,o}}$ c分别为输入门、忘记门、输出门和细胞状态; $ \odot $ 表示点乘操作; ${{\bf{W}}_{inh}},$ ${{\bf{W}}_{fh}},{{\bf{W}}_{oh}} \in {R^{H*ID}},{{\bf{W}}_{inx}},{{\bf{W}}_{fx}},{{\bf{W}}_{ox}} \in {R^{H*H}}$ 表示权重矩阵, H为隐层维数, ID为输入层维数; ${{\bf{b}}_{in}},{{\bf{b}}_f},{{\bf{b}}_o}$ 为偏置因子. 其中, 权重矩阵和偏置因子需要训练, 最后将得到的隐层状态输入均值池化层获得句子语义表示 ${{\bf{s}}_i}$ .

在句子层级对文本进行建模时采用与词层级的方法相同, 将 ${{\bf{s}}_i}$ 输入LSTM网络中获得文本语义表示d.

2.3 用户和产品注意力机制

本文采用在不同语义层级通过注意力机制引入用户信息和产品信息, 以获取不同层级中对情感分类有重要影响的信息. 首先在词层级引入用户信息和产品信息得到句子层级的语义表示, 然后在句子层级引入用户信息和产品信息得到文本的语义表示.

对于同一用户或是同一个产品的评论文本中, 每个词对于所在句子中的贡献程度是不同的, 故采用均值池化层进行权重分配会损失重要词汇对语义表示的贡献率. 为了解决这个问题, 本文在词层级采用注意力机制抽取对句子语义表示具有重要贡献的词, 提高语义表示的有效性. 引入用户信息和产品信息的注意力机制计算如下:

${{\bf{s}}_i} = \sum\limits_{j = 1}^{{m_i}} {\alpha _j^i{\bf{h}}_j^i} $ (9)

其中, $\alpha _j^i$ 衡量了第j个词对当前用户、产品和所在句子的重要程度, 它的计算公式如下:

$\alpha _j^i = \frac{{\exp (score({\bf{h}}_j^i,{\bf{u}},{\bf{p}}))}}{{\sum\limits_{k = 1}^{{m_i}} {\exp (score({\bf{h}}_k^i,{\bf{u}},{\bf{p}}))} }}$ (10)

其中, ${\bf{u}} \in {R^{{d_u}}}$ 表示用户向量, ${\bf{p}} \in {R^{{d_p}}}$ 表示产品向量, dudp分别表示用户向量和产品向量的维数, $score({\bf{h}}_j^i,{\bf{u}},{\bf{p}})$ 为评价函数, 其计算方法如下:

$score({\bf{h}}_j^i,{\bf{u}},{\bf{p}}) = {{\bf{v}}_\alpha }^{\rm{T}}\tanh ({{\bf{W}}_H}{\bf{h}}_j^i \! + \! {{\bf{W}}_U}{\bf{u}} \! + \! {{\bf{W}}_P}{\bf{p}} \! + \! {{\bf{b}}_\alpha })$ (11)

其中, ${{\bf{W}}_H}$ ${{\bf{W}}_U}$ ${{\bf{W}}_P}$ 为权重矩阵, ${{\bf{v}}_\alpha }^{\rm{T}}$ 为权重向量 ${{\bf{v}}_\alpha }^{}$ 的转置, 前面所述的权重矩阵和权重向量一般采用随机初始赋值, 但考虑到词向量和句向量之间语义关系, 本文将根据二者之间的相似度对 ${{\bf{W}}_H}$ 进行初始赋值, 具体方法见2.4节.

评价函数将隐层状态、用户向量和产品向量结合起来, 其中用户向量和产品向量作为模型参数一起训练, 得到句子的语义表示 ${{\bf{s}}_i}$ . 同样, 在句子层级也采用通过注意力机制引入用户信息和产品信息来抽取对文本语义表示有重要贡献的句子:

${\bf{d}} = \sum\limits_{i = 1}^n {\beta _i^{}{\bf{h}}_i^{}} $ (12)
${\beta _i} = \frac{{\exp (score({{\bf{h}}_i},{\bf{u}},{\bf{p}}))}}{{\sum\limits_{i = 1}^n {\exp (score({{\bf{h}}_i},{\bf{u}},{\bf{p}}))} }}$ (13)
$score({{\bf{h}}_i},{\bf{u}},{\bf{p}}) \! = \! {{\bf{v}}_\beta }^{\rm{T}}\tanh ({{\bf{W}}_{H\beta }}{{\bf{h}}_i} \! + \! {{\bf{W}}_{U\beta }}{\bf{u}} \! + \! {{\bf{W}}_{P\beta }}{\bf{p}} \! + \! {{\bf{b}}_\beta })\!\!\!\!\!\,$ (14)
2.4 注意力权重矩阵初始化策略

注意力权重矩阵一般简单采用随机初始赋值, 忽略掉了词向量和句向量之间的语义关系. 对此, 本文采用根据二者之间的相似度对权重矩阵中的 ${{\bf{W}}_H}$ 进行初始化. 此处所指的句向量 $\overline {{{\bf{s}}_i}} $ 与句子的语义表示 ${{\bf{s}}_i}$ 不同, $\overline {{{\bf{s}}_i}} $ 是由句子中所有的词向量求平均值得到的向量表示:

$\overline {{{\bf{s}}_i}} = {\rm{avg}}({\bf{x}}_1^i,{\bf{x}}_2^i,\cdots ,{\bf{x}}_m^i)$ (15)

采用余弦相似度衡量词向量和句向量二者之间的相似度:

${\rm{sim}}({\bf{x}}_j^i,\overline {{{\bf{s}}_i}} ) = \cos < {\bf{x}}_j^i,\overline {{{\bf{s}}_i}} > = \frac{{{\bf{x}}_j^i \cdot \overline {{{\bf{s}}_i}} }}{{\left\| {{\bf{x}}_j^i} \right\| \cdot \left\| {\overline {{{\bf{s}}_i}} } \right\|}}$ (16)

最后, 将相似度进行归一化, 得到权重 ${{\bf{W}}_H}$ 初始值:

${\bf{w}}_{Hj}^i = \frac{{{\rm{sim}}({\bf{x}}_j^i,\overline {{{\bf{s}}_i}} )}}{{\sum\limits_{k = 1}^m {{\rm{sim}}({\bf{x}}_k^i,\overline {{{\bf{s}}_i}} ))} }}$ (17)
2.5 情感分类

将获得的文本语义表示d进一步抽象以挖掘更深层次的语义, 在LSTM层后设置一个全连接层, 将d映射到C类别空间, 得到定长向量 ${\bf{\hat d}}$ , 具体计算如下:

${\bf{\hat d}} = \tanh ({{\bf{W}}_c}{\bf{d}} + {\bf{b}})$ (18)

其中, ${{\bf{W}}_c}$ 为全连接层的权重矩阵, b为偏置因子.

为了得到情感类别估计值, 本文采用softmax函数进行情感分类, 获得文本的情感分布:

${p_c} = \frac{{\exp ({{\hat d}_c})}}{{\sum\limits_{k = 1}^C {\exp ({{\hat d}_k})} }}$ (19)

其中, C情表示情感类别数目, pc表示预测文本d属于类别c的概率, 之后将d归类到概率最大的那个类别中.

本文采用交叉熵损失(Categorical Cross-Entropy Loss)作为损失函数, 模型的训练目标是最小化真实类别与预测类别间的交叉熵损失, 其中交叉熵损失函数表示如下:

$L = - \sum\limits_{d \in D} {\sum\limits_{c = 1}^C {p_c^g(d) \cdot \log ({p_c}(d))} } $ (20)

其中, D表示整个训练集, $p_c^g$ 表示文本d的真实类别是否为c, 即当d的真实类别为c时, $p_c^g$ =1, 否则 $p_c^g$ =0.

3 情感分类实验

为了验证本文所提出方法的有效性, 本文利用Tang15提供的评论文本数据进行文本情感分类实验.

3.1 实验数据集

本文采用Yelp13、Yelp14和IMDB三个数据集, 三个数据集中已包含了用户信息和产品信息.表1为三个数据集的信息摘要. 实验中, 将每个数据集按8:1:1的比例分配训练集、验证集和测试集.

表 1 数据集分布情况

Yelp 2013和Yelp 2014分别为Yelp数据库2013和2014的评论, 两者的评级范围从1颗星到5颗星, 星数越高代表用户对产品的越满意.

IMDB是由84919条IMDB电影网站上的评论组成的数据集, 它的评分范围从1分到10分(只能选择整数分值), 分数越高代表用户对电影的满意程度越就越高.

3.2 评价指标

本文采用正确率和均方根误差作为评价标准, 其中正确率衡量整体情感分类性能, 均方根误差反映预测情感类别(评分等级)和真实情感类别(评分等级)的偏离程度. 两种评价标准的公式如下:

$Accuracy = \frac{T}{N}$ (21)
$RMSE = \sqrt {\frac{{\sum\limits_{i = 1}^N {{{(g{r_i} - p{r_i})}^2}} }}{N}} $ (22)

其中, T为正确分类的文本数, N为整个数据集的文本数; $g{r_i}$ $p{r_i}$ 分别为真实情感类别(评分等级)和预测的情感类别(评分等级).

3.3 实验设置

本文采用SkipGram算法生成词向量, 并设置词向量的维度为200, 其它参数均采用默认值. 同时将用户向量和产品向量初始化为随机向量, 维度设置为200维. LSTM网络中隐藏节点数和细胞状态数也设置为200, 并采用AdaDelta进行参数优化.

3.4 基准实验

为了验证本文所提方法的有效性, 本文选择以下算法进行对比, 以下算法大致可以分为两类: 不考虑用户、产品信息和考虑用户、产品信息, 其中不考虑用户、产品信息的算法如下:

1) CBOW: 对所有词向量进行求和后输入Softmax进行分类.

2) Majority: 采用多种情感策略的启发式算法.

3) Trigram: 分别采用Unigram、Bigram、Trigram训练支持向量机(SVM).

4) TextFeature: 抽取语义特征和情感特征采用支持向量机进行训练.

5) AvgWordvec: 对所有词向量求平均值作为文本向量表示, 采用支持向量机进行训练.

6) SSWE: 生成情感词向量后利用支持向量机进行训练.

7) LSTM: 生成词向量输入LSTM网络进行训练.

8) RNTN+RNN: 经过RNTN网络得到句子语义表示, 之后输入RNN网络得到文本语义表示.

9) B-CLSTM: 基于B-LSTM网络添加缓存机制, 并将记忆元分为多组, 对不同组采用不同的遗忘率.

其中考虑用户信息和产品信息的实验如下:

10) Trigram +UPF: 在算法3)的基础上添加用户信息和产品信息.

11) TextFeature++UPF: 在算法4)的基础上添加用户信息和产品信息.

12) JMARS: 基于协同过滤和主题模型引入用户信息和产品信息.

13) UPNN: 在输入层引入用户信息和产品信息, 并采用CNN网络进行训练.

14) NSC+UPA: 在不同层级通过注意力机制引入了用户信息和产品信息.

本实验所采用的数据集与文献[1517]的数据集相同, 因此算法1)–13)直接使用文献[1517]中的结果数据, 其中算法14)使用作者提供代码进行实验. 实验结果如表2所示.

表 2 实验结果对比

3.5 结果比较

对比CSLSTM和算法1)–9), 可以发现考虑用户信息和产品信息可以提高文本情感分类的精度. 其中, 对比CSLSTM与算法1)可见, 添加用户信息和产品信息的CSLSTM在三个数据集上的正确率都得到了10%以上的提高; 对比CSLSTM与算法7), 两者同样采用LSTM网络进行文本分类, 但本文的CSLSTM在分类中还考虑了用户信息和产品信息, 所以CSLSTM的分类效果相比与算法7)在各个数据集上的正确率都提高了10%以上, 其中在数据集IMDB上的正确率更是得到了13.3%的提高. CSLSTM对比算法3)和10)也可以发现, 用户信息和产品信息在分类中占据一定作用, 在Yelp2013和IMDB数据集上添加用户信息和产品信息提高了情感分类的效果. 从CSLSTM和算法13)结果可以发现, 在不同语义层级通过注意力机制引入用户信息和产品信息的效果好于在输入层引入用户信息和产品信息. 表明多层级引入用户信息和产品信息对情感分类具有重要意义. 对比CSLSTM和算法14)可以发现, 在Yelp13数据集中, CSLSTM的准确率和均方根误差均高于算法14); 在Yelp14数据集中, CSLSTM的准确率高于算法14); 在IMDB数据集中, CSLSTM的均方根误差好于算法14), 在三个数据集上的结果说明了考虑词向量和句向量之间的语义关系有利于文本情感分类的效果, 表明了本文所提出方法的有效性.

4 结语

针对文本情感分类问题, 考虑词向量与句向量之间的语义关系和用户、产品对情感分类的影响, 本文提出基于CSLSTM网络的文本情感分类方法. 在不同语义层级引入用户信息和产品信息的注意力机制, 并根据词向量和句向量的相似度初始化词层级注意力矩阵中隐层节点的权重. 实验结果表明, 相比多数基准实验, 本文方法具有较好的分类效果, 较好地利用了词向量与句向量的语义关系和用户信息、产品信息. 在未来的工作中, 将在文本方法上考虑在词向量中融入更多的情感信息, 对词向量的训练部分进行扩展, 比如在word2vec训练词向量的过程中利用情感词典刻画情感词, 生成具有情感信息的词向量, 以提高情感分类的精度.

参考文献
[1]
唐慧丰, 谭松波, 程学旗. 基于监督学习的中文情感分类技术比较研究. 中文信息学报, 2007, 21(6): 88-94, 108.
[2]
赵妍妍, 秦兵, 刘挺. 文本情感分析. 软件学报, 2010, 21(8): 1834-1848.
[3]
Pang B, Lee L, Vaithyanathan S. Thumbs up?: Sentiment classification using machine learning techniques. Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA. 2002. 79–86.
[4]
Kim SM, Hovy E. Automatic identification of pro and con reasons in online reviews. Proceedings of the COLING/ACL on Main Conference, Poster Sessions. Sydney, Australia. 2006. 483–490.
[5]
徐军, 丁宇新, 王晓龙. 使用机器学习方法进行新闻的情感自动分类. 中文信息学报, 2007, 21(6): 95-100.
[6]
李素科, 蒋严冰. 基于情感特征聚类的半监督情感分类. 计算机研究与发展, 2013, 50(12): 2570-2577. DOI:10.7544/issn1000-1239.2013.20130878
[7]
Hinton GE, Salakhutdinov RR. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5786): 504-507. DOI:10.1126/science.1127647
[8]
张庆庆, 刘西林. 基于深度信念网络的文本情感分类研究. 西北工业大学学报(社会科学版), 2016, 36(1): 62-66.
[9]
Bengio Y, Delalleau O. On the expressive power of deep architectures. Proceedings of the 14th International Conference on Discovery Science. Espoo, Finland. 2011. 18–36.
[10]
Zhou D, Bousquet O, Lal TN, et al. Learning with local and global consistency. Advances in Neural Information Processing Systems 16. Vancouver, CB, Canada. 2003: 321–328.
[11]
İrsoy O, Cardie C. Opinion mining with deep recurrent neural networks. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha, Qatar. 2014. 720–728.
[12]
Tai KS, Socher R, Manning CD. Improved semantic representations from tree-structured long short-term memory networks. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Beijing, China. 2015. 1556–1566.
[13]
Tang DY, Qin B, Liu T, et al. Document modeling with gated recurrent neural network for sentiment classification. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon, Portugal. 2015. 1422–1432.
[14]
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735
[15]
Tang DY, Qin B, Liu T. Learning semantic representations of users and products for document level sentiment classification. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Beijing, China. 2015. 1014–1023.
[16]
Chen HM, Sun MS, Tu CC, et al. Neural sentiment classification with user and product attention. Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, TX, USA. 2016. 1650–1659.
[17]
Xu JC, Chen DL, Qiu XP, et al. Cached long short-term memory neural networks for document-level sentiment classification. Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, TX, USA. 2016. 1660–1669.