计算机系统应用  2024, Vol. 33 Issue (4): 202-208   PDF    
融合实体特征及多种类注意力机制的领域关系抽取模型
王稳, 刘远兴, 吴湘宁, 李文炽, 涂雨, 张锋, 方恒, 蔡泽宇     
中国地质大学(武汉) 计算机学院, 武汉 430078
摘要:基于远程监督的关系抽取方法可以明显地减少人工标注数据集的成本, 已经被广泛应用于领域知识图谱的构建任务中. 然而, 现有的远程监督关系抽取方法领域针对性不强, 同时也忽略了对领域实体特征信息的利用. 为了解决上述问题, 提出了一种融合实体特征和多种类注意力机制的关系抽取模型PCNN-EFMA. 模型采用远程监督和多实例技术, 不再受限于人工标注. 同时, 为了减少远程监督中噪声的影响, 模型使用了句子注意力和包间注意力这两类注意力, 并在词嵌入层和句子注意力中融合实体特征信息, 增强了模型的特征选择能力. 实验表明, 该模型在领域数据集上的PR曲线更好, 并在P@N上的平均准确率优于PCNN-ATT模型.
关键词: 关系抽取    知识图谱    注意力机制    实体特征    
Domain Relationship Extraction Model Integrating Entity Feature and Multiple Types of Attention Mechanisms
WANG Wen, LIU Yuan-Xing, WU Xiang-Ning, LI Wen-Chi, TU Yu, ZHANG Feng, FANG Heng, CAI Ze-Yu     
School of Computer Science, China University of Geosciences, Wuhan 430078, China
Abstract: The relationship extraction method based on remote supervision can cut the cost of labor-based annotated datasets and has been widely used in the construction of the domain knowledge graph. However, the existing remote supervised relationship extraction methods are not domain-specific and also neglect the utilization of domain entity feature information. To solve the above problems, this study proposes a relationship extraction model PCNN-EFMA that integrates entity features and multiple types of attention mechanisms. The model adopts remote supervision and multi-instance technology, no longer limited by labor-based annotation. At the same time, to reduce the impact of noise in remote supervision, the model uses two types of attention: sentence attention and inter-packet attention. In addition, it integrates entity feature information in the word embedding layer and sentence attention, enhancing the model’s feature selection ability. Experiments show that the PR curve of this model is better on the domain dataset, and its average accuracy on P@N is better than that of the PCNN-ATT model.
Key words: relationship extraction     knowledge graph     attention mechanism     entity feature    

1 引言

近年来, 与领域有关的自然语言文本数据快速增长. 为充分利用和挖掘这些自然语言文本数据中蕴含的知识, 需要对领域的文本数据进行知识抽取. 而关系抽取是知识抽取中一个重要的子任务, 是指从自然语言文本中提取实体之间的关系(已事先定义种类), 即抽取出“实体-关系-实体”三元组结构. 关系抽取是构建知识图谱的必要步骤, 被广泛应用在机器问答、智能检索等方面.

在目前主流的关系抽取方法中, 有监督的关系抽取方法更为精准, 但是过于依赖人工标注的数据集. 而基于远程监督的关系抽取方法能够依靠远程知识库自动获得大量高质量的标注数据, 大大减少了人工标注的成本, 成为目前研究的热点.

然而, 基于远程监督的关系抽取方法在对齐远程知识库时, 往往会出现标记错误的问题, 导致模型的效果较差. 为了解决此类噪声对模型的影响, Zeng等人[1]提出了多实例学习的关系抽取模型——PCNN (piecewise convolutional neural network)模型, 通过多实例学习来抑制噪声对模型的影响. 但是以包为单位的多实例学习只选择包中概率最大的实例进行训练, 无法利用包中其他句子中的有效信息. 为了解决该问题, 基于句子注意力机制的PCNN模型被提出, 该模型在包中的所有实例上构建句子级别注意力, 为不同的句子赋予不同的权重, 这样就能综合利用包内所有句子的有效信息. 但是, 该方法忽略了句子中的头实体、尾实体这类词的特征, 在分配包内句子的注意力权重时, 没有考虑到头实体、尾实体对注意力权重的影响. 同时包内的句子注意力忽略了噪声包对模型的影响, 导致模型的效果并不理想.

基于上述研究现状, 本文结合实体特征及多种类注意力机制, 提出PCNN-EFMA (piecewise convolutional neural network based on entity feature and multiple types of attention)关系抽取模型. 模型为了解决包内句子注意力分配不合理的问题, 参照TransE[2]算法的思想, 用头实体$ {e}_{1} $和尾实体$ {e}_{2} $可计算出实体之间的关系$ r $, 即: $ {r\approx e}_{1}-{e}_{2} $. 因此, 对于同一关系, 理论上不同实体对计算的结果是相似的. 根据这一思想, 本文提出了一种融合领域实体信息的包内注意力计算方法, 该方法以头、尾实体为依据来计算包中不同句子的注意力权重, 降低了噪声对模型精度的影响, 提升了模型在垂直领域的适用性. 与此同时, 句子中的头、尾命名实体中也含有丰富的语义信息[3], 对于特定领域, 实体可能包含更多的信息. 所以, 在词嵌入层, 模型融合了头、尾实体向量来增强输入的语义信息, 使得模型能够充分利用所有的信息. 同时使用包间注意力机制来为不同的包分配权重, 避免噪声包对模型的影响.

2 相关研究

当前主流的关系抽取方法是基于深度学习的关系抽取算法, 可以分为两类: 有监督的关系抽取和远程监督的关系抽取. 有监督的关系抽取在训练时需要使用大量人工标注的数据集, 需要一定的人力成本. 而远程监督的关系抽取就是为了减少标注数据集的成本, 仅需要少量的标注数据集, 使用已有的知识库对语料进行自动标注, 并最终生成训练数据.

2009年, Mintz等人[4] 提出了基于远程监督的关系抽取方法, 通过与已有的远程知识库进行自然语言对齐, 实现自动标注. 远程监督的思想基于“如果两个实体在已知的知识库中存在某种关系, 那么所有提到这两个实体的句子都会以某种方式表达这种关系. ”这一假设, 而实际上在很多包含了两个实体的句子中其实并未包含那种关系, 从而导致远程监督得到的数据集中包含大量的噪声.

针对上述问题, Riedel等人[5]在此基础上进行了改进, 提出了EALO (expressed-at-least-once)假设, 即“如果两个实体参与了一个关系, 那么至少有一个提到这两个实体的句子可能会表达这种关系”. 为了降低远程监督中噪声的影响, Riedel等人[5]首次提出了多实例学习的思想, 将包含同一对实体的样本当作一个包, 模型只选择包中使得关系概率最大的一个实例作为实体对的表示. 基于这种思想, Zeng等人[1]提出了基于远程监督的PCNN模型, 该模型以包为单位, 通过多实例学习来抑制噪声对模型的影响.

然而, 基于多实例学习的PCNN模型会丢失包中其他句子的关系, 导致特征遗漏. 因此, Lin等人[6]将注意力机制引入PCNN模型中, 提出了用句子级别的注意力机制代替多实例学习. 该方法能够从包中的多个句子中学习特征, 将包中能够表示某种关系的句子被赋予较高的权重, 不能表示该关系的句子则被赋予较低的权重, 这样多个句子的特征就能够被学习到, 避免了特征遗漏的问题. 然而, 该方法却未考虑包样本中可能包含多种关系, 以及可能带有噪声的情况.

为了解决上述问题, Feng等人[7]将强化学习运用于关系抽取领域, 提出了一种基于强化学习的关系抽取模型. 该模型分为样本选择器和关系分类器两部分, 其中在样本选择器中加入了强化学习, 对噪声实例和包进行移除, 有效地过滤远程监督中的噪声问题. 但是由于很多具有领域特征的数据被直接丢弃, 因而不适用于面向垂直领域的知识抽取.

2019年, Ye等人[8] 提出了组合了包内注意力和包间注意力的多实例关系抽取模型, 先计算实体关系的权重, 再将拥有相同关系的包视为一个包集合, 然后基于包集合计算包间的注意力, 这样做不但可以减少噪声包的影响, 同时又能保证特征不丢失. 但是该方法同样存在没有利用领域实体信息的缺陷.

可见, 关系抽取算法仍存在一些需要解决的问题. 首先, 模型大都使用单一的注意力机制, 忽略了不同种类噪声包对模型效果的影响; 其次, 现有的关系抽取方法没有考虑到领域实体特征信息对关系分类的影响. 针对上述问题, 本文提出了一种既利用了实体特征, 又使用了多种类注意力机制(句子注意力和包间注意力)的关系抽取模型, 以提高针对特定领域关系抽取的性能.

3 PCNN-EFMA模型 3.1 模型的结构

PCNN-EFMA模型(如图1)共分为6层: 融合实体特征信息的词嵌入层、卷积层、分段最大池化层、融合实体特征信息的句子注意力层、基于包集合的包间注意力层、Softmax关系分类层.

图 1 PCNN-EFMA模型体系结构图

在融合实体特征信息的词嵌入层, 使用Word2Vec算法对输入的数据样本进行向量映射得到词向量, 然后计算句子中每个单词与头、尾实体的相对位置信息得到位置向量, 同时为了进一步利用头、尾实体在语句中的特征信息, 将头、尾实体向量与词向量及位置向量进行连接, 得到融合了词信息、位置信息和实体特征信息的特征向量.

在卷积层, 使用不同卷积核, 对输入的特征向量进行卷积运算, 以提取语句的不同特征.

在分段最大池化层, 按照头实体和尾实体的位置分为3段分别进行最大池化来提取特征值, 捕捉词语之间的语义关系.

在融合实体特征信息的句子注意力层, 参照TransE算法的思想来处理头实体和尾实体, 并以头、尾实体为依据来分配包中不同句子的注意力权重.

在包间注意力层, 将具有相同关系的包看作一个包集合来计算包间注意力, 从而克服噪声包对模型的影响.

Softmax关系分类层用于对关系进行分类.

3.2 融合实体特征信息的词嵌入层

在命名实体识别任务中, 可以采用基于Transformer的BERT模型训练字向量输入到模型中进行特征提取. 基于字向量的BERT模型不适合用于关系抽取任务, 这里使用经典的Word2Vec模型作为词嵌入模型, 将文本转换为数值向量. 除了使用词向量之外, 在关系抽取任务中, 距离头、尾实体不同远近的词往往会影响关系的预测结果. 通常, 离头、尾实体越近的词, 对关系的预测具有更高影响力, 因此, 在实现词嵌入时, 加入了词的位置信息, 构成位置向量.

同时, 根据Ye等人[3]的研究结果, 在关系抽取任务中, 头实体和尾实体是整个句子中最关键的两个词, 从整个句子的语义表达来讲, 这些关键的实体词包含着比其他词汇更为丰富的语义信息. 因此, 在词嵌入层, 在词向量、位置向量之后, 追加了头实体向量和尾实体向量, 使特征向量的语义更加丰富, 有利于模型挖掘更多信息.

(1)词向量

Word2Vec是基于分布式的静态词嵌入模型, 该模型是在大量无监督的语料上训练好词向量, 然后再将句子中的每一个词都映射到词表对应的向量. Word2Vec有两种训练模式: CBOW和skip-gram. 其中, CBOW模式是根据上下文去预测中心词, 而skip-gram模式则是根据中心词去预测上下文. 本文选用skip-gram的方式训练词向量. 假设词向量的长度为$ {d}_{w} $, 则经过该方式训练词向量之后可以得到词向量矩阵$ word\in {R}^{{d}_{w}\times \left|V\right|} $, 其中$ V $表示单词的集合. 由句子S就可以得到表示句子的词向量集合$ \{{w}_{1}, {w}_{2}, \cdots , {w}_{n}\} $, $ {w}_{i} $表示句子中的第$ i $个词语的向量表示, $ {w}_{i}\in {R}^{{d}_{w}} $, $ n $表示句子中词语的个数.

(2)位置向量

位置向量最早由Zeng等人[9]提出并应用在关系抽取任务中, 取得了较好的效果. 位置向量记录每个词与头、尾实体词之间的相对距离, 有效地解决了神经网络无法学习到位置信息的缺点. 句子中的第$ i $个词语, 与头实体和尾实体之间的相对距离可以用$ {d}_{i1}, {d}_{i2} $进行表示, 其中$ {d}_{i1}, \;{d}_{i2}\in \{\mathrm{1, 2}, 3, \cdots , n\} $. 如图2所示, 单词CEO与实体Steve Jobs和实体Apple之间的相对距离分别是5和−2. 然后再初始化两个位置向量矩阵$ {PE}_{1}, {PE}_{2} $, 再把单词到头、尾实体的相对距离映射成低维度的位置向量, 得到$ {pe}_{1i}, \;{pe}_{2i},\; i\in \{\mathrm{1, 2}, 3, \cdots , n\} $, 其中$ {pe}_{1i}, {pe}_{2i}\in {R}^{{d}_{p}} $.

图 2 相对距离示例图

然后再将输入的句子$ S $=$ \{{w}_{1}, {w}_{2}, \cdots , {w}_{n}\} $中每个词的词向量和位置向量进行连接, 得到融合了位置向量的句子表示$ {\textit{SP}}=\left\{{v}_{1}, {v}_{2}, \cdots , {v}_{n}\right\},\; {\textit{SP}}\in {R}^{n\times {d}_{x}} $, 其中$ {v}_{i}= [{w}_{i};{pe}_{1i};{pe}_{2i}] $, $ {d}_{x}={d}_{w}+2\times {d}_{p} $.

(3)命名实体向量

在数据的预处理阶段, 会使用BIO的标记方式给句子中的每个词都进行标注. 对于给定的句子$ S= \{{w}_{1}, {w}_{2}, \cdots , {w}_{n}\} $, 可以将命名实体标签转换成对应的向量表示$ BE=\{{bio}_{1}, {bio}_{2}, \cdots, {bio}_{n}\} $.

(4)头、尾实体向量

头、尾实体在关系抽取中具有非常重要的作用. 所以在词嵌入阶段, 将头、尾实体所表示的特征加入到输入层以强化头尾实体的作用. 根据TransE的思想, 采用头实体向量$ {w}_{e1} $和尾实体向量$ {w}_{e2} $两者的差值作为实体特征信息向量re拼接到输入向量中, 这里的$ {r}{e}={w}_{e1}-{w}_{e2} $.

然后再将融合了位置向量的句子表示$ {\textit{SP}}=\{{v}_{1}, {v}_{2}, \cdots , {v}_{n}\} $与命名实体向量$ BE $和头、尾实体向量re进行拼接, 得到词嵌入层最终的输出向量$ X=\left\{{x}_{1}, {x}_{2}, \cdots , {x}_{n}\right\} $,$ X\in {R}^{n\times {d}_{x}} $, 其中$ {x}_{i}=[{w}_{i};{pe}_{1i};{pe}_{2i};{bio}_{i};re] $, n表示文本句子的长度, $ {d}_{x}=2\times {d}_{w}+2\times {d}_{p}+{d}_{bio} $, 表示模型的输入向量维度, $ {d}_{w}, {d}_{p}, {d}_{bio} $分别表示词向量维度、位置向量维度和命名实体向量维度. 向量$ X $作为词嵌入层的输出, 输入到卷积层进行特征提取, 然后采用分段最大池化的方式得到句子的最后的特征向量$ P $, 对于每一个包, 包内所有句子的特征可以表示为$ B=\{{P}_{1}, {P}_{2}, \cdots , {P}_{n}\} $,$ n $表示包内句子的数量, 再将$ B $输入到融合实体特征信息的句子注意力层进行权重分配.

3.3 融合实体特征信息的句子注意力层

传统的以包为单位的多实例学习中, 只选择包中置信度最高的一个实例作为样本进行训练, 丢失了包中其他样本可能包含的有用信息. 所以在分段最大池化层之后, 一般会使用注意力机制来为包中不同的句子分配不一样的权重, 这样就能充分利用包中所有句子的有效信息. 然而现有的句子注意力机制在分配各个句子的权重时, 带有噪声的样本会影响权重的准确性, 难以正确选择包内不同句子的特征, 从而导致实体关系抽取的准确性下降.

针对上述问题, 在模型中使用了融合实体特征信息的句子注意力机制, 该方法参照TransE算法的思想, 实体关系标签$ r $由头实体$ {e}_{1} $和尾实体$ {e}_{2} $的差值计算得出, 即$ r\approx {e}_{1}-{e}_{2} $. 将头实体、尾实体进行双线性变化, 再采用缩放注意力方法计算包中各个句子的权重, 最后对包中每个句子的特征加权求和后得到包的特征向量.

头实体向量$ {v}_{e1} $和尾实体向量$ {v}_{e2} $通过权重矩阵$ {W}^{e} $实现双线性变化的公式如下, 这里$ b $为偏置.

$ r={v}_{e1}{W}^{e}{v}_{e2}+b $ (1)

随后, 采用缩放注意力方法计算包中各个句子的权重. 实体包B经过分段最大池化层之后得到句子的特征表示$ B=\{{P}_{1}, {P}_{2}, \cdots , {P}_{n}\} $, 对于包中的第$ i $个句子特征$ {P}_{i} $的权重$ {\alpha }_{i} $可以用式(2)计算:

$ {\alpha }_{i}={\textit{Softmax}}\left(\frac{{P}_{i}^{{\mathrm{T}}}r}{\sqrt{{d}_{k}}}\right) $ (2)

将包中每个句子的特征$ {P}_{i} $加权求和, 得到包的特征向量$ P $:

$ P={\sum }_{i}{\alpha }_{i}{P}_{i} $ (3)

接着将包特征向量$ P $进行线性变化, 获得包对每一类关系的置信度, 然后计算交叉熵损失, 再通过神经网络的反向传播对网络参数进行更新.

3.4 基于包集合的包间注意力层

句子注意力层能够充分利用包内所有句子的有效信息并抑制句子关系标记对模型的影响, 但是却无法解决实体关系标注错误的包, 即噪声包对模型的影响. 为了解决这个问题, 模型将拥有相同实体关系的包看作一个包集合, 在一组包集合内, 通过相似度计算包间注意力[8]. 具体计算公式如下:

$ {G}_{k}={\sum }_{i=1}^{n}{\beta }_{ik}{s}_{k}^{i} $ (4)
$ {\beta }_{ik}=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({\mu }_{ik}\right)}{{\displaystyle\sum }_{i}\mathrm{e}\mathrm{x}\mathrm{p}\left({\mu }_{ik}\right)} $ (5)

其中, $ {G}_{k} $表示关系标签为第k类的包集合, $ {s}_{k}^{i} $表示第$ i $个包$ {B}_{i} $对于第$ k $个类别的表示集合, $ {\beta }_{ik} $表示第$ k $类关系对于$ {s}_{k}^{i} $的注意力权重, $ n $表示集合中包的数量.

接着通过含有同一关系的包集合, 计算两个包之间的相关性, 公式如下:

$ {\mu }_{ik}={\sum }_{j\ne i}{s}_{k}^{i}{s}_{k}^{{j}^{{\mathrm{T}}}},\;{s}_{k}^{i}, {s}_{k}^{j}\in{G}_{k} $ (6)

其中, $ {s}_{k}^{i}, {s}_{k}^{j} $分别表示第$ i $个和第$ j $个包表示, $ {\mu }_{ik} $表示这两个包对于第$ k $类关系的相关性.

因此, 包集合$ {G}_{k} $被分到第$ k $类关系的分值的计算公式如下:

$ {\delta }_{k}={r}_{k}{G}_{k}+{b}_{k} $ (7)

其中, $ {\delta }_{k} $$ {G}_{k} $分类到$ {r}_{k} $的得分, $ {b}_{k} $为偏置. 最后, 通过Softmax计算包的分类概率:

$ p\left(k\mid{G}_{k}\right)=\frac{\mathrm{e}\mathrm{x}\mathrm{p}\left({\delta }_{k}\right)}{{\displaystyle\sum }_{i}^{\left|R\right|}\mathrm{e}\mathrm{x}\mathrm{p}\left({\delta }_{i}\right)} $ (8)

基于式(8)进行交叉熵计算得到损失函数, 并对模型进行训练.

4 实验结果与分析 4.1 实验数据集

PCNN-EFMA关系抽取模型实验使用远程监督的方法进行指挥控制领域关系抽取数据集的构建, 原始数据集源自项目所收集到的指挥控制领域数据集, 再使用CN-DBpedia作为远程数据集进行对齐, 最后经过人工处理后, 得到23608个句子和1628个关系包. 然后按照表1所示的比例划分了训练集与测试集.

表 1 数据集详情

4.2 实验参数设置

在PCNN-EFMA关系抽取模型的实验中, 使用网格搜索法来进行参数调优, 在实验中, 根据现有的研究结果, 将滑动窗口的取值大小设置为$ \{\mathrm{3, 4}, 5\} $, 卷积核数目的取值设置为$ \left\{\mathrm{100, 200, 230, 250, 300}\right\} $, 批处理数目的取值设置为$ \left\{\mathrm{10, 50, 100, 150}\right\} $, 学习率的取值设置为$ \left\{\mathrm{0.001, 0.01, 0.1}\right\} $, 同时为避免模型过拟合, 将神经元的随机失活概率设置为$ \left\{\mathrm{0.3, 0.5, 0.7}\right\} $. 模型最终使用的参数如表2所示.

PCNN-EFMA模型训练分两个步骤进行, 先在融合了实体特征的句子注意力层上训练, 然后在基于包集合的包间注意力层上再次训练.

4.3 实验结果分析

使用Lin等人于2016年提出的同样基于多实例学习的PCNN-ATT[6]模型作为基准模型, 该模型同样使用PCNN网络进行特征提取, 使用句子注意力来为包内所有的句子分配权重, 以充分利用包内所有句子的有效信息. 与PCNN-EFMA模型相比, PCNN-ATT模型在词嵌入层没有融合领域实体特征信息, 在包内句子注意力的分配上, 也没有利用领域实体特征信息进行注意力权重的计算, 同时也没有考虑到噪声包对模型的影响, 因此没有使用基于包集合的包间注意力机制.

表 2 模型的参数表

在实验过程中, 对加入了实体特征及句子注意力方法得到的模型, 以及使用了包间注意力方法后得到的模型分别进行实验评估, 以验证两种方法的有效性. 于是选择PCNN-EA模型进行辅助验证, 该模型使用了融合了实体特征信息的句子注意力机制, 但是没有使用包间注意力机制.

实验采用准确度(Precision)、召回率(Recall)和PR曲线(Precision-Recall curve), 以及P@N指标来评估模型. 其中, PR曲线是取不同的阈值进行实验之后, 将不同阈值下的准确度和召回率连接成一条曲线. P@N表示前N个结果准确度的平均值, 如式(9)所示, 其中, $ {y}_{i} $表示第i个样本的准确度, 若为0则表示该样本抽取的关系不准确, 与标注的关系不符, 若为1则表示该样本抽取的关系准确, 与标注的关系一致. 例如P@100表示前100个结果准确度的平均值.

$ P{\text @}N=\frac{1}{N}\sum _{i=1}^{N}{y}_{i} $ (9)

实验结果如图3所示. 对比PCNN-ATT和PCNN-EA模型的实验结果可以发现, 融合了实体特征信息的句子注意力机制的PCNN-EA模型在性能上明显优于使用了普通的句子注意力机制的PCNN-ATT模型. 这表明在句子注意力权重的分配上, 将实体特征信息作为计算注意力权重的依据, 可以为关系预测提供更多的有效特征, 同时也让模型在句子特征选择上更加合理, 验证了本文提出的在词嵌入层和句子注意力层嵌入实体特征, 以及将句子注意力与包间注意力机制相结合方法的有效性.

图 3 模型效果对比图

对比PCNN-EA和PCNN-EFMA模型的实验结果可知, 在相同准确率下, PCNN-EFMA模型具有更好的召回率; 在相同的召回率下, PCNN-EFMA模型具有更高的准确率. 实验结果说明, 基于包集合的包间注意力机制有利于发现包间潜在关系, 并降低噪声包对关系抽取准确性的影响.

对one、two、all示例的分析实验结果如表3所示. 由实验结果可知, PCNN-EFMA模型在准确率和召回率上较基准模型PCNN-ATT有较大的提升, 模型的P@100、P@200和P@300指标均达到最佳. 该实验结果验证了本文提出的融合领域实体特征和多种类注意力机制的PCNN-EFMA关系抽取模型的有效性.

表 3 模型P@N评估表 (%)

5 结束语

本文结合实体特征以及多种类注意力方法, 提出了一种关系抽取模型PCNN-EFMA. 该模型将领域实体信息融入词嵌入层, 提高了模型的领域适配性. 模型还使用句子注意力和包间两类注意力机制来减少远程监督中噪声对模型的影响. 在句子注意力机制中, 模型使用了TransE算法构建特征向量的方法, 提出了融合实体特征信息的句子注意力机制, 使得模型在分配注意力权重时更加关注头、尾实体的特征, 解决了传统的注意力机制对句子特征选择不足的问题. 在包间注意力机制中, 模型将具有相同实体关系的包看作一个包集合, 通过对包分配包间注意力, 有效降低标注错误的包对抽取精确度的影响. 同时为了增强头实体和尾实体的特征, 在词嵌入层还将头实体和尾实体向量作为额外的特征拼接到Word2Vec得到的词向量上, 以丰富输入文本的语义信息, 让模型挖掘更多的潜在信息. 实验结果表明, PCNN-EFMA模型在领域数据集上的PR曲线更好, 并在P@N上的平均准确率优于传统的PCNN-ATT模型.

参考文献
[1]
Zeng DJ, Liu K, Chen YB, et al. Distant supervision for relation extraction via piecewise convolutional neural networks. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon: Association for Computational Linguistics, 2015. 1753–1762.
[2]
Bordes A, Usunier N, Garcia-Duran A, et al. Translating embeddings for modeling multi-relational data. Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe: Curran Associates Inc., 2013. 2787–2795.
[3]
Ye W, Li B, Xie R, et al. Exploiting entity BIO tag embeddings and multi-task learning for relation extraction with imbalanced data. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: Association for Computational Linguistics, 2019. 1351–1360.
[4]
Mintz M, Bills S, Snow R, et al. Distant supervision for relation extraction without labeled data. Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP. Suntec: Association for Computational Linguistics, 2009. 1003–1011.
[5]
Riedel S, Yao LM, McCallum A. Modeling relations and their mentions without labeled text. Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Barcelona: Springer, 2010. 148–163.
[6]
Lin YK, Shen SQ, Liu ZY, et al. Neural relation extraction with selective attention over instances. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Berlin: Association for Computational Linguistics, 2016. 2124–2133.
[7]
Feng J, Huang ML, Zhao L, et al. Reinforcement learning for relation classification from noisy data. Proceedings of the 32nd AAAI Conference on Artificial Intelligence. New Orleans: AAAI, 2018. 5779–5786.
[8]
Ye ZX, Ling ZH. Distant supervision relation extraction with intra-bag and inter-bag attentions. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Minneapolis: Association for Computational Linguistics, 2019. 2810–2819.
[9]
Zeng DJ, Liu K, Lai SW, et al. Relation classification via convolutional deep neural network. Proceedings of the 25th International Conference on Computational Linguistics. Dublin: Association for Computational Linguistics, 2014. 2335–2344.