古汉语文献作为中华民族宝贵的遗产, 承载着丰富的文化和珍贵的知识. 对这些文献进行深入的分析, 挖掘其中的文本语义信息对于理解古代社会的历史演变和传统文化的发展起着至关重要的作用. 其中, 实体关系抽取作为关键任务, 有助于构建古籍知识图谱, 进一步挖掘其中隐含的文化信息. 然而, 由于古汉语的独特性, 处理古汉语文本面临着许多挑战和困难. 首先, 古汉语中存在大量生僻的汉字和词语, 给实体识别和关系抽取带来了困难. 其次, 古汉语中普遍存在着复义现象, 相同的词语在不同上下文中可能具有不同的含义, 这增加了关系抽取的复杂性. 此外, 古汉语文本通常简洁且富含内涵, 语义信息被压缩在有限的字词中, 进一步增加了实体关系抽取的难度. 为了应对这些挑战, 许多学者致力于开发适用于古汉语文献的分词和词性标注模型. 朱晓等[1]、王晓玉等[2]、程宁等[3]和俞敬松等[4]详细探讨了在“先秦”“明史”等古代汉语文献中, 基于机器学习和深度学习的模型在文本分词和词性标注方面的应用. Wang等[5]深入探索了古汉语文本的分词和词性标注, 并借鉴于2021年发布的面向古文智能处理任务的预训练模型SikuBERT和SikuRo-BERTa, 通过进一步优化训练, 开发出了BERT-ancient-Chinese预训练模型 (BERT-ancient-Chinese pre-trained model, BACM), 对古汉语文本的智能处理做出了重要贡献.
目前, 对古汉语文本的实体关系抽取研究还没有得到足够的重视, 并且相关的数据集也相对匮乏. 为了弥补这一不足, 韩立帆等[6]介绍了一项基于众包标注系统构建的文言文语言理解测评基准及其数据集. 以“二十四史”作为语料库, 公开了CCKS 2021的文言文实体识别与关系抽取的开源数据集C-CLUE. 在此背景下, 本文提出了一种基于BERT古文预训练模型的实体关系联合抽取模型 (JEBAC). 本文的主要工作如下.
(1) 针对古汉语文本中存在大量生僻汉字、语义模糊和复义等问题, 本文构建了JEBAC模型.
(2) 为了更加准确地理解句子的语义信息, 本文将BACM的输出与BiLSTM神经网络和注意力机制相融合, 进行深度特征提取, 以获得更加细致的句子语义特征.
(3) 结合带有subject实体语义特征的句子向量和object实体的提示信息, 通过BACBA实现句中关系和object实体的联合抽取, 从而得到句中所有的三元组信息.
1 相关工作实体及其关系抽取是构建古汉语文本大型知识图谱的关键步骤. 目前, 主要有两大类方法[7]: 流水线抽取方法和联合抽取方法.
1.1 流水线抽取方法流水线抽取方法将实体识别和关系抽取作为两个独立的子任务进行处理. 首先, 通过各种技术和算法对文本进行实体识别, 确定文本中存在的实体. 然后, 基于实体识别的结果, 使用不同的方法来抽取实体之间的关系. 在流水线方法中, 传统的基于统计的方法过度地依赖人工特征, 并且执行起来非常地耗时费力. 因此, 研究者们提出了基于神经网络的流水线抽取方法. Zeng等[8]运用卷积神经网络技术, 对文本中词和句子的嵌入向量表示进行特征提取, 然后使用Softmax分类器对实体之间关系进行分类, 提升了关系抽取的性能. Xu等[9]提出了一种新的用于关系分类的神经网络SDP-LSTM, 利用具有长短期记忆单元的多通道递归神经网络沿着两个实体之间的最短依赖路径(SDP), 对句子中两个实体之间的关系进行分类, 有效地提高了关系抽取的准确率. Nayak等[10]提出了一种multi-factor的注意力机制, 对长距离的实体进行多依存路径的关系抽取, 有效地提升了长距离实体之间的关系抽取性能. 尽管基于神经网络的流水线方法效果显著, 但这类方法通常面临错误传播和误差积累等问题, 并且忽略了实体和关系之间的相关性.
1.2 联合抽取方法为了解决流水线方法的实体关系抽取模型存在的问题, 并改善其性能, 学者们提出了基于深度学习的联合抽取方法. Gupta等[11]构建了TF-MTRNN模型, 运用表格填充的思想来解决实体识别和关系抽取, 有效地提升了关系抽取的性能. Katiyar等[12]在改进RNN的基础上, 引入了注意力机制, 提出了一种新型的递归神经网络, 用于实体关系联合抽取. Zheng等[13]设计了一种将实体关系联合抽取任务转化为序列标注的新方案, 有效地缓解了冗余关系的判断, 进一步提升了实体关系抽取的准确率. Fu等[14]提出了基于图卷积网络(GCN)的实体关系抽取模型, 以端到端的方式进行构建, 采用GCN的关系加权方法来联合学习实体和关系的表征. 这些方法虽然在解决手动特征工程问题方面取得了显著成效, 但在应对重叠三元组问题上表现不佳, 容易导致三元组的冗余抽取. 针对这个问题, Wei等[15]构建了CasRel层叠式二元标记模型, 将实体关系三元组抽取任务分解为subject实体抽取和relation-object抽取两个子任务, 显著地提升了关系抽取的性能. 然而, 该模型存在一些不足之处: 首先, 在训练时, subject实体的选择存在随机性, 没有统一抽取所有的subject实体, 这可能导致模型的不稳定性; 其次, 文本的信息没有被充分利用, 导致解码过程出现信息丢失; 此外, 在实体类别不均衡的数据集中, 该模型的性能不佳. 为了改善这些问题, Yu等[16]将实体关系联合抽取任务分解为HE抽取和TER抽取两个子任务, 并采用span标记将它们细化为多个序列标记任务. 通过这种方法, 可以更好地捕捉不同步骤之间的语义依赖性, 从而提高实体识别和关系抽取的交互性.
根据文献[15,16]的研究基础, 本文构建了JEBAC模型. JEBAC中的BACM, 能够有效地理解古汉语文本的语义特征. 为了进一步深入古汉语文本的特征提取, 将BACM和BiLSTM神经网络以及注意力机制相融合, 增强JEBAC对文本信息的利用效果. 此外, 通过将subject实体的头尾位置信息编码归一化加权融入到句子中, 能够有效地将subject实体的特征向量表示添加到句子嵌入向量中. 为了提升对object实体的识别, 还引入了辅助识别object实体的部分, 以帮助JEBAC抽取到更准确的object实体. 最后, 采用适用于关系和object实体联合抽取的二进制分类器, 有效地识别subject实体相关关系下的object实体, 并抽取句中所有的三元组.
2 JEBAC 模型JEBAC模型的整体架构如图1所示, 主要包括: 编码模块、实体识别模块、关系和object实体联合抽取模块. JEBAC模型利用BACM获取句子的文本特征, 以得到包含上下文信息的句子嵌入向量表示
BACM句子嵌入编码: 由于BERT预训练模型能够快速有效地理解句子文本中携带的特征信息, 且允许使用大规模训练数据进行下游任务的再训练. 在BERT fine-tuned的基础上, BACM通过对大规模古汉语文本数据进行训练而产生. JEBAC模型通过使用BACM提取句子序列的语义特征, 得到输入文本的句子嵌入向量. 给定序列长度为n的第m个输入文本的句子表示, 如式(1):
$ {{\boldsymbol{S}}_m} = [{w_{{m_1}}}, {w_{{m_2}}}, \cdot \cdot \cdot , {w_{{m_n}}}], \;{{m}} = 1, 2, \cdot \cdot \cdot , {{batch}} $ | (1) |
其中, 第i个字
$ {{\boldsymbol{e}}_i} = {{\boldsymbol{E}}_{{\text{token}}}}({w_{{m_i}}}) + {{\boldsymbol{E}}_{{\text{seg}}}}({{\boldsymbol{S}}_m}) + {{\boldsymbol{E}}_{{\text{pos}}}}(i) $ | (2) |
其中, Etoken、Eseg、Epos分别表示词嵌入、句子嵌入和位置嵌入. 输入句子Sm经过BACM编码后, 输出具有上下文语义特征表示的句子嵌入向量E, 如式(3)所示:
$ {\boldsymbol{E}} = [{{\boldsymbol{e}}_1}, {{\boldsymbol{e}}_2}, \cdot \cdot \cdot , {{\boldsymbol{e}}_n}] = {{\mathrm{BACM}}} ({{\boldsymbol{S}}_m}) $ | (3) |
BACBA对句子文本的语义特征加强编码: BiLSTM神经网络是一种独特的循环神经网络, 它具备逆向编码的能力, 可以通过利用句子中后面的重要信息, 有效地得到句子的双向语义依赖, 对输入的句子向量深层次化特征表示. 具体操作: 将E输入到BiLSTM神经网络中进行编码, 在每个t时刻的输入, 不仅包括字向量, 还包括t–1时刻的输出向量. 每个t时刻的输出 ht 由前、后向编码向量拼接而成. 具体过程表示如式(4):
$ {{\boldsymbol{h}}_t} = {{\mathrm{BiLSTM}}} ({{\boldsymbol{E}}_t}, {{\boldsymbol{h}}_{t - 1}}) $ | (4) |
其中, Et表示在t时刻输入的字向量. 经过BiLSTM神经网络编码之后, 输出为
为了加强深度特征编码, 增强JEBAC模型对文本的解读, 在BiLSTM神经网络中加入Self-Attention机制, 为特征H每个部分的输入赋予不同的权重, 深度提取关键信息, 使得JEBAC能够充分地利用文本的特征. 如式(5)所示:
$ {Attention} ({\boldsymbol{Q}}, {\boldsymbol{K}}, {\boldsymbol{V}}) = {\textit{Softmax}} \left(\frac{{{\boldsymbol{Q}}{{\boldsymbol{K}}^{\mathrm{T}}}}}{{\sqrt {{d_k}} }}\right){\boldsymbol{V}} $ | (5) |
其中, Q、K、V是输入的字向量矩阵, 分别表示查询矩阵、键矩阵和值矩阵;
JEBAC模型的实体识别模块是s实体和o实体识别的解码部分. 具体采用0/1二进制分类器来识别s实体和o实体的头(head)和尾(tail)的位置. 计算公式如下:
$ p_i^{{{s\_{\mathrm{head}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{head}}}^s{{\boldsymbol{A}}_i} + {\boldsymbol{b}}_{{\mathrm{head}}}^s) $ | (6) |
$ p_i^{{{s\_{\mathrm{tail}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{tail}}}^s{{\boldsymbol{A}}_i} + {\boldsymbol{b}}_{{\mathrm{tail}}}^s) $ | (7) |
$ p_i^{{{o\_{\mathrm{help\_head}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{head}}}^o{{\boldsymbol{A}}_i} + {\boldsymbol{b}}_{{\mathrm{head}}}^{{o}}) $ | (8) |
$ p_i^{{{o\_{\mathrm{help\_tail}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{tail}}}^o{{\boldsymbol{A}}_i} + {\boldsymbol{b}}_{{\mathrm{tail}}}^o) $ | (9) |
其中,
JEBAC模型的关系和object实体联合抽取模块结合带有s实体特征的句子嵌入向量编码和o实体的提示信息, 针对所有的r进行o实体的解码. 具体采用级联多层0/1二进制分类器来识别s条件下的r和o. 这部分需要预定义当前数据集所要提取的关系, 关系的数量即为二进制标注的层数. 它的输入是加入了s实体特征表示的句子嵌入向量
$ {{\boldsymbol{E}}{'}} = {\boldsymbol{E}} + {\boldsymbol{v}}_s^k $ | (10) |
其中,
$ p_i^{{{{{o}}\_{\mathrm{head}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{head}}}^{r{\text{-}}o}{\boldsymbol{E}}'_i + {\boldsymbol{b}}_{{\mathrm{head}}}^{r{\text{-}o}}) $ | (11) |
$ p_i^{{{o\_{\mathrm{tail}}}}} = {\textit{Sigmoid}} ({\boldsymbol{W}}_{{\mathrm{tail}}}^{r{\text{-}o}}{\boldsymbol{E}}'_i + {\boldsymbol{b}}_{{\mathrm{tail}}}^{r{\text{-}}o}) $ | (12) |
其中,
JEBAC模型的损失函数是s实体头尾预测的损失、o实体头尾预测的损失和r及o实体头尾联合预测的损失3个部分的加和. 这3个部分都采用二进制分类器预测, 使用二分类交叉熵损失函数 (binary cross entropy loss, BCELoss). 具体计算过程如式(13):
$ Loss = \sum\limits_{e \in {{E}}}^{} { - \frac{1}{n}\sum\limits_{i = 1}^n {(y_i^e \cdot {lb} p_i^e + (1 - y_i^e) \cdot {lb} (1 - p_i^e))} } $ | (13) |
其中, E = {s_head, s_tail, o_help_head, o_help_tail, o_head, o_tail}, n为输入句子的长度.
JEBAC模型中的BACM部分是基于BERT fine-tuned, 且它的词汇表中包括BERT的词汇表. 所以, 本文的实验部分选择中文实体关系抽取DuIE2.0数据集, 以验证JEBAC模型的可信度. 在CCKS 2021文言文实体关系抽取C-CLUE小样本数据集上, 验证JEBAC模型在古汉语文本抽取中的优越性.
DuIE2.0数据集[17]: 百度提供的业界规模最大的基于schema的中文关系抽取数据集. 该数据集包含超过43万三元组、21万中文句子和48个预定义的关系类型.
C-CLUE数据集[6]: CCKS 2021文言文实体识别与关系抽开源数据集. 它是一个基于众包标注系统构建的文言文语言理解测评基准及数据集, 由天津大学数据库课题组贡献, 使用“二十四史”作为语料库进行标注. “二十四史”是中国古代各朝撰写的二十四部史书的总称, 记录了丰富的历史人物和事件. 该数据集包含近5 000个三元组和25个预定义的关系类型. 数据集统计见表1.
实验使用准确率P、召回率R和F1值作为评价指标, 计算公式如式(14)–式(16):
$ {P}=\frac{所有句子中预测正确的三元组个数}{所有句子中预测出的三元组个数}\times 100\text{%} $ | (14) |
$ {R}=\frac{所有句子中预测正确的三元组个数}{所有句子中人工标注的三元组个数}\times 100\text{%} $ | (15) |
$ {{F}}1 = \frac{{2\times P\times R}}{{P + R}} \times 100\text{%} $ | (16) |
C-CLUE数据集的格式和关系表: C-CLUE数据集以JSON格式存储, 包括句子文本及其相应的三元组, 如下所示.
{
“text”: “王益怒, 遣人告枢密使蒋玄晖与何太后私通, 杀玄晖而焚之, 遂弑太后于积善宫. 又杀宰相柳璨, 太常卿张延范车裂以徇”,
“spo_list”: [{
“predicate”: “任职”,
“object_type”: “JOB”,
“subject_type”: “PER”,
“object”: “宰相”,
“subject”: “柳璨”
}, {
“predicate”: “任职”,
“object_type”: “JOB”,
“subject_type”: “PER”,
“object”: “太常卿”,
“subject”: “张延范”
}, {
“predicate”: “杀”,
“object_type”: “PER”,
“subject_type”: “PER”,
“object”: “张延范”,
“subject”: “王”
}, {
“predicate”: “杀”,
“object_type”: “PER”,
“subject_type”: “PER”,
“object”: “柳璨”,
“subject”: “王”
}]
}
对应的关系表以csv格式存储, 如表2所示.
3.2 实验环境与参数设置
实验在Windows 10下进行, 使用的硬件配置包括Intel® Core(TM) i7-8700 CPU处理器和NVIDIA GeForce RTX 2080Ti显卡. 编程语言使用Python 3.7, 模型的优化器选择AdamW, 模型的训练采取早停机制的策略进行. 模型的参数设置如表3.
3.3 实验结果与分析
本文旨在联合抽取古汉语文本中实体和关系的三元组信息, 以便构建相关的知识图谱. 因此, 通过与目前较好的实体关系联合抽取模型进行对比实验, 验证JEBAC模型的有效性.
MHS[18]: 是一种实体关系联合抽取模型, 利用CRF层, 将实体识别和关系抽取任务全部转化为多目标选取问题.
CasRel[15]: 是一种端到端的层叠式标记模型, 成功地解决了句中三元组重叠问题, 主要包括subject标记模块和relation-object标记模块. 该模型将关系建模成subject映射到object的函数, 可以同时抽取多个实体关系三元组.
CopyMTL[19]: 是CopyRE模型的优化, 采用BiLSTM神经网络在编码阶段获取句子的全局特征, 进而创建句子的特征向量. 在解码阶段, 通过融合Attention-LSTM对关系、头实体和尾实体进行逐个的预测和识别.
WDec[20]: 是一种解决实体关系联合抽取中三元组重叠问题的encoder-decoder模型.
JEBAC模型与上述模型的各项性能指标比较结果如表4.
可以看出, JEBAC模型在DuIE2.0数据集上的F1值比CasRel模型提高了0.6%, P值提高了约1%, R值基本持平. 这说明了JEBAC模型预测的三元组个数比CasRel模型预测的少, 预测正确的三元组个数没有很大提升, 即JEBAC模型有效地降低了预测三元组的冗余. 通过对比, JEBAC模型在C-CLUE数据集上效果显著, 比CasRel模型的F1值高了10.5%, 比数据源[7]的关系抽取任务F1值47.61%, 提高了约7.9%, 这证明了JEBAC模型在古汉语文本数据集上的有效性.
JEBAC模型在C-CLUE数据集中的每个预定义关系下的抽取结果, 如表5.
表5的结果说明了小样本数据集C-CLUE的缺陷. 由于它在某些关系下的样本数据集过于少, 导致JEBAC模型对于这些关系的学习性能不佳, 抽取不到这些关系. 在C-CLUE数据集上, JEBAC模型的稳定性较差.
3.4 消融实验分析为了验证JEBAC模型基于BACM对文言文数据集的效果, 以及object辅助识别模块和BiLSTM+Att模块对JEBAC模型的效果, 在C-CLUE数据集上进一步完成了消融实验, 实验结果如表6所示.
表6中, –object表示对JEBAC模型减少object辅助识别模块, –BA表示对JEBAC模型减少BiLSTM+Att模块. 对比前两行的数据, JEBAC模型基于BACM比基于BERT的效果更好, 能够更有效地表示古汉语文本的特征. JEBAC模型在消去object辅助识别模块时, P值提高了1.2%, R值降低了7.6%, 说明预测三元组的冗余个数变多了, 影响了模型的性能. JEBAC模型在消去BA模块后, P和R明显降低, 这里体现了BiLSTM神经网络和注意力机制的重要性. BA模块能够使JEBAC模型学习到句子中每个字的深度特征, 加强相关特征向量表示, 从而提高模型抽取的性能.
图2和图3展示了这些模型随着训练周期Epoch的增长, 损失值Loss和F1值的变化对比. 在训练过程中使用了早停机制, BA模块的融合会使模型的训练周期变长. BACM融合BA模块和object辅助识别模块共同作用, 提高了JEBAC模型对古汉语文本实体关系抽取的性能.
3.5 JEBAC模型的预测
本文随机选取《史记》中的《史记卷二·夏本纪》《史记卷六·秦始皇本纪》和《史记卷七·项羽本纪》这3个文本进行预测, 验证JEBAC模型的有效性. 预测结果如表7.
表7中, 《史记卷二·夏本纪》文本共有235个句子, 使用JEBAC模型共识别出了与约束关系相关的24个三元组: {[(“黄帝”, “子”, “禹”)], [(“鲧”, “子”, “禹”), (“昌意”, “任职”, “臣”), (“鲧”, “任职”, “臣”)], [(“鲧”, “去往”, “羽山”)], [(“舜”, “子”, “禹”), (“鲧”, “子”, “禹”)], [(“伯禹”, “任职”, “司空”)], [(“鲧”, “子”, “禹”)], [(“蒙、羽”, “出生地”, “徐州”)], [(“阳鸟”, “出生地”, “淮海”)], [(“土、梦”, “出生地”, “九江”)], [(“黑水”, “出生地”, “梁州”)], [(“泾”, “出生地”, “西河”)], [(“织皮”, “出生地”, “西戎”)], [(“夔”, “任职”, “乐”)], [(“舜”, “子”, “商均”)], [(“皋陶”, “位于”, “许”)], [(“帝禹”, “去往”, “会稽”')], [(“帝禹”, “子”, “启”)], [(“帝中康”', “同名于”, “中康”)], [(“帝扃”, “子”, “帝廑”)], [(“帝孔甲”, “同名于”, “孔甲”)], [(“孔甲”, “子”, “帝皋”)]}. 这些三元组中有预测错误的需要人工检查, 然后将预测正确的结果保留, 从而构建《史记卷二·夏本纪》的知识图谱.
4 结论本文提出了一种基于BERT古文预训练模型的实体关系联合抽取模型 (JEBAC). 通过将BACM输出的句子嵌入向量融入BiLSTM神经网络和Self-Attention机制中, 进行深度特征提取, 以获得更加准确的句子语义特征的向量表示. 同时, 结合带有subject实体语义特征表示的句子编码向量和提示的object实体信息, 联合抽取对应的关系和object实体, 从而抽取句中所有的三元组信息. 实验结果表明, 本文的JEBAC模型在DuIE2.0数据集上抽取性能有所提升, 在小样本文言文数据集C-CLUE上效果显著. 尽管JEBAC模型在性能方面得到了一定程度的改进, 但其稳定性仍有待提高. 构建大规模古汉语文本数据集是进一步提高JEBAC模型性能和稳定性的解决办法. 此外, JEBAC模型对于如何抽取zero三元组是一个挑战.
目前, 本文研究的JEBAC模型主要针对公共数据集进行测试. 接下来的工作将深入落实到大规模古汉语文本数据中, 并对该模型进行相应的改进和参数优化, 为相关领域的知识图谱构建及应用提供坚实的基础.
[1] |
朱晓, 金力. 条件随机场图模型在《明史》词性标注研究中的应用效果探索. 复旦学报(自然科学版), 2014, 53(3): 297-304. DOI:10.15943/j.cnki.fdxb-jns.2014.03.001 |
[2] |
王晓玉, 李斌. 基于CRFs和词典信息的中古汉语自动分词. 数据分析与知识发现, 2017, 1(5): 62-70. |
[3] |
程宁, 李斌, 葛四嘉, 等. 基于BiLSTM-CRF的古汉语自动断句与词法分析一体化研究. 中文信息学报, 2020, 34(4): 1-9. DOI:10.3969/j.issn.1003-0077.2020.04.001 |
[4] |
俞敬松, 魏一, 张永伟, 等. 基于非参数贝叶斯模型和深度学习的古文分词研究. 中文信息学报, 2020, 34(6): 1-8. DOI:10.3969/j.issn.1003-0077.2020.06.002 |
[5] |
Wang PY, Ren ZC. The uncertainty-based retrieval framework for ancient Chinese CWS and POS. Proceedings of the 2nd Workshop on Language Technologies for Historical and Ancient Languages. Marseille: European Language Resources Association, 2022. 164–168.
|
[6] |
韩立帆, 季紫荆, 陈子睿, 等. 数字人文视域下面向历史古籍的信息抽取方法研究. 大数据, 2022, 8(6): 26-39. DOI:10.11959/j.issn.2096-0271.2022058 |
[7] |
张仰森, 刘帅康, 刘洋, 等. 基于深度学习的实体关系联合抽取研究综述. 电子学报, 2023, 51(4): 1093-1116. DOI:10.12263/DZXB.20221176 |
[8] |
Zeng DJ, Liu K, Lai SW, et al. Relation classification via convolutional deep neural network. Proceedings of the 25th International Conference on Computational Linguistics: Technical Papers. Dublin: ACL, 2014. 2335–2344.
|
[9] |
Xu Y, Mou LL, Li G, et al. Classifying relations via long short term memory networks along shortest dependency paths. Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon: ACL, 2015. 1785–1794. [doi: 10.18653/v1/D15-1206]
|
[10] |
Nayak T, Ng HT. Effective attention modeling for neural relation extraction. Proceedings of the 23rd Conference on Computational Natural Language Learning. Hong Kong: ACL, 2019. 603–612.
|
[11] |
Gupta P, Schütze H, Andrassy B. Table filling multi-task recurrent neural network for joint entity and relation extraction. Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers. Osaka: The COLING 2016 Organizing Committee, 2016. 2537–2547.
|
[12] |
Katiyar A, Cardie C. Going out on a limb: Joint extraction of entity mentions and relations without dependency trees. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Vol. 1: Long Papers). Vancouver: ACL, 2017. 917–928.
|
[13] |
Zheng SC, Wang F, Bao HY, et al. Joint extraction of entities and relations based on a novel tagging scheme. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver: ACL, 2017. 1227–1236.
|
[14] |
Fu TJ, Li PH, Ma WY. GraphRel: Modeling text as relational graphs for joint entity and relation extraction. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2019. 1409–1418.
|
[15] |
Wei ZP, Su JL, Wang Y, et al. A novel cascade binary tagging framework for relational triple extraction. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. ACL, 2020. 1476–1488.
|
[16] |
Yu BW, Zhang ZY, Shu XB, et al. Joint extraction of entities and relations based on a novel decomposition strategy. Proceedings of the 24th European Conference on Artificial Intelligence: ECAI 2020. Santiago de Compostela: IOS Press, 2020. 2282–2289.
|
[17] |
Li SJ, He W, Shi YB, et al. DuIE: A large-scale Chinese dataset for information extraction. Proceedings of the 8th CCF International Conference on Natural Language Processing and Chinese Computing. Dunhuang: Springer, 2019. 791–800.
|
[18] |
Bekoulis G, Deleu J, Demeester T, et al. Joint entity recognition and relation extraction as a multi-head selection problem. Expert Systems with Applications, 2018, 114: 34-45. DOI:10.1016/j.eswa.2018.07.032 |
[19] |
Zeng DJ, Zhang HR, Liu QY. CopyMTL: Copy mechanism for joint extraction of entities and relations with multi-task learning. Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York: AAAI, 2020. 9507–9514. [doi: 10.1609/aaai.v34i05.6495]
|
[20] |
Nayak T, Ng HT. Effective modeling of encoder-decoder architecture for joint entity and relation extraction. Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York: AAAI, 2020. 8528–8535. [doi: 10.1609/aaai.v34i05.6374]
|