2. 豫西工业集团 河南北方红阳机电有限公司, 南阳 474679
2. Henan North Hongyang Mechanical and Electrical Co. Ltd., Western Henan Industrial Group, Nanyang 474679, China
作为自然语言处理的研究热点之一, 机器阅读理解(machine reading comprehension, MRC)在智能问答、引擎搜索等任务中发挥着重要作用. 机器阅读理解任务试图让机器阅读并理解文本内容, 从而对给定的问题进行回答[1]. 即给定一段文本
预训练模型以及注意力机制的出现极大地促进了机器阅读理解任务的发展, 和传统的深度学习任务相比, 采用预训练模型及注意力机制的阅读理解任务取得了全面性能优势. 传统模型需要人工进行特征工程的构建, 或者采用固定的词向量模型进行文本向量表示, 例如Word2Vec[3], GloVe[4]等, 这种方式缺乏灵活性且任务性能表现较差. 预训练模型经过大量语料的训练, 对下游任务具有强大的泛化能力, 可以与不同的下游任务进行结合, 极大减少人工工作量, 提高任务精度. 同时, 阅读理解任务中“文本-问题”交互模式, 非常适合使用注意力机制, 对两者的交互信息进行充分挖掘, 以模拟人类阅读习惯, 使模型更关注文本和问题中的重要部分, 提高MRC任务的性能[5].
随着近年来裁判文书网相关法律数据的公布, 以及中国法研杯司法人工智能挑战赛的举行, 越来越多的司法数据得以公开, 为司法大数据相关的研究任务提供了便利条件. 法律机器阅读理解任务的目的是让机器理解法律文书, 并对相应的问题进行回答, 从而辅助司法人员提高案件处理的效率. 因此将MRC相关技术应用到司法领域, 对提高司法服务效率和促进MRC相关技术的发展具有重要的现实意义.
因此, 本文提出了基于多层次信息融合的机器阅读理解模型. 本文的主要贡献包括数据重构和多层次信息融合两方面. 数据重构主要使用改进的BM25算法[6]对CAIL2019机器阅读理解赛道的数据进行重构以适用于多跳MRC的训练任务, 增加训练数据量, 以及用来对模型的泛化性能进行验证. 多层次信息融合主要是对文本和问题, 以及两者的交互信息进行充分提取和融合, 以提高模型性能.
2 相关工作 2.1 机器阅读理解早期的MRC任务是基于规则的或者基于机器学习技术的. Hirschman等[7]于1999年开始探索MRC技术的研究, 设计出第1个以小学年级故事为语料库的自动阅读理解测试系统Deep Read, 该系统采用词袋模型进行向量编码, 利用人工编写的规则进行模式匹配, 达到了40%的正确率. 这种传统的MRC任务大多采用模式匹配来提取特征, 其鲁棒性差、耗时长、泛化能力差. 2015年Hermann等[8]提出使用深度学习神经网络模型, 其提出的Deep LSTM Reader、Attentive Reader和Impatient Reader这3种神经网络模型, 极大地促进了MRC相关任务的发展, 但其无法解决复杂推理和长文档答案推理的问题. Wang等[9]提出的Match-LSTM模型, 首次将Pointer Net中指针的思想应用于MRC任务中, 提高了答案预测的准确性. Seo等[10]提出的BiDAF模型奠定了MRC任务的基本框架, 其将MRC任务分为5层, 分别为文本嵌入层、上下文嵌入层、注意力流层、模型层和输出层, 并且首次提出了文本到问题和问题到文本的双向注意力计算方法. Yu等[11]提出的QANet模型是预训练模型发布之前排名最优的一个MRC模型, 与之前的模型明显不同的是, QANet模型抛弃了循环神经网络(recurrent neural network, RNN), 只使用卷积神经网络(convolutional neural network, CNN)和自注意力机制完成编码工作, 但是此模型使用CNN进行编码不能保留长文档的信息. 随着谷歌团队的Devlin等[12]提出BERT (bidirectional encoder representations from Transformers)预训练模型后, 其在11个自然语言处理任务中均取得了最好效果. 李芳芳等[13]提出了一种基于多任务联合训练的法律文本MRC模型, 使用RoBERTa预训练模型进行文本编码, 对答案分类、答案预测、答案支持句子判别3个子任务进行联合训练, 有效地提升了MRC性能. 朱斯琪等[14]使用实体图结构和注意力机制对文本进行建模, 通过注意力机制融合不同细粒度的实体图结构的信息. Zhang等[15]以BiDAF模型为基础, 提出了ELMo+Gated self-attention模型, 该模型通过引入ELMo预训练模型[16]和自注意力机制提高了任务性能. 深度学习模型具有强大的语义特征捕捉能力, 但是其本身缺乏可解释性, 并不能给出问题对应的答案的推理过程, 而图结构中实体和关系的网络连接关系则适合于进行逻辑推理. Ding等[17]提出了一种基于认知图的多跳MRC模型, 通过抽取文本中的实体和关系建立图网络, 并加入线索增强推理时各个答案间的联系. Qiu等[18]通过设计一个图融合层来研究模型推理过程中的每一个推理步对应的子图变化. 但是这种通过实体和实体间的关系建立的图结构很难捕获文本的全局信息, 尤其是当问题的答案需要融合多个文档的信息时[19].
2.2 多跳机器阅读理解根据答案抽取时是否需要参考多个文章P进行多步推理, 可以将机器阅读理解任务分为单跳机器阅读理解和多跳机器阅读理解[20]. 单跳机器阅读理解任务只需要根据给定的相关文章, 给出问题的答案即可, 不需要在相关文章中找出和答案对应的支持句. 因此, 大多数问题的答案趋向于查找文章P中与问题Q最相似的句子, 一般通过构建问题感知上下文表示来解决[21], 并不涉及复杂的推理过程. 使用这种阅读理解模型, 会导致模型过度关注答案的生成而并非理解文章, 使模型失去泛化能力.
多跳机器阅读理解任务与传统的单跳机器阅读理解任务不同, 其不仅需要查找相关问题的答案, 还需要给定答案在文本中的支持句. 具体而言, 给定一个问题, 模型只通过一个文章无法找到问题的正确答案, 而是需要模型根据多篇文章、经过多次理解推理才能找到答案, 相比于单跳机器阅读理解具有更好的泛化能力. 这就要求机器不仅只关注寻找相关问题的答案, 而是需要真正对文本进行理解, 从而回答问题和查找答案相关的支持句.
目前针对多跳机器阅读理解任务的研究方法可分为以下3类: ① 基于图结构的方法: 通过抽取文本中的实体和实体间的关系建立图网络, 通过实体间的关系对相关问题进行逻辑推理. 该方法具备一定的可解释性, 符合人的直觉思维, 但是这种图结构只具备推理实体间关系的能力, 对于整体文本的复杂逻辑关系难以推理, 尤其是跨语句间的答案查找, 图网络无法进行推理[22]. ② 将多跳任务转换为多个单跳任务, 再按照传统的单跳问题进行回答. 该方法可以分别对单跳任务进行回答, 再进行答案综合, 可以取得一定的效果. 但是多个单跳任务间缺乏逻辑联系和可解释性, 对于复杂的多跳任务难以有效模拟[23,24]. ③ 使用深层次的神经网络模拟多跳任务[25]: 使用深层次的神经网络强大的特征捕捉能力对文本信息进行挖掘, 使模型对文本信息进行充分理解, 其在多跳机器阅读理解任务上表现较好. 但是随着神经网络层次的加深, 网络训练面临着梯度消失和梯度爆炸的问题, 需要采取各种措施进行缓解. 本文采用基于预训练模型的深度神经网络来进行建模, 以充分利用预训练模型强大的泛化能力和深度神经网络的特征捕捉能力.
针对以上问题, 本文提出了一种机器阅读理解模型, 我们的主要工作包括3个方面.
(1) 提出了一种基于多层次信息融合的机器阅读理解模型, 模型可对文本和问题的交互信息进行有效融合, 可较为准确地查找问题的答案和相应的支持句.
(2) 提出了一种基于BM25算法的改进算法, 对CAIL2019数据集进行重构, 使其适用于多跳MRC任务, 在增加数据量的同时, 可以对模型的泛化性能进行验证.
(3) 在CAIL2020数据集和重构的CAIL2019数据集上进行实验, 验证模型性能.
3 模型设计本文提出的机器阅读理解模型, 使用多种方法在多个层次上对文本信息进行获取. 使用膨胀卷积网络(dilated convolution network, DCN)[26]对输入文本序列的全局特征进行捕捉, 膨胀卷积网络可以在保持参数不变的情况下, 增大卷积核的感受野, 更好的捕捉文本特征. 使用双向注意力机制和自注意力机制, 捕获全局文本交互信息以及问题和文本之间的交互信息.
3.1 模型结构为了充分提取文本序列特征以及对文本和问题包含的信息进行交互, 本文提出了基于多层次信息融合的多跳阅读理解模型, 模型结构分为4个子模块: 文本嵌入模块、上下文交互模块、信息融合模块、答案预测模块, 模型结构如图1.
3.1.1 文本嵌入模块文本嵌入模块的作用是对问题和文档进行向量化编码以输入到下层模块中. 本文将多个文档和问题进行拼接作为输入文本, 文本拼接方式为Inputs=[CLS]+Q+[SEP]+D+[SEP], 其中Q表示问题, D表示多篇拼接的文档, [CLS]表示文本的起始位置, [SEP]表示问题和文档的分隔符. 将Inputs输入到RoBERTa-wwm-ext[27]预训练模型进行编码得到编码向量表示, 再将编码结果输入到高速公路网络(highway network)[28], 得到文本的向量化表示P
3.1.2 上下文交互模块
上下文交互模块包含两个子任务: 全局特征捕捉和文本注意力计算, 其中全局特征捕捉使用膨胀卷积网络DCN:
$ D = {\text{DCN}}\left( P \right) \in {R^{H \times {\text{2}}d}} $ | (1) |
文本注意力计算部分包含4个部分: 问题自注意力、文档自注意力、文档到问题的交互注意力、问题到文档的交互注意力, 注意力计算如下.
问题自注意力Q2和文档自注意力C2使用自注意力进行计算, self-attention为自注意力计算函数, 计算公式如下所示:
$ Q2 = {\text{self-attention}}\left( Q \right) $ | (2) |
$ C2 = {\text{self-attention}}\left( C \right) $ | (3) |
C2Q是文档到问题的注意力, 首先通过问题和文档的向量表示C和Q计算两者的相似度概率矩阵S
$ {S_{ij}} = \alpha \left( {{C_{:i}}, {Q_{:j}}} \right) $ | (4) |
$ \alpha \left(c, q\right)=u\left[c;q;c\cdot q\right] $ | (5) |
$ {\delta _i} = {\textit{Softmax}}\left( {{S_{i:}}} \right) $ | (6) |
$ {Q'} = \sum\limits_j {{\delta _{ij}}{Q_{:j}}} \in {R^{H \times {\text{2}}d}} $ | (7) |
其中, Sij表示文档中第i个词和问题中第j个词的相似度,
Q2C是问题到文档的注意力, 计算出每一个问题的单词在文档中相似度最高的词, 对相似度矩阵S的列方向进行归一化, 然后计算文档向量加权和, 计算公式如下:
$ {\alpha _j} = {\textit{Softmax}}\left( {{S_{:j}}} \right) $ | (8) |
$ C'_{:j} = \sum\limits_i {{\alpha _{ij}}{C_{:j}}} $ | (9) |
$ I = \omega \left( {C, {Q'}, {C'}} \right) \in {R^{H \times {\text{2}}d}} $ | (10) |
$ \omega \left(c, {q'}, {c'}\right)=\left[c;{q'};c\cdot{q'};c\cdot{c'}\right] $ | (11) |
其中,
信息融合模块主要负责将上下文交互模块产生的独立的信息进行进一步的交互融合, 此模块的输入有5部分, 分别为文本全局特征D、问题自注意力Q2、文档自注意力C2、问题到文档的注意力Q2C、文档到问题的注意力C2Q, 将以上信息进行拼接后输入到前馈网络层进行线性变换, 然后将其输入到双向长短期记忆网络(bi-directional long short-term memory, BiLSTM)中进行融合, 计算公式如式(12)、式(13)所示:
$ in = w\left( {D;Q2;Q2C;C2Q} \right) $ | (12) |
$ out = {\text{BiLSTM}}\left( {in} \right) \in {R^{H \times {\text{4}}d}} $ | (13) |
其中, w为可训练参数矩阵, 拼接的向量经过维度转换之后维度为in
答案预测模块主要完成3个子任务: 答案类型判断、答案片段抽取、答案支持句判别.
答案类型判断: CAIL2020机器阅读理解任务的答案类型有4种: Span、YES、NO、Unknown. 其中, Span类型答案是从文档中抽取出的连续片段作为答案, YES和NO类型答案表示答案类型为是或否, Unknown类型答案是文档中不存在答案的情况. 答案类型判断可视为分类任务, 本文使用RoBERTa-wwm-ext预训练模型编码中的分类标记[CLS]位置的编码向量进行文本分类, 将[CLS]位置的编码向量P
$ {p_i} = {\textit{Softmax}}\left( {{\text{Linear}}\left( P \right)} \right) $ | (14) |
在答案类型预测子任务中, 使用实际答案类型qi和预测答案类型pi的交叉熵作为损失函数, 计算公式如式(15)所示:
$ {L_1} = {\text{CrossEntropy}}\left( {{q_i}, {p_i}} \right) $ | (15) |
答案片段抽取: 本文使用指针网络pointer network[29]预测答案在文档中的开始位置qs和结束位置qe, 计算公式如式(16)、式(17)所示:
$ {q^s} = \tanh \left( {{W^s}out} \right) $ | (16) |
$ {q^e} = \tanh \left( {{W^e}out} \right) $ | (17) |
其中, Ws和We是可训练的参数矩阵.
在答案片段抽取子任务中, 损失函数定义为预测答案开始、结束位置和答案实际的开始、结束位置的交叉熵, 计算公式如式(18)所示:
$ {L_2} = {\text{CrossEntropy}}\left( {q_j^s, P_j^s;q_j^e, P_j^e} \right) $ | (18) |
其中,
答案支持句判别: 此子任务主要用来查找答案对应的支持句子, 可将其视为分类任务. 首先计算文档编码C和文本编码P的点积, 获取每个句子的表示zsup, 并对其列方向进行归一化, 然后输入到全连接层进行支持句预测, 得到支持句的分布概率为psup, 计算公式如式(19)、式(20)所示:
$ {{\textit{z}}}_{\mathrm{sup}}=\left[C\cdot P\right] $ | (19) |
$ {p_{\sup }} = {\text{Linear}}\left( {{\textit{Softmax}}\left( {{{\textit{z}}_{\sup }}} \right)} \right) $ | (20) |
在支持句判别子任务中, 损失函数定义为预测的支持句psup和实际的支持句qsup的交叉熵, 计算公式如式(21)所示:
$ {L_3} = {\text{CrossEntropy}}\left( {{p_{\sup }}, {q_{\sup }}} \right) $ | (21) |
最终结果通过共享模型底层参数设计多任务学习函数[30], 共同训练上述3个子任务, 计算公式如式(22)、式(23)所示:
$ L = {\lambda _1}{L_1} + {\lambda _{\text{2}}}{L_{\text{2}}}{\text{ + }}{\lambda _{\text{3}}}{L_{\text{3}}} $ | (22) |
$ {\lambda _{\text{1}}}{\text{ + }}{\lambda _{\text{2}}}{\text{ + }}{\lambda _{\text{3}}}{\text{ = 1}} $ | (23) |
本文所使用的数据集为中国法研杯机器阅读理解赛道发布的数据集, 包括CAIL2019数据集和CAIL2020数据集, CAIL2020数据集样例如图2所示, 每一个数据样例包含若干个句子级的文档、一个根据文档提出的问题、问题对应的答案和答案对应的支持句子.
CAIL2019数据集样例如图3所示, 每一段文本对应着若干个问题, 每一个问题对应的答案仅有答案文本, 并没有支撑答案所需要的支持句, 不符合多跳MRC任务的数据要求.
3.3 数据重构
目前MRC任务面临的困难之一是相关数据集的缺乏, 尤其是针对中文MRC任务的相关数据集. CAIL2019的数据集是针对单跳MRC任务的, 需要对其进行重构以适应多跳MRC任务, 用来增加训练数据量以及验证模型泛化性能. 因此, 本文提出了一种基于BM25 (best matching)的改进算法对CAIL2019数据集进行重构, 将文章拆分为多个句子级的文档, 以寻找答案对应的支持句子.
BM25算法是信息检索领域计算查询和文档的相似度得分的经典算法, 该算法包含两个重要指标, 分别是查询中每个词的权重以及查询中每个词与文档的相关性得分, 计算公式如下:
$ {\textit{Score}}\left( {Q, d} \right) = \sum\limits_i^n {{W_i}} R\left( {{q_i}, d} \right) $ | (24) |
其中, Q表示一条查询语句, qi表示对Q分词后的词语; d表示查询文档; Wi表示查询Q中单词qi的权重; R(qi, d)表示单词qi与文档d的相关性得分. 单词权重Wi一般使用逆文档词频(inverse document frequency, IDF)进行计算:
$ IDF\left( {{q_i}} \right) = \log \frac{{n - n\left( {{q_i}} \right) + 0.5}}{{n\left( {{q_i}} \right) + 0.5}} $ | (25) |
其中, n为检索中的所有文档数, n(qi)为包含了qi的文档数. 由式(25)可以看出, 包含qi的文档数越多, 则qi的权重越低. 查询中的单词与文档的相关性得分计算公式如下所示:
$ R\left( {{q_i}, d} \right) = \frac{{{f_i}\left( {{k_1} + 1} \right)}}{{{f_i} + K}}\frac{{{F_i}\left( {{k_2} + 1} \right)}}{{{F_i} + {k_2}}} $ | (26) |
$ K = {k_1}\left( {1 - b + b\frac{l}{{{{avg}}\left( l \right)}}} \right) $ | (27) |
其中, k1、k2、b为调节因子, 通常根据经验设置, 一般为k1=1.2, b=0.75; fi为qi在文档d中的出现频率, Fi为qi在查询Q中的出现频率; l为文档的长度,
$ R\left( {{q_i}, d} \right) = \frac{{{f_i}\left( {{k_1} + 1} \right)}}{{{f_i} + K}} $ | (28) |
由BM25算法的式(24)可知, BM25算法计算时考虑了查询Q中每个单词qi和文档d的相似度, 但没有考虑查询Q和文档d的整体相似度, 因此本文提出了一种改进的BM25算法, 将考虑计算查询Q和文档d的整体相似度, 改进的BM25算法的计算公式如下:
$ {\textit{Score}}\left( {Q, d} \right) = R\left( {Q, d} \right)\sum\limits_i^n {{W_i}} R\left( {{q_i}, d} \right) $ | (29) |
其中,
使用RoBERTa-wwm-ext预训练模型对文本和查询分别进行向量编码, 再使用余弦相似度方法计算两者编码向量的相似度, 得到两者的相似度得分为
使用改进的BM25算法重新标记的CAIL2019数据集包含37600条数据, CAIL2020数据集包含5000条数据. 将两个数据集按照7:2:1的比例划分为训练集、验证集、测试集, 划分结果如表1所示.
CAIL2019和CAIL2020数据集的文章长度统计如图4、图5所示, 由于数据集中文本长度超过512的部分较少, 所以不对输入数据进行截断或滑动窗口处理, 仅对文本长度超过512的数据进行适当删减, 使其长度小于预训练模型输入长度限制.
4.2 评估指标
片段抽取式机器阅读理解任务的性能评价, 主要是根据对比预测答案和真实答案的匹配度来进行的, 评价指标主要为精确匹配(exact match, EM)值和模糊匹配F1值, 同时, 片段抽取阅读理解任务中还需要考虑答案支持句, 所以本文评价指标增加了联合 F1值进行评价.
EM用来计算预测答案与真实答案完全相同的比例, 当两个答案完全一致时得分为1, 否则为0, 计算公式如式(30)所示:
$ \left\{ \begin{gathered} EM = 1, {\text{ if pred}} = {\text{gold}} \\ EM = 0, {\text{ otherwise}} \\ \end{gathered} \right. $ | (30) |
其中, pred为预测答案, gold为真实答案.
F1值用来计算预测答案和真实答案之间单词的重合程度, 它不要求两者完全一致, 因此比EM评价指标更为宽松, 计算公式为准确率和召回率的加权平均值, 计算公式如式(31)所示:
$ F1 = \frac{{2 \times precision \times recall}}{{precision + recall}} $ | (31) |
其中, precision为准确率, recall为召回率.
联合F1根据答案和支持句的精度和召回率进行联合计算, 计算公式如式(32)–式(34)所示:
$ precisio{n^{{\mathrm{joint}}}} = precisio{n^{{\mathrm{ans}}}} \times precisio{n^{{\mathrm{sup}}}} $ | (32) |
$ recal{l^{{\mathrm{joint}}}} = recal{l^{{\mathrm{ans}}}} \times recal{l^{{\mathrm{sup}}}} $ | (33) |
$ Joint\;F1 = \frac{{2 \times precisio{n^{{\mathrm{joint}}}} \times recal{l^{{\mathrm{joint}}}}}}{{precisio{n^{{\mathrm{joint}}}} + recal{l^{{\mathrm{joint}}}}}} $ | (34) |
其中, precisionans、precisionsup和recallans、recallsup分别为答案和支持句的精度和召回率. precisionjoint和recalljoint为联合精度和召回率.
4.3 实验设置本文选用哈工大讯飞联合实验室(HFL)发布的中文预训练模型Chinese-RoBERTa-wwm-ext[27]来进行向量编码, 向量编码维度为768, 实验设置文档最大输入长度为512, 问题最大输入长度为50, 训练集batch_size大小为2, 测试集和验证集batch_size为4, dropout设置为0.1, DCN网络的膨胀率设置为2. 训练中使用BERTAdam优化器进行优化, 学习率设置为2E–4, 模型训练10个epoch后停止.
4.4 实验结果本文选择了6个基准模型进行对比实验, 分别为: BiDAF[10]模型、QANet[11]模型、BERT[12]模型、比赛官方的RoBERTa[27]基准模型、RAiO[31]模型、R-NET[32]模型. 由于本文针对的是中文数据集, 所以使用RoBERTa对文本进行向量编码, 代替基准模型中针对英文数据集的字符级和词级别的向量编码. 各个基准模型和本文模型在CAIL2019和CAIL2020数据集上的实验结果如表2、表3所示.
本文提出的模型在两个数据集上均表现较好, 体现了模型良好的泛化性能. 相比于比赛官方的基准模型和其他基准模型, 本文所提出的模型的表现优于基准模型. 同时能够发现各个模型在CAIL2020数据集上的训练结果明显优于在CAIL2019数据集上的训练结果, 这可能是由于改进的BM25算法对CAIL2019数据集进行标记的过程中, 并没有找到问题所对应的所有支持句或将不相关的句子作为支持句而引起的.
4.5 消融实验为了评估模型中每个部分的贡献, 在本文所提出的模型中分别去掉双向注意力模块、自注意力模块、DCN网络、Highway网络, 在CAIL 2020数据集上验证各个模块对模型性能的影响, 实验结果如表4所示.
由表4可以看出, 各个模块均会对模型性能产生影响. 其中双向注意力模块对模型性能影响最大, 可见文本和问题的信息交互对MRC模型充分理解文本有明显作用. 自注意力模块加强了文本和问题对自身的理解, 两者的信息相对独立, 从而对模型性能影响较小. DCN网络加强了整个文本的特征捕捉能力, 对MRC模型寻找正确答案及支持句有较大贡献. Highway网络对模型计算稳定性和收敛速度有贡献, 而对模型性能影响相对较小.
5 结论本文提出了一种基于多层次信息融合的机器阅读理解模型, 该模型能够较为全面地综合文档和问题的特征以及两者的交互信息. 同时, 针对CAIL2019数据集只能适用于单跳MRC任务的情况, 提出了一种改进的BM25算法对CAIL2019的数据集进行重构, 使其适应于多跳MRC任务, 增加了数据量, 同时更好地验证模型的泛化性能.
未来的研究工作中, 我们希望将知识图谱引入到模型训练过程中, 通过构建不同层级的知识图谱来查找支持句子, 同时能够将答案的推理过程进行可视化分析, 这对于认识MRC模型对文本的理解过程具有重要意义.
[1] |
Cui YM, Zhang WN, Che WX, et al. Multilingual multi-aspect explainability analyses on machine reading comprehension models. Iscience, 2022, 25(5): 104176. DOI:10.1016/j.isci.2022.104176 |
[2] |
Liu SS, Zhang X, Zhang S, et al. Neural machine reading comprehension: Methods and trends. Applied Sciences, 2019, 9(18): 3698. DOI:10.3390/app9183698 |
[3] |
Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space. Proceedings of the 2013 International Conference on Learning Representations. Scottsdale: ICLR, 2013.
|
[4] |
Pennington J, Socher R, Manning C. GloVe: Global vectors for word representation. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP). Doha: ACL, 2014. 1532–1543.
|
[5] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 6000–6010.
|
[6] |
Wang JJ, Wang S, Cui Q, et al. Local-based active classification of test report to assist crowdsourced testing. Proceedings of the 31st IEEE/ACM International Conference on Automated Software Engineering. Singapore: IEEE, 2016. 190–201.
|
[7] |
Hirschman L, Light M, Breck E, et al. Deep Read: A reading comprehension system. Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics. College Park: ACL, 1999. 325–332.
|
[8] |
Hermann KM, Kočiský T, Grefenstette E, et al. Teaching machines to read and comprehend. Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal: MIT Press, 2015. 1693–1701.
|
[9] |
Wang SH, Jiang J. Machine comprehension using match-lstm and answer pointer. Proceedings of the 5th International Conference on Learning Representations. Toulon: OpenReview.net, 2017.
|
[10] |
Seo MJ, Kembhavi A, Farhadi A, et al. Bidirectional attention flow for machine comprehension. Proceedings of the 5th International Conference on Learning Representations. Toulon: OpenReview. net, 2017.
|
[11] |
Yu AW, Dohan D, Luong MT, et al. QANet: Combining local convolution with global self-attention for reading comprehension. Proceedings of the 6th International Conference on Learning Representations. Vancouver: OpenReview.net, 2018.
|
[12] |
Devlin J, Chang MW, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Minneapolis: ACL, 2018. 4171–4186.
|
[13] |
李芳芳, 任星凯, 毛星亮, 等. 基于多任务联合训练的法律文本机器阅读理解模型. 中文信息学报, 2021, 35(7): 109-117, 125. DOI:10.3969/j.issn.1003-0077.2021.07.013 |
[14] |
朱斯琪, 过弋, 王业相, 等. TransformerG: 基于层级图结构与文本注意力机制的法律文本多跳阅读理解. 中文信息学报, 2022, 36(11): 148-155, 168. DOI:10.3969/j.issn.1003-0077.2022.11.015 |
[15] |
Zhang WW, Ren FJ. ELMo+Gated self-attention network based on BiDAF for machine reading comprehension. Proceedings of the 11th IEEE International Conference on Software Engineering and Service Science (ICSESS). Beijing: IEEE, 2020. 1–6.
|
[16] |
Ilić S, Marrese-Taylor E, Balazs JA, et al. Deep contextualized word representations for detecting sarcasm and irony. Proceedings of the 9th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis. Brussels: ACL, 2018. 2–7.
|
[17] |
Ding M, Zhou C, Chen QB, et al. Cognitive graph for multi-hop reading comprehension at scale. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2019. 2694–2703.
|
[18] |
Qiu L, Xiao YX, Qu YR, et al. Dynamically fused graph network for multi-hop reasoning. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2019. 6140–6150.
|
[19] |
Shao N, Cui YM, Liu T, et al. Is graph structure necessary for multi-hop question answering? Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). ACL, 2020. 7187–7192.
|
[20] |
Cui Y, Liu T, Che W, et al. A span-extraction dataset for Chinese machine reading comprehension. arXiv:1810.07366, 2018.
|
[21] |
Jiang YC, Bansal M. Self-assembling modular networks for interpretable multi-hop reasoning. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: ACL, 2019. 4474–4484.
|
[22] |
Wang WY, Pan S. Deep inductive logic reasoning for multi-hop reading comprehension. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Dublin: ACL, 2022. 4999–5009.
|
[23] |
Min S, Zhong V, Zettlemoyer L, et al. Multi-hop reading comprehension through question decomposition and rescoring. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2019. 6097–6109.
|
[24] |
Perez E, Lewis P, Yih WT, et al. Unsupervised question decomposition for question answering. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). ACL, 2020. 8864–8880.
|
[25] |
Mohammadi A, Ramezani R, Baraani A. A comprehensive survey on multi-hop machine reading comprehension approaches. arXiv:2212.04072, 2022.
|
[26] |
Yu F, Koltun V, Funkhouser T. Dilated residual networks. Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 636–644.
|
[27] |
Cui YM, Che WX, Liu T, et al. Pre-training with whole word masking for Chinese BERT. arXiv:1906.08101, 2019.
|
[28] |
Srivastava RK, Greff K, Schmidhuber J. Highway networks. arXiv:1505.00387, 2015.
|
[29] |
Vinyals O, Fortunato M, Jaitly N. Pointer networks. Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal: MIT Press, 2015. 2692–2700.
|
[30] |
Fan Y, Liu QW. A retriever-reasoner method for multi-document reading comprehension. Proceedings of the 19th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP). Chengdu: IEEE, 2022. 1–5.
|
[31] |
Phan TA, Jung JJ, Bui KHN. Read-all-in-once (RAiO): Multi-layer contextual architecture for long-text machine reading comprehension. IEEE Access, 2023, 11: 77873-77879. DOI:10.1109/ACCESS.2023.3298100 |
[32] |
Microsoft Asia Natural Language Computing Group. R-NET: Machine reading comprehension with self-matching networks. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Beijing: Microsoft Reserach Asia, 2017.
|