2. 北京信息科技大学 经济管理学院, 北京 100192;
3. 智能决策与大数据应用北京市国际科研合作基地, 北京 100192
2. School of Economics and Management, Beijing Information Science and Technology University, Beijing 100192, China;
3. Beijing International Science and Technology Cooperation Base for Intelligent Decision and Big Data Application, Beijing 100192, China
文本匹配是自然语言处理领域中一项重要的任务, 其在问答系统等领域中扮演着关键角色[1]. 在问答系统中, 文本匹配技术通过相似度计算, 在海量的知识库或文本数据中匹配相应的答案或解决方案. 影响文本匹配效果的关键因素是文本向量的质量. 早期的研究主要是基于词频统计的方法, 如TF-IDF、VSM、BM25等, 但统计方法通常忽略了上下文和语义信息. 随着人工智能的不断发展, 基于深度学习的文本向量生成模型发展迅速, 如Word2Vec、ELMO[2]等基于神经网络的模型都有不错的效果. 另外, 也有越来越多的工作是基于预训练模型来实现. 预训练模型通过大量的语料学习, 对上下文建模, 模型学习到丰富的语言知识和语义表示, 能够更好地理解上下文关系, 如BERT[3]等预训练模型可以生成高质量的文本向量用于下游任务.
预训练模型在进行下游任务时需要微调, 单纯地使用预训练模型可能因为各向异性[4]等问题导致文本向量质量下降, 因此不少研究也提出了针对文本向量生成的微调框架. SimCSE[5]是一种无监督对比学习框架, 拥有良好的文本向量生成能力. 该框架使用预训练模型作为基座模型, 使用Dropout方式对同一样例进行两次处理作为正例, batch内其他样例作为负例, 在向量空间中拉近正例, 推远负例. 但SimCSE框架有两个问题.
(1) SimCSE框架对基座模型输出语义特征提取不充分, 只将[CLS]token取出并做池化处理. [CLS]token所对应的嵌入作为文本向量, 因为它自身初始不带信息, 同时汇集了全句信息, 更加公平地融合了文中的语义. 但是如ColBERT[6]等认为仅使用[CLS]作为文本向量代表是不充分的, 在如ColBERT、Poly-encoders[7]等方法中, 都在预训练模型输出后做了进一步的特征学习. 如ColBERT在采用query和doc的多个向量相似度累计得分, 而Poly-encoders则对于输入的query添加了可学习的向量, 使用注意力机制进一步学习, 提高模型效果及推理速度.
(2) SimCSE框架忽略基座模型内层级信息. 对于深度学习网络, 经验上人们认为深度神经网络的浅层网络与深层网络包含不同的特征, 基于Transformer[8]的预训练模型通常具有多层结构[9,10]. Jawahar等[11]对BERT的12层输出做了不同的实验, 以确定不同层数具体学习到各类特征, 认为浅层学习到了短语级信息, 而中层学习了更多的语法特征, 深层则更具语义特征. 无监督方法SimCSE只使用基座模型最后层输出, 忽略模型内部信息, 导致效果不佳.
综上所述, 本文选择SimCSE架构的无监督对比学习模型, 提出一种融合预训练模型层级特征的方法SimCSE-HFF, 使用短路径和长路径双路并行网络强化对特征的学习. 短路径使用卷积神经网络学习文本局部特征并进行降维; 长路径使用双向门控循环神经网络学习深度语义信息, 解决模型对输出特征提取不充分的问题. 另外, 在长路径中利用自编码器融合模型内部其他层特征, 获取更丰富的特征信息. 通过双路并行网络的特征学习, SimCSE-HFF框架能够优化文本向量生成, 更好地判断文本语义相似度, 同时提升下游任务能力.
2 相关工作传统的文本匹配方法在上下文理解和长文本处理等方面存在缺陷, 随着深度学习的发展, 基于深度学习的文本匹配方法占据了主导. 基于深度学习的文本匹配方法分为两种: 一种是交互型文本匹配, 另一种是表征型文本匹配.
2.1 交互型文本匹配如图1(a)所示, 交互型模型的特点是使用网络将对应的两段文本, 进行交互、对比, 得到各文本强化后的向量表征, 或者直接得到统一的向量表征, 之后预测二者关系. 基于交互如ESIM[12], 使用LSTM[13]和句子间软注意力获取文本特征, 由于LSTM网络通常包含大量的参数, 在处理大规模数据集时, 训练和推理的计算代价较高. MatchPyramid[14]则使用CNN作为文本的特征提取器, CNN仅能使用在滤波器尺寸范围内的局部信息进行特征提取, 导致对于一些依赖于全局语义理解的任务表现不佳.
基于预训练模型的交互型文本匹配方法, 由于其自身模型巨大的参数以及对海量预料的学习, 模型拥有强大的特征提取能力. 大量的研究都是基于类似Transformer, BERT等预训练模型上的工作. 李广等使用BERT模型获取句子特征并设计其他交互结构获取更丰富的语义匹配信息[15]; 后琦等则融合了关键词、意图等方面的匹配信息[16]. BERT不仅可以做基于表示模型的特征提取, 也可以直接做基于交互的模型, 其将正负例用分隔符隔开并作为输入, 并对输出进行二分类, 判断二者是否相似.
值得注意的是, 基于交互的模型注重结构上对文本特征进行提取与交互, 使得其在同参数下效果更优, 但由于对于每一对正负例都需要输入模型计算, 通常需要更多的时间与计算成本.
2.2 表征型文本匹配如图1(b)所示, 基于表征的文本匹配, 在初始阶段对两个文本各自单独处理, 通过深层的神经网络进行编码, 得到文本的表征, 再对两个表征进行匹配计算得到两个文本的相似度.
比较出色的模型有DSSM[17], 采用MLP作为特征提取器, 也可以将其替换为其他类型网络, 可以适应不同的语义匹配任务, 具有很高的可扩展性和通用性. CDSSM[18]作为DSSM的改进型, 采用CNN替换了MLP来缓解丢失上下文关系的问题. MV-LSTM[19]则使用了LSTM网络进行特征提取, 并在匹配阶段对相似度矩阵进行池化操作, 最终分类得到结果.
基于预训练的表征型文本匹配方法, 比较出色的是SBERT[20]. 采用双塔构型, SBERT使用BERT预训练模型进行特征提取, 获得文本嵌入后经过池化层, 最后计算余弦相似度. SBERT利用多种特征融合技术, 包括平均池化、最大池化和CLS标记, 将多个句子级别的表示融合成一个固定长度的句向量, 可以更好地表示整个句子的语义. SimCSE[3]采用无监督对比学习的方式进行训练. SimCSE使用了Dropout的方式来构建正例, 将一个样本经过encoder两次, 通过Dropout对不同神经元失活来获得两个不同但相似的句向量, 得到了一个正例对, 负例则是同一个batch里的其他句子. 在投影空间内推远负例拉近正例来学习特征.
不过相较于交互型文本匹配方法, 表征型文本匹配方法如SimCSE都没有对模型输出特征作进一步学习, 对基座模型输出语义特征提取不充分, 只将[CLS]token取出并做池化处理. 另外, SimCSE对基座模型内层级信息利用不充分, 导致本应有用的特征被浪费掉, 制约模型性能. 在Kim等[21]的工作里, 希望在不引入外部资源或显示的数据增强的情况下, 利用BERT内部信息进行对比, 以提高句子表示的质量. 通过使用两个BERT, 将一个固定参数BERT的各层结果均匀采样和一个微调参数BERT的[CLS]输出构造成正例. Jawahar等[11]对BERT的12层输出做了不同的实验, 以确定不同层数具体学习的特征, 研究发现浅层学习到了短语级信息, 而中层学习了更多的语法特征, 深层则更具语义特征. 这也引起了本文对模型自身信息的重视, 本文希望增加对模型自身信息的利用, 融合模型层级特征, 提升文本向量生成质量.
3 模型方法设计 3.1 模型总体设计SimCSE框架只使用[CLS]token作为文本向量代表, 同时忽略了基座模型内层级信息, 导致对基座模型输出语义特征提取不充分, 限制了模型的能力. 因此, 本文提出一种融合预训练模型层级特征方法SimCSE-HFF, 分为3层, 嵌入层, 特征融合层, 更新层, 如图2所示.
嵌入层由预训练模型组成, 特征融合层由并行双路网络组成, 更新层由loss计算与梯度更新组成. 嵌入层将使用预训练模型对自然语言进行编码, 获取文本特征, 传入特征融合层; 特征融合层将对获取的文本特征进行进一步处理, 使用双路并行网络学习, 在长路径使用自编码器融合层级特征, 之后使用自注意力模块融合长路径与短路经特征, 随后传入更新层; 而更新层将得到batch内所有的文本特征, 并根据batch内正负例计算相似度并计算loss值, 将正例在投影空间中拉进, 将负例推远, 累积梯度, 更新模型.
3.2 模型实现流程 3.2.1 嵌入层
嵌入层将使用预训练模型对自然语言进行编码, 获取文本特征, 如图2中嵌入层所示.
在具体实现中, 给定batch内文本
$ P = {\mathrm{Embedding}}(S) $ | (1) |
以BERT为例, 模型由12层Transformer的encoder块组成, 进行特征提取. Transformer块由几个重要的组件组成, 包括多头注意力机制(multi-head attention)、前馈神经网络(feed-forward neural network)、残差连接(residual connection)和层归一化(layer normalization). 给定预训练模型, 给定输入Pi, 在经过本层后得到输出hi. 其中l代表输出的结果来自于第l层. 嵌入层最终输出为Transformer块第l层的结果.
$ h_i^l = M({P_i}) $ | (2) |
SimCSE架构将每个语句所对应的Pi输入预训练模型M两次, 通过Dropout获得两个相似向量hi与hi*作为正例对, 而batch内其他样例为负例.
3.2.2 特征融合层特征融合层将对获取的文本特征进行进一步处理, 该层基于双路并行网络并设计长短路径, 短路径使用卷积神经网络学习文本局部特征并进行降维, 长路径使用双向门控循环神经网络学习深度语义信息并利用自编码器融合模型内部其他层特征, 然后使用Self-Attention自注意力模块融合双路特征. 具体结构如图2特征融合层所示.
在具体实现中, 嵌入层输出Transformer块第l层和最后一层的结果后, 短路径只使用最后一层结果. 短路径首先使用一维卷积神经网络Conv1d, 对输入的文本向量在特征维度方向上进行卷积操作, 压缩特征维度.
$ h_{ia}^{12} = {\mathrm{Conv}}(h_i^{12}) $ | (3) |
使用ReLU激活函数, 随后进入池化层, 在输入的长度方向上进行最大值池化操作, 得到短路径最后的特征hia.
$ {h_{ia}} = {\mathrm{MaxPooling}}({\mathrm{ReLU}}(h_{ia}^{12})) $ | (4) |
长路径则会同时使用第l层和最后一层的输出结果. 首先, 使用最后一层的特征, 将其输入BiGRU, 也就是双向GRU网路, 进行更进一步的学习与降维. GRU使用更新门和重置门来控制信息的流动与更新, 从而更好地捕捉序列信息. 相对于LSTM, GRU只包含更新门和重置门两个门控, 具有更简洁的结构. 这导致GRU在计算上更高效, 参数较少, 更易于训练和调整, 被广泛用于NLP任务中.
$ h_{ib}^{12} = {\mathrm{BiGRU}}(h_i^{12}) $ | (5) |
随后, 得到的特征向量进入AE自编码器模块, 将第l层的特征和最后一层的特征在特征维度方向上拼接作为AE模块的输入, 使用编码器encoder学习后由解码器decoder重建. encoder与decoder均由全连接层组成. 之后再使用全连接层进行降维, 得到长路径最后的特征.
$ {\mathrm{AE}}(h_{ib}^{12};h_i^l) = {\mathrm{decoder}}({\mathrm{encoder}}({\mathrm{concat}}(h_{ib}^{12}, h_i^l))) $ | (6) |
$ {h_{ib}} = {\mathrm{Linear}}({\mathrm{AE}}(h_{ib}^{12};h_i^l)) $ | (7) |
最后将长短路径特征进行特征融合. 模块使用Self-Attention自注意力模块进行特征融合. Self-Attention擅长捕捉特征内部特征, 同时可以解决长距离依赖问题. 将两个特征在长度方向上拼接后放入自注意力模块, 最后得到最终的特征
$ {h_i} = {\mathrm{Self}}{\textit{-}}{\mathrm{Attention}}({h_{ia}};{h_{ib}}) $ | (8) |
更新层将得到batch内所有的文本特征, 并根据batch内正负例计算相似度并计算loss值, 累积梯度, 更新模型.
本文采用余弦相似度来计算两个特征的相似度并计算损失函数.
$ sim({h}_{i}, {h}_{j})=\frac{{h}_{i}\cdot{h}_{j}}{\Vert {h}_{i}\Vert \cdot\Vert {h}_{j}\Vert } $ | (9) |
采用InfoNCE作为模型的损失函数.
$ l = - \log \frac{{{{\mathrm{e}}^{sim({h_i}, h_i^*)/\tau }}}}{{\displaystyle\sum\nolimits_{j = 1}^N {{{\mathrm{e}}^{sim({h_i}, {h_j})/\tau }}} }} $ | (10) |
其中, τ为温度系数, 本文按照SimCSE文献[3]设置为0.55. 分子为正例对相似度, 分母为正例对与负例对的相似度, 最小化该损失函数就是最大化正例对相似度的同时最小化负例对相似度.
4 实验分析 4.1 实验数据文本匹配可以基于两文本之间语义相似度来判断二者是否匹配, 因此本文选取无监督语义相似度作为本文的实验. 该任务通过模型得到样本句子对向量, 检验样本句子对之间的语义相似性, 衡量本文方法是否优化了模型生成的文本向量质量. 本文实验数据集采用了STS-B中文版和STS-B英文版. STS-B是语义文本相似性基准测试, 来自GLUE (general language understanding evaluation)基准. STS-B训练集有5231条数据, 验证集有1458条数据, 测试集有1361条数据.
4.2 实验评估指标实验使用Spearman相关性与Pearson相关性作为实验效果指标. Spearman相关性用来衡量两个数据集的单调关系, 是否有一致趋势; Pearson相关性用来评估相似性或相关性. 指标计算公式如下:
$ {\textit{Spearman}} = 1 - \frac{{6\displaystyle\sum\nolimits_{i = 1}^n {d_i^2} }}{{n({n^2} - 1)}} $ | (11) |
$ Pearson = \frac{{\displaystyle\sum\nolimits_{i = 1}^n {({x_i} - \overline x )({y_i} - \overline y )} }}{{\sqrt {\displaystyle\sum\nolimits_{i = 1}^n {{{({x_i} - \overline x )}^2}} } \sqrt {\displaystyle\sum\nolimits_{i = 1}^n {{{({y_i} - \overline y )}^2}} } }} $ | (12) |
$ {d_i} = R({x_i}) - R({y_i}) $ | (13) |
其中, 等级
无监督语义相似度任务与检索问答任务都使用同一套参数. 实验使用SimCSE-HFF方法, 基于RoBERTa基座模型, 通过无监督语义相似度任务在中文STS数据集上的多次实验, 本文确定了相关参数. 其中影响较大的为GRU层数、自编码器参数与额外融合层层数. GRU层数显著影响模型大小、参数大小, 影响并行网络效果, 而自编码器和额外融合层层数影响层级特征融合的效果.
4.3.1 门控循环神经网络参数设置本文测试了GRU层数对模型效果与模型大小的影响, 实验结果如图3所示. 模型大小随着层数增加而变大, 在2层上升至4层时模型效果有所提升, 但是在继续上升至6层时开始下降, 这是因为过于复杂和过于深的网络影响了整体效果. 本文综合考虑模型大小与模型效果后, 最终选择4层GRU作为最终参数.
4.3.2 自编码器维度设置
自编码器内部维度对应隐层单元数量, 不同数量变化对效果有不同影响. 本文对比了4组自编码器参数组, 具体参数如表1所示, 其中, 数值分别为编码器输入维度、编码器中间层维度、编码器输出维度与解码器输入维度、解码器中间层维度、编码器输出维度, ↓箭头代表与参数组1相比维度有所下降. 效果变化图如图4所示. 实验控制了输入输出, 测试AE在解码器编码器中间参数变化效果. 以参数组1为对照组, 编码器隐层单元最大, 解码器隐层单元最大. 参数组2解码器隐层单元较低, 效果小幅提升. 参数组3编码器隐层单元较低, 效果小幅提升. 而参数组4则结合前两者, 效果有明显提升. 对比最后结果发现, 隐层单元的数量较大时, 学习的单元组合多, 携带的冗余信息也多. 而参数组4削减了数量, 效果也就相应提升.
4.3.3 自编码器特征融合层数设置
实验针对STS-B数据集对前12层的效果进行了测试, 所有测试结果如图5所示. 可以看出, 不同层对模型效果都有不同程度影响, 其中浅层和深层都有不小提升. Jawahar等[11]的工作也显示深层网络在语义层任务上有更好的效果.
本文同时进行多层融合实验, 根据以上实验效果从高到低选择了第9层、第1层、第8层, 分别对比了(1) 9层、(2) 1+9层、(3) 1+8+9层3个实验, 实验结果如图6所示. 对比结果发现, 在增加融合层数时效果下跌. 本文推测是因为增加层数将显著增加AE编码器输入维度, 从而导致AE模块效果不佳. 因此本文选择单层融合, 并选择最佳效果第9层作为额外特征.
4.3.4 整体参数设置
本文在优化了以上3个参数后, 根据实验条件与论文经验[3]设定了学习率、BatchSize、输入最大长度、CNN卷积核大小、BiGRU层数等参数项, 所有实验相关的参数设置如表2所示.
4.4 无监督语义相似度实验结果无监督语义相似度实验使用数据集STS-B中文和英文版, 使用余弦相似度计算二者的相似度, 并计算Spearman相关性与Pearson相关性. 针对不同框架, 本文选择了孪生网络SBERT、对比学习SimCSE, 与本文提出的SimCSE-HFF进行比较. SBERT为工业界常用框架, SimCSE为本文改进的源框架, 希望对比这些框架以验证本文方法的有效性. 另外, 实验针对不同预训练模型BERT和RoBERTa两种模型进行对比, 以及针对中文和英文进行实验, 以验证本文方法的通用性. BERT是一种基于Transformer的预训练语言表示模型, 旨在为自然语言处理任务提供高质量的特征表示. RoBERTa是BERT的一个改进版本, 它通过一系列的优化策略来提高BERT的性能.
以SimCSE-RoBERTa-HFF方法为例, 语义相似度训练过程Spearman相关性与Pearson相关性变化图与模型训练loss收敛如图7与图8. 如图7所示, 模型收敛迅速, 模型性能在短时间内得到提升, 同时在训练过程中无明显的大幅度波动, 证明了本文方法的稳定性. 相关实验所有结果如表3所示.
如表3所示, SimCSE-BERT-HFF在中文Spearman相关性上提升了0.10但在Pearson相关性上低于最优0.23; 在英文Spearman相关性、Pearson相关性上提升了2.65和2.18. 而SimCSE-RoBERTa-HFF在中文Spearman相关性、Pearson相关性上提升了1.00和0.96, 在英文Spearman相关性上提升了0.36但在Pearson相关性上低于最优0.69.
在针对框架的对比时, 与基础的SimCSE方法相比, SBERT相对较差, 本文提出的SimCSE-HFF方法取得了较好的成绩, 只在Pearson相关性指标下略逊于中文SimCSE-BERT和英文SimCSE-RoBERTa.
针对预训练模型的对比, RoBERTa版本SimCSE-HFF在中文上取得了最好的成绩, 在英文上Spearman相关性指标优于SimCSE而Pearson相关性指标率低于SimCSE. 而BERT版本SimCSE-HFF在英文上取得了最好的成绩, 在中文上Pearson相关性略低于SimCSE. 本文推测预训练模型基础质量对实验依旧有影响, RoBERTa模型相较于BERT模型拥有更优秀的文本表征能力, 不会出现严重的各向异性.
针对中文和英文的对比, SimCSE-HFF在中文与英文上都获得了提升.
综上所述, SimCSE-HFF方法在框架、预训练模型和语种3个维度上都获得了优秀的结果, 这体现了本文方法的有效性和通用性.
4.5 消融实验为了验证SimCSE-HFF提出的双路并行网络和层级信息特征融合的有效性, 本文采用4个实验对比, 基座模型RoBERTa, 分别是(1) SimCSE-RoBERTa-HFF本文方法. (2) SimCSE-RoBERTa-HFF去除AE模块. (3) SimCSE-RoBERTa-HFF去除AE模块中第l层特征融合. (4) SimCSE原框架. 实验(2)将验证双路并行网络对特征进行进一步学习的有效性, 而实验(3)将证明第l层特征融合的有效性. 消融实验的实验结果如表4所示.
如表4所示, 在去除了AE模块、去除第l层特征融合两种情况下, 相较于SimCSE-RoBERTa原框架都有不同程度的效果提升.
去除AE模块实验中, 模型只保留双路并行网络, 相较于SimCSE-RoBERTa原框架依旧拥有0.97的提升, 这说明双路并行网络模块学习到了更多的特征.
在去除第l层特征融合实验中, 效果相较于去除AE模块有所下降. 本文推测是因为AE自身的特性导致. AE对于输入进行压缩后再升维, 通常被用于生成. 而在去除第l层特征融合方法中, 如果去除了第l层拼接, AE退化为一个简单的还原过程, 反而拖累了模型, 这也体现了融合层级特征的重要性.
4.6 下游任务实验为了验证SimCSE-HFF在下游任务的能力, 本文进行了检索问答实验, 通过测试正确答案是否在模型根据语义相似度召回的答案集中, 衡量模型得到的文本向量的质量.
如图9所示, 模型训练完成后, 在下游任务使用时只使用预训练模型来生成文本向量, 不使用特征融合层与更新层.
实验使用QualityQA数据集来测试模型在下游任务中的性能. QualityQA为本文收集的企业综合质量诊断专家问答数据, 由企业提出自身问题后, 专家进行回答, 总共281条数据. 由于部分实验为无监督学习, 且QualityQA数据较少, 所以针对QualityQA的实验, 采取STS-B+QA的方式, 将QualityQA中训练集的query与answer加入STS-B的训练集中, 而在测试中使用测试集, 实验将计算query与所有answer的相似度并进行召回.
将评级指标设置为Top5与Top10, 指标代表前5个召回和前10个召回中是否有答案. 相关实验结果如表5所示.
如表5所示, 在RoBERTa版本中, SimCSE-RoBERTa-FF方法将Top5与Top10提升到了65.00%和75.90%, 分别提升了1.40%和0.30%. SimCSE-RoBERTa-FF方法更准确地捕捉到了输入句子的语义信息和关键特征. 通过提升文本向量的质量, 模型更好地理解了问题和答案之间的关系, 从而更精确地召回答案.
5 结论与展望本文针对SimCSE框架仅使用[CLS]token作为文本向量, 对基座模型内层级信息利用不充分的问题, 提出一种融合预训练模型层级特征方法SimCSE-HFF. SimCSE-HFF基于双路并行网络, 使用短路径和长路径, 短路径使用卷积神经网络学习文本局部特征并进行降维, 长路径使用双向门控循环神经网络学习深度语义信息, 解决模型对输出特征提取不充分的问题. 同时, 在长路径中利用自编码器AE融合模型内部其他层特征, 获取更丰富的特征信息, 解决基座模型内层级信息利用不充分问题. SimCSE-HFF提高了文本向量生成质量, 更好地理解问题和文本之间的关系, 在STS-B的中文与英文数据集上 Spearman和Pearson相关性指标上优于传统方法, 在不同预训练模型上均得到提升, 同时提高了下游检索任务准确度. 本文在研究中同时提出了一些问题, 例如在引入新结构后, 训练速度的消耗增大问题, 以及后处理是否会对整体参数分布的一致性与均匀性产生影响. 这些问题也是未来研究中需要更多注意的事项.
[1] |
曹帅. 基于深度学习的文本匹配研究综述. 现代计算机, 2021, 27(16): 74-78. DOI:10.3969/j.issn.1007-1423.2021.16.016 |
[2] |
Peters ME, Neumann M, Iyyer M, et al. Deep contextualized word representations. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. New Orleans: ACL, 2018. 2227–2237.
|
[3] |
Devlin J, Chang MW, Lee K, et al. BERT: Pre-training of deep bidirectional Transformers for language understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Minneapolis: ACL, 2019. 4171–4186.
|
[4] |
Cai XY, Hang JJ, Bian YC, et al. Isotropy in the contextual embedding space: Clusters and manifolds. Proceedings of the 9th International Conference on Learning Representations. ACL, 2021. 1–22.
|
[5] |
Gao TY, Yao XC, Chen DQ. SimCSE: Simple contrastive learning of sentence embeddings. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing. Punta Cana: ACL, 2021. 6894–6910.
|
[6] |
Khattab O, Zaharia M. ColBERT: Efficient and effective passage search via contextualized late interaction over BERT. Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. Xi’an: ACM, 2020. 39–48.
|
[7] |
Humeau S, Shuster K, Lachaux M A, et al. Poly-encoders: Architectures and pre-training strategies for fast and accurate multi-sentence scoring. Proceedings of the 8th International Conference on Learning Representations. Addis Ababa: ICLR, 2020. 1–14.
|
[8] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: ACM, 2017. 6000–6010.
|
[9] |
Lan ZZ, Chen MD, Goodman S, et al. ALBERT: A lite BERT for self-supervised learning of language representations. Proceedings of the 8th International Conference on Learning Representations. Addis Ababa: ICLR, 2020. 1–17.
|
[10] |
Lewis M, Liu YH, Goyal N, et al. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2020. 7871–7880.
|
[11] |
Jawahar G, Sagot B, Seddah D. What does BERT learn about the structure of language? Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence: ACL, 2019. 3651–3657.
|
[12] |
Chen Q, Zhu XD, Ling ZH, et al. Enhanced LSTM for natural language inference. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver: ACL, 2017. 1657–1668.
|
[13] |
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 |
[14] |
Pang L, Lan YY, Guo JF, et al. Text matching as image recognition. Proceedings of the 30th AAAI Conference on Artificial Intelligence. Phoenix: ACM, 2016. 2793–2799.
|
[15] |
李广, 刘新, 马中昊, 等. 融合多角度特征的文本匹配模型. 计算机系统应用, 2022, 31(7): 158-164. DOI:10.15888/j.cnki.csa.008544 |
[16] |
后琦, 陈籽健, 刘璐. 结合意图与关键词的句子级交互文本匹配模型. 信息技术与信息化, 2023(10): 24-29. DOI:10.3969/j.issn.1672-9528.2023.10.005 |
[17] |
Huang PS, He XD, Gao JF, et al. Learning deep structured semantic models for Web search using clickthrough data. Proceedings of the 22nd ACM International Conference on Information & Knowledge Management. San Francisco: ACM, 2013. 2333–2338.
|
[18] |
Shen YL, He XD, Gao JF, et al. A latent semantic model with convolutional-pooling structure for information retrieval. Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management. Shanghai: ACM, 2014. 101–110.
|
[19] |
Wan SX, Lan YY, Guo JF, et al. A deep architecture for semantic matching with multiple positional sentence representations. Proceedings of the 30th AAAI Conference on Artificial Intelligence. Phoenix: ACM, 2016. 2835–2841.
|
[20] |
Reimers N, Gurevych I. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: ACL, 2019. 3982–3992.
|
[21] |
Kim T, Yoo KM, Lee SG. Self-guided contrastive learning for BERT sentence representations. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing. Bangkok: ACL, 2021. 2528–2540.
|