铁路是国家大力发展的重要基础设施、大众化的交通工具, 在国家综合交通运输体系中有不可替代的地位. 在铁路行业中, 铁路安全占据了极其重要的位置. 安全是铁路运输的基本要求, 是铁路运输永恒的主题. 国家铁路局公布的铁路安全情况公告显示: 近年来, 我国铁路安全总体上呈现稳定、有序、可控的发展态势, 但每年仍有数百人因铁路事故丧生. 目前, 铁路事故的相关信息以事故概况文本的形式存在, 且以纸质方式存档. 这些文本记录了事故的发生过程, 包含大量关于事故时间, 事故地点, 事故类型等的铁路事故知识. 但由于缺乏有效的信息抽取与存储手段, 导致在传统的铁路安全管理与铁路事故分析中并不能充分利用这些信息. 知识图谱是一种描述现实世界中概念、实体及其关系的管理海量知识的工具. 构建铁路事故知识图谱可实现铁路事故知识的有效集成与持续积累、事故案列快速检索, 同时可统计事故时间、地点、列车等数据的分布情况完成事故分析, 为事故预防工作提供知识支持. 铁路事故知识图谱对于提升铁路安全工作效率、铁路运输安全性具有重要的意义, 而铁路事故命名实体识别是构建铁路事故知识图谱的基础.
命名实体识别(named entity recognition, NER), 也称为实体抽取, 其目的是识别出文本中表示命名实体的成分, 并对其进行分类[1]. 实体是知识图谱中最基本的元素, 命名实体识别是知识图谱构建过程中基础与关键的一步. 铁路事故文本的命名实体识别属于特定领域的实体抽取问题, 主要任务是从非结构化铁路事故文本数据中识别出事故列车、地点、时间等不同类型的实体. 相较于其他领域的实体抽取问题, 铁路事故的命名实体识别问题拥有专有名词多、实体边界模糊、实体表述方式多的特点. 因此, 针对铁路事故命名实体识别问题, 本文提出了一种融合字位置特征的铁路事故文本命名实体识别方法, 并采用人工标注的方法获取实验语料, 通过实验验证了方法的有效性.
本文的组织结构如下: 第2节分别介绍通用领域与事故领域命名实体识别的相关工作; 第3节介绍本文提出的融合字位置特征的铁路事故文本命名实体识别模型; 第4节介绍实验语料, 对本文提出的模型进行实验, 并对实验结果进行分析; 第5节为结束语.
2 相关工作命名实体识别的研究开展得较早且根据应用场景的不同可以分为通用领域的命名实体识别与特定领域的命名实体识别, 发展到现在主要有基于规则的方法、基于统计模型的方法和基于深度学习的方法.
早期的命名实体识别主要采用人工编写规则的方法, 规则的制定依赖于专家与特定领域, 导致工作量巨大且可移植性差.
基于统计模型的方法利用标注语料进行模型训练, 常用于命名实体识别的统计学习模型包括隐马尔可夫模型(hidden Markov models, HMM)[2]、条件随机场模型(conditional random field, CRF)[3]等. 与传统基于规则的方法相比, 基于统计模型的方法不用定义繁琐的规则, 但良好的识别效果往往需要人工定义特征, 导致人力资源消耗较大.
近年来, 随着深度学习技术被广泛应用于各类自然语言处理问题并展现出良好的效果, 基于深度学习的命名实体识别方法应运而生并成为时下命名实体识别研究的热点. 相较于传统的命名实体识别方法, 基于深度学习的方法通过神经网络模型自动提取特征, 实现端到端的命名实体识别, 避免了人工对规则或特征的定义.
学者们对于基于深度学习的命名实体识别方法在通用领域进行了大量的研究, 例如, Huang等人[4]首次提出使用BiLSTM-CRF模型进行命名实体识别, 在通用领域的命名实体识别语料CoNLL-2003数据集上获得了88.83%的F1值. Ma等人[5]在文献[4]的基础上使用CNN模型获取单词的字符级向量表示, 提出了LSTM-CNNs-CRF模型, 获得了2.38%的F1值的提升. Strubell等人[6]将IDCNNs模型应用于命名实体识别任务, 在与BiLSTM-CRF模型的识别效果相当的情况下极大地缩短了模型的训练时间. 申晖等人[7]提出BSTTC模型进行中文命名实体识别, 采用星型的Transformer结构提取句子特征, 提高识别效果的同时还减少了模型训练时间.
目前, 关于事故文本的命名实体识别研究还处在起步阶段. 宋建炜等人[8]采用改进的预训练语言模型结合BiLSTM-CRF模型在建筑施工安全事故文本的命名实体识别问题上取得了95.18%的F1值. 刘鹏等人[9]基于Lattice-LSTM模型[10]识别煤矿事故命名实体, 并以此为基础构建了煤矿安全知识图谱. 具体到铁路事故文本命名实体识别的研究, Hua等人[11]使用CRF模型识别我国铁路事故的事故原因与事故结果实体, F1值均到达了80%以上. Li等人[12]使用BiLSTM-CRF模型对我国铁路事故及故障分析报告中的事故故障时间、事故故障等级等8类命名实体进行了命名实体识别并通过实验验证了该模型在理论和实践上的适用性. 上述研究直接将通用领域的实体抽取模型应用于事故文本, 而没有考虑到事故文本本身的特点, 限制了识别效果的提升.
相较于一般领域的文本, 铁路事故文本有以下特点: (1)事故文本包含大量铁路领域的专有名词和专业术语, 一些通用领域常用的自然语言处理技术, 如词性标注、文本分词等难以应用于铁路事故文本中; (2)对事故的描述遵循一定的规律, 导致实体在文本中出现的位置较为固定, 例如事故时间通常处在句首, 事故类型通常处在句尾等; (3)待识别的实体存在省略、嵌套的情况, 导致实体的边界模糊. 基于上述特点, 本文提出一种融合字位置特征的铁路事故文本命名实体识别方法, 该方法通过Word2Vec模型获取字的语义层面向量表示, 并采用全连接的神经网络获取字在句中的位置特征, 将字的语义层面向量表示与字的位置特征合并作为字最终的向量表示, 最后通过BiLSTM-CRF模型获取字的最优标签.
3 融合字位置特征的实体识别模型 3.1 模型整体结构融合字位置特征的命名实体识别模型由输入层、嵌入层、双向LSTM层、CRF层与输出层组成, 模型的整体结构如图1所示.
模型首先接收字序列与字位置序列作为输入, 然后在嵌入层分别使用Word2Vec预训练语言模型与全连接的神经网络获取语义层面字向量与字位置特征并将字向量与字位置特征进行合并得到字的最终向量表示, 将字的向量表示输入BiLSTM模型自动提取特征, 获取上下文信息完成实体的初识别, 最后使用CRF模型输出文本的最优标签序列, 实现铁路事故文本的命名实体识别.
3.2 Word2Vec预训练语言模型中文的命名实体识别可以在字层面进行, 也可以在词层面进行. 词层面的命名实体识别需要首先对文本进行分词, 但铁路事故文本包含大量铁路领域的专有名词和专业术语, 直接使用现有的分词工具对事故文本进行分词会出现分词错误影响命名实体识别结果的情况. 故本文在字层面进行命名实体识别研究.
深度学习模型无法理解符号化的文本, 而只能接收数值型输入. 因此, 基于深度学习的命名实体识别需要将输入的字表示成向量的形式. 在自然语言处理领域, 通过使用大规模无标注的文本语料来训练深层网络结构, 从而得到字向量, 这种深层网络结构通常被称为“预训练模型”[13]. 目前最常用的预训练语言模型是2013年Mikolov发布的Word2Vec模型[14,15].
Word2Vec模型的实质是一个浅层的神经网络, 旨在通过字的one-hot编码训练神经网络, 使得该神经网络能预测给定字的上下文或通过给定的上下文预测字本身, 二者分别被称为Skip-gram模型与CBOW模型, 而训练完成后神经网络的权重便可作为字的向量表示. 本文使用Word2Vec的Skip-gram模型获取铁路事故文本语义层面的字向量表示, 模型的整体架构如图2.
图2中, Skip_gram模型以预测给定字的上下文为目标学习隐藏层中神经元的权重, 学习完成后, 通过V×N(V为语料中字的总数, N为嵌入维度)大小的权重矩阵得到字的N维向量表示.
3.3 字位置特征获取在通过预训练语言模型获得语义层面字向量的基础上, 一些研究还将通过传统特征工程得到的向量融入字的向量表示中, 且在一些特定领域得到了比融合前更好的识别效果. 例如雷树杰等人[16]以英文武器装备名识别为背景, 证明了基于深度学习的命名实体识别问题中语言学特征与领域特征存在的有效性与必要性, 董瑞等人[17]设计了一组维吾尔语语言学特征并为每个特征分配一个向量, 将语言学特征向量、字符特征向量与词向量合并输入BiLSTM-CRF模型中, 获得了更高的识别精度.
铁路事故领域, 由于记录人员对事故的描述遵循一定的规律, 不同概念的实体在句中出现的位置都各不相同且较为固定. 该特点使字在句中的位置可以成为除语义层面字向量之外判断该字标签的另一个重要特征. 由于语料中句子的长度各不相同, 本文通过式(1)对字的位置进行归一化处理.
$ w{p_c} = \dfrac{i}{{len\left( {sentence} \right)}},\; {1 \leqslant i \leqslant len\left( {sentence}\right) } $ | (1) |
其中, i表示字c是句中的第i个字, len(sentence)表示句子的长度, wpc表示字c在句中的位置. 计算得到字在句中的位置后, 本文使用一个全连接的神经网络提取字的位置特征, 模型架构如图3所示.
3.4 BiLSTM模型
长短期记忆(long short-term memory, LSTM)单元[18]是带有门控机制的循环神经网络(recurrent neural network, RNN)模型, 门控机制实现了对长距离信息的有效利用, 有效解决了传统RNN模型的短期记忆问题与梯度消失问题. LSTM单元的具体计算过程如式(2)–式(7)所示:
$ {i_{\left( t \right)}} = \sigma \left( {{W_{xi}}{x_{\left( t \right)}} + {W_{hi}}{h_{\left( {t - 1} \right)}} + {b_i}} \right) $ | (2) |
$ {f_{\left( t \right)}} = \sigma \left( {{W_{xf}}{x_{\left( t \right)}} + {W_{hf}}{h_{\left( {t - 1} \right)}} + {b_f}} \right) $ | (3) |
$ {o_{\left( t \right)}} = \sigma \left( {{W_{xo}}{x_{\left( t \right)}} + {W_{ho}}{h_{\left( {t - 1} \right)}} + {b_o}} \right) $ | (4) |
$ {g_{\left( t \right)}} = {\rm tanh}\left( {{W_{xg}}{x_{\left( t \right)}} + {W_{hg}}{h_{\left( {t - 1} \right)}} + {b_g}} \right) $ | (5) |
$ {c_{\left( t \right)}} = {f_{\left( t \right)}} \otimes {c_{\left( {t - 1} \right)}} + {i_{\left( t \right)}} \otimes {g_{\left( t \right)}} $ | (6) |
$ {h_t} = {o_{\left( t \right)}} \otimes {\rm tanh}\left( {{c_{\left( t \right)}}} \right) $ | (7) |
其中, W与b分别表示输入门、遗忘门、输出门的权重矩阵与偏置向量, x(t)表示单元输入, c(t)代表记忆单元状态, i(t)、f(t)、o(t)分别表示输入门、遗忘门、输出门.g(t)是仅由当前输入得到的中间状态, 用于更新记忆单元的信息, h(t)是单元的输出.
由图4中可以看出, 输入层将字的向量表示分别输入正向与反向LSTM单元, 在输出层将两个方向的计算结果进行拼接构成最终的输出, 因此BiLSTM结构可以综合考虑上下文中的信息, 获得更好的识别效果.
3.5 CRF模型通过BiLSTM模型获取字属于每个标签的概率仅在字的层面进行预测, 忽略了命名实体识别问题中标签之间的约束关系, 例如“B-Time”标签后面不可能出现“M-Train”标签, 文本的开头不可能是“E-”标签等, 从而仅使用BiLSTM模型进行命名实体识别会出现预测错误的情况. 针对上述不足, 本文将CRF模型[3]加入最终的模型中, 对BiLSTM模型的输出进行处理, 获得全局最优的标记序列.
定义输入句子
$ K\left( {X, y} \right) = \displaystyle\mathop \sum \limits_{i = 0}^n {A_{{y_i}, {y_{i + 1}}}} + \displaystyle\mathop \sum \limits_{i = 1}^n {P_{i, {y_i}}} $ | (8) |
其中, Aij表示由标签转移到标签的概率,
$ p\left(y \mid S\right)= \dfrac{{{{\rm e}^{K\left( {X, y} \right)}}}}{{\displaystyle\mathop \sum \nolimits_{\tilde y \in {Y_x}} K\left( {X, \tilde y} \right)}} $ | (9) |
其中, Yx表示所有可能的标记集合, 包括不符合标记规则的标记序列.
在训练过程中标记序列的似然函数:
$ \log \left(p\left(y \mid S\right)\right)=K\left(X, y\right)-\log \left(\sum_{\tilde{y} \in Y_{x}} K\left(X, \tilde{y}\right)\right) $ | (10) |
预测时, 由式(11)得到概率最大的一个标签序列:
$ {y^{\text{*}}} = \mathop {{\text{argmax}}}\limits_{\tilde y \in {Y_x}} K\left( {X, \tilde y} \right) $ | (11) |
本文从各铁路局编制的典型事故案列汇编中收集整理了1 000份铁路事故案例文本获得了共计72 174字的实验语料并根据铁路事故知识图谱的应用需要定义了事故时间、事故列车、事故地点、经济损失、事故类型和伤亡情况6类实体类型. 实体类型其对应的实体举例如表1所示.
实体的标注采用“BMEO”标注体系, 其中“B-概念”表示当前字为该概念实体的起始字; “M-概念”表示当前字为该概念实体的内部字; “E-概念”表示当前字为该概念实体的结尾字; “O”表示当前字为非实体字. 根据上述实体标注规范与表1中列出的6类概念, 可以得到19类标签, 如表2所示.
使用命名实体语料标注工具YEDDA[20]对实验语料中出现的命名实体进行人工标注, 一个标注示例如图5所示.
标注完成后, 总计获得4 201个命名实体. 本文以8:1:1的比例将标注的实验语料划分为训练集、验证集与测试集, 各个数据集中命名实体的具体数量如表3所示.
为验证融合字位置特征的命名实体识别模型在铁路事故领域的有效性, 本文在上述数据集上进行对比实验与消融实验. 此外, 本文还在Zhang等人[10]标注的中文简历数据集上进行实验验证模型在不同领域的适用性.
4.2 评价指标本实验使用准确率P, 召回率R与调和平均数F1作为模型的评价指标, 假设实体概念总数为N, 对于第i个实体类别:
$ {P_i} = \dfrac{{T{P_i}}}{{T{P_i} + F{P_i}}} \times 100{\text{%}} $ | (12) |
$ {R_i} = \dfrac{{T{P_i}}}{{T{P_i} + F{N_i}}} \times 100{\text{%}} $ | (13) |
$ F{1_i} = \dfrac{{2 \times {P_i} \times {R_i}}}{{{P_i} + {R_i}}} \times 100{\text{%}} $ | (14) |
其中, TPi为模型识别出第i个实体类别的正确实体个数;FPi为模型识别出第i个实体类别的错误实体个数;FNi为模型未识别出第i个实体类别的正确实体个数, F1i为Pi与Ri的调和平均数. 根据各类别的实体数量在总实体数量中的占比对各类别实体的识别效果进行加权平均, 可以得到模型的总体准确率P、总体召回率R和总体调和平均数F1:
$ P = \dfrac{{\displaystyle\mathop \sum_{i = 1}^N T{P_i}}}{{\displaystyle\mathop \sum \nolimits_{i = 1}^N T{P_i} + \displaystyle\mathop \sum \nolimits_{i = 1}^N F{P_i}}} \times 100{\text{% }} $ | (15) |
$ R = \dfrac{{\displaystyle\mathop \sum \nolimits_{i = 1}^N T{P_i}}}{{\displaystyle\mathop \sum \nolimits_{i = 1}^N T{P_i} + \displaystyle\mathop \sum \nolimits_{i = 1}^N F{N_i}}} \times 100{\text{% }} $ | (16) |
$ F1 = \dfrac{{2 \times P \times R}}{{P + R}} \times 100{\text{% }} $ | (17) |
本文采用谷歌人工智能团队开发的深度学习框架TensorFlow搭建命名实体识别模型, 预训练语言模型使用第三方开源库Gensim中自带的Word2Vec模块对实验语料进行训练, 验证集与测试集中若有训练集中未出现的字时, 对该字进行随机初始化获取字向量. 模型参数设置如下: 预训练字向量维度为128, 获取字位置特征的全连接神经网络神经元个数为16, BiLSTM模型神经元个数为128, 使用dropout技术[21]防止模型过拟合, dropout值为0.2, CRF模块中全连接层参数为字标签类别数19, 优化器采用可加速收敛的Adam[22], 学习率为0.002, 训练轮数为20, 批处理句子数量设为16.
4.4 实验结果及分析为验证本文提出的融合字位置特征的铁路事故文本命名实体识别模型的有效性, 在铁路事故文本语料上共进行了4组对比实验, 使用的模型分别为CRF、BiGRU-CRF、IDCNNs与BiLSTM-CRF. 其中CRF模型使用开源的条件随机场工具包CRF++进行训练, IDCNNs模型由4层一维卷积操作与1层空洞卷积操作组成, BiGRU-CRF与BiLSTM-CRF的模型参数与第4.3节中的参数设置相同, 实验结果如表4所示.
从表4可知, 本文提出的融合字位置特征的命名实体识别模型的准确率为93.29%, 召回率为94.77%, F1值为94.02%, 3项指标均为最优, 验证了本文提出的模型的有效性. 相比于BiLSTM-CRF模型, 模型的准确率、召回率、F1值分别提高了0.72%、1.36%、1.03%, 说明了全连接神经网络获取字的位置特征的有效性. 由于本文将字的位置特征加入字的向量表示, 所以能在一定程度上通过字在句中的位置判断字对应的标签, 正确识别训练集中未出现过的事故实体. 例如在“…57011次接触网检修车申请区间返回明光站…”句中, “明光站”这一事故地点实体在训练集中没有出现过, BiLSTM-CRF模型没有识别出该实体, 但融合字位置特征的命名实体识别模型判断出这些字处在事故地点实体经常出现在句中的位置, 再结合语义信息与上下文信息, 成功识别出了该实体.
为说明本文提出的融合字位置特征的铁路事故文本命名实体识别方法中各模块在命名实体识别问题中的作用, 使用TensorFlow自带的Embedding层替代Word2Vec模块, 移除CRF模块与字位置特征获取模块进行消融实验, 实验结果如表5所示.
由表5可见, 使用Embedding层替代Word2Vec模块后, 准确率降低了1.43%, 召回率降低了2.5%, F1值降低了1.96%, 说明Word2Vec预训练语言模型能获取语义层面的字向量, 提升模型识别效果. 移除CRF模块后, 准确率降低了6.78%, 召回率降低了2.95%, F1值降低了4.94%, 说明CRF模块能考虑标签之间的约束关系, 得到全局最优的标注序列, 对模型识别效果的提升较大. 移除字位置特征获取模块造成模型识别效果的差异与实验结果的分析如上文所述, 说明对于铁路事故文本, 将字的位置特征加入字的向量表示中能进一步提升模型的识别能力.
模型对于铁路事故各个类别实体的识别效果如表6.
从表6可见, 事故时间、事故类型与事故列车这3类实体的F1值均达到了95%以上, 主要是因为这3类实体都具有较明显的边界特征且表述方式相对固定, 如事故时间多以“日、分、左右、许”等字结尾, 事故类型多以“事故”两字结尾, 事故列车常以字母或数字开头, 以“列车”两字结尾. 同时, 这3类实体在文本中所处的位置也较为固定, 事故时间常出现在句子开头, 事故类型常出现在句子结尾, 事故列车多出现在句中靠前的位置. 而事故地点、经济损失与伤亡情况3类实体的F1值略有下降, 分别为85.43%、89.47%与89.36%, 其中, 经济损失与伤亡情况两类实体的训练数据较少造成识别效果相对较差, 事故地点类实体识别效果较差的主要原因是我国铁路车站及线路名称众多, 导致实体边界特征不明显.
在标注错误的实例中, 较为典型的有以下几类: (1)事故列车实体“51677B次”中的“次”字被错误标注为“M-Train”, 这是因为该实体省略了“列车”两字, 使得实体边界识别错误. (2) “精河站检车员”中“精河站”作为“检车员”的定语出现, 不代表事故地点, 但由于本文提出的方法未考虑句子的语法特征, 导致该词被错误标注为事故地点类实体. (3)事故地点实体“西固城站”只识别出了“固城站”, “津霸联络线”只识别出了“联络线”, 造成这类错误的原因是事故地点实体的边界特征不明显.
简历文本与事故文本类似, 拥有实体出现位置较为固定的特点, 故本文在中文简历数据集[10]上进行实验验证模型在不同领域的适用性, 实验结果如表7所示.
从表7可以看出, 本文提出的融合字位置特征的命名实体识别方法在中文简历数据集上的F1值均高于80%, 在多数实体类别上F1值高于90%, 实验结果说明融合字位置特征的命名实体识别方法适用于不同领域的实体识别研究.
在提取相应实体后, 将铁路事故知识以三元组的形式加载到Neo4j图数据库中进行知识的整合与存储. 结构化铁路事故知识局部效果如图6所示(由事故时间实体、事故列车实体与事故类型实体拼接作为铁路事故的唯一标识实体). 由此可完成铁路事故快速检索、事故相关信息的统计分析工作.
5 结论与展望
本文根据铁路事故领域知识图谱的应用需求, 对铁路事故文本的命名实体识别问题进行了研究, 定义了该领域6类概念. 在此基础上, 收集整理并标注了1 000篇铁路事故案例文本作为实验语料, 提出了融合字位置特征的命名实体识别方法. 该方法关注到事故文本本身的特点, 将字的位置特征加入字的向量表示中. 实验表明, 相比于传统模型, 本文提出的方法具有更优的识别效果且适用于实体在文本中出现位置较为固定的其他特殊领域的实体识别研究.
铁路事故领域没有大规模的标注数据, 采用人工标注的方法费时费力. 在未来的研究工作中, 将基于所提的方法引入迁移学习, 使用少量标注数据进行铁路事故命名实体识别研究. 另外, 为构建铁路事故领域知识图谱, 后续会开展事故原因的实体关系联合抽取研究, 从而更好地满足铁路事故领域知识图谱的应用需求.
[1] |
刘浏, 王东波. 命名实体识别研究综述. 情报学报, 2018, 37(3): 329-340. DOI:10.3772/j.issn.1000-0135.2018.03.010 |
[2] |
Bikel DM, Miller S, Schwartz R, et al. Nymble: A high-performance learning name-finder. Proceedings of the 5th Conference on Applied Natural Language Processing. Washington: ACM, 1997. 194–201.
|
[3] |
何炎祥, 罗楚威, 胡彬尧. 基于CRF和规则相结合的地理命名实体识别方法. 计算机应用与软件, 2015, 32(1): 179-185, 202. DOI:10.3969/j.issn.1000-386x.2015.01.046 |
[4] |
Huang ZH, Xu W, Yu K. Bidirectional LSTM-CRF models for sequence tagging. arXiv:1508.01991, 2015.
|
[5] |
Ma XZ, Hovy E. End-to-end sequence labeling via bi-directional LSTM-CNNs-CRF. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin: Association for Computational Linguistics, 2016. 1064–1074.
|
[6] |
Strubell E, Verga P, Belanger D, et al. Fast and accurate entity recognition with iterated dilated convolutions. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen: Association for Computational Linguistics , 2017. 2670–2680.
|
[7] |
申晖, 张英俊, 谢斌红, 等. 基于BSTTC模型的中文命名实体识别. 计算机系统应用, 2021, 30(6): 262-270. DOI:10.15888/j.cnki.csa.007935 |
[8] |
宋建炜, 邓逸川, 苏成. 基于预训练语言模型的建筑施工安全事故文本的命名实体识别研究. 图学学报, 2021, 42(2): 307-315. |
[9] |
刘鹏, 叶帅, 舒雅, 等. 煤矿安全知识图谱构建及智能查询方法研究. 中文信息学报, 2020, 34(11): 49-59. DOI:10.3969/j.issn.1003-0077.2020.11.007 |
[10] |
Zhang Y, Yang J. Chinese NER using lattice LSTM. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne: Association for Computational Linguistics, 2018. 1554–1564.
|
[11] |
Hua LL, Zheng W, Gao SG. Extraction and analysis of risk factors from Chinese railway accident reports. 2019 IEEE Intelligent Transportation Systems Conference (ITSC). Auckland: IEEE, 2019. 869–874.
|
[12] |
Li XQ, Shi TY, Li P, et al. BiLSTM-CRF model for named entity recognition in railway accident and fault analysis report. Proceedings of the Asia-Pacific Conference on Intelligent Medical 2018 & International Conference on Transportation and Traffic Engineering 2018. Beijing: ACM, 2018. 1–5.
|
[13] |
李舟军, 范宇, 吴贤杰. 面向自然语言处理的预训练技术研究综述. 计算机科学, 2020, 47(3): 162-173. DOI:10.11896/jsjkx.191000167 |
[14] |
Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space. arXiv:1301.3781, 2013.
|
[15] |
Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality. Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe: ACM, 2013. 3111–3119.
|
[16] |
雷树杰, 邢富坤, 王闻慧. 融合多类型特征的特定领域实体识别研究. 计算机应用与软件, 2019, 36(11): 210-217. DOI:10.3969/j.issn.1000-386x.2019.11.034 |
[17] |
董瑞, 杨雅婷, 蒋同海. 融合多种语言学特征的维吾尔语神经网络命名实体识别. 计算机应用与软件, 2020, 37(5): 183-188. |
[18] |
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 |
[19] |
Graves A, Jaitly N, Mohamed A. Hybrid speech recognition with deep bidirectional LSTM. 2013 IEEE Workshop on Automatic Speech Recognition and Understanding. Olomouc: IEEE, 2013. 273–278.
|
[20] |
Yang J, Zhang Y, Li LW, et al. YEDDA: A lightweight collaborative text span annotation tool. Proceedings of ACL 2018, System Demonstrations. Melbourne: Association for Computational Linguistics, 2017. 31–36.
|
[21] |
Hinton GE, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing co-adaptation of feature detectors. arXiv:1207.0580, 2012.
|
[22] |
Kingma DP, Ba J. Adam: A method for stochastic optimization. Proceedings of the 3rd International Conference on Learning Representations. arXiv:1412.6980, 2015.
|