命名实体识别(Named Entity Recognition, NER)是自然语言处理的关键技术之一, 同时也是作为知识抽取的一项子任务, 其主要作用就是从海量文本中识别出特定类别的实体, 例如人名、地名、组织机构名以及领域专有词汇等. 中文命名实体识别是信息抽取、信息检索、知识图谱、机器翻译和问答系统等多种自然语言处理技术必不可少的组成部分, 在自然语言处理技术走向实用化的过程中占有重要地位. 因此, 命名实体识别作为自然语言处理最基础的任务, 对它的研究则具有非凡的意义与作用. 在中文实体识别任务中, 其难点主要表现在以下几个方面: (1)命名实体类型与数量众多, 而且不断有新的实体涌现, 如新的人名、地名等; (2)命名实体构成结构较复杂, 如组织机构存在大量的嵌套、别名以及缩略词等问题, 没有严格的命名规律; (3)命名实体识别常常与中文分词、浅层语法分析等相结合, 而这两者的可靠性也直接决定命名实体识别的有效性, 使得中文命名实体识别更加困难. 因此, 中文命名实体识别研究还存在很大的提升空间, 有必要对其做进一步的研究.
1 相关工作命名实体识别从最早期开始, 主要是基于词典与规则的方法, 它们依赖于语言学家的手工构造的规则模板, 容易产生错误, 不同领域间无法移植. 因此, 这种方法只能处理一些简单的文本数据, 对于复杂非结构化的数据却无能为力. 随后主要是基于统计机器学习的方法, 这些方法包括隐马尔可夫模型(HMM)、最大熵模型(MEM)、支持向量机(SVM)和条件随机场(CRF)等. 例如, 彭春艳等人[1]就利用CRF结合单词结构特性与距离依赖性, 在生物命名实体上取得较好的结果; 鞠久朋等人[2]提出把CRF与规则相结合来进行地理空间命名实体识别, 该算法有效地提高了地理空间命名实体识别的性能; 乐娟等人[3]提出基于HMM的京剧机构命名实体识别算法, 并且取得相当不错的效果. 在基于机器学习的方法中, NER被当作序列标注问题, 利用大规模语料来学习标注模型. 但是这些方法在特征提取方面仍需要大量的人工参与, 且严重依赖于语料库, 识别效果并非很理想. 近些年来, 深度学习被应用到中文命名实体识别研究上. 基于深度学习的方法, 是通过获取数据的特征和分布式表示, 避免繁琐的人工特征抽取, 具有良好的泛化能力. 最早使用神经网络应用到命名实体研究上是Hammerton等人[4], 他们使用单向的长短期记忆网络(LSTM), 该网络具有良好的序列建模能力, 因此LSTM-CRF成为了实体识别的基础架构; 后来在该模型的基础上, Guillaume Lample等人[5]提出双向长短期记忆网络(Bidirectional Long Short-Term Memory, BiLSTM)和条件随机场(CRF)结合的神经网络模型, 这种双向结构能够获取上下文的序列信息, 因此在命名实体识别等任务中得到相当广泛的应用, 并且他们利用BiLSTM-CRF模型在语料库CoNLL-2003取得了比较高的F1值90.94%; Collobert等人[6]就首次使用CNN与CRF结合的方式应用于命名实体识别研究中, 在CoNLL-2003上取得不错的效果; Huang等人[7]在BiLSTM-CRF模型的基础上融入人工设计的拼写特征, 在CoNLL-2003语料上达到了88.83%的F1值; Chiu和Nichols等人[8]在LSTM模型前端加入CNN处理层, 在CoNLL-2003语料库上达到了91.26%的F1值; 在生物医学领域上, 李丽双等人[9]利用CNN-BiLSTM-CRF神经网络模型在Biocreative Ⅱ GM和JNLPBA2004语料上取得了目前最好的F1值, 分别为89.09%和74.40%; 在化学领域上, Ling Luo等人[10]采用基于attention机制的BiLSTM-CRF模型, 在BioCreative IV数据集上取得91.14%的F1值; Fangzhao Wu等人[11]提出联合分词与CNN-BiLSTM-CRF模型共同训练, 增强中文NER模型实体识别边界的能力, 同时又介绍了一种从现有标记数据中生成伪标记样本的方法, 进一步提高了实体识别的性能; 秦娅等人[12]在深度神经网络模型的基础上, 提出一种结合特征模板的CNN-BiLSTM-CRF网络安全实体识别方法,利用人工特征模板提取局部上下文特征, 在大规模网络安全数据集上F1值达到86%; 武惠等人[13]联合迁移学习和深度学习应用到中文NER上, 也取得了较好的效果; 王红斌[14]、王银瑞[15]利用迁移学习来进行实体识别, 该方法相对监督学习方法很大程度上减少了人工标注语料的工作量; Dong等[16]提出了Radical-BiLSTM-CRF模型使用双向LSTM提取字根序列的特征, 然后与字向量拼接组成模型的输入; 刘晓俊等人[17]利用基于attention机制的DC-BiLSTM-CRF模型在MSRA语料上F1值最高可达到92.05%; Zhang等人[18]提出的Lattice LSTM模型, 它显式地利用了词与词序列信息, 避免了分词错误的传递, 在MSRA语料上取得了较高的F1值93.18%; Liu等人[19]提出WC-LSTM模型, 把词信息加入到整个字符的开头或末尾, 增强语义信息, 在MSRA语料上取得了93.74%的F1值; 王蕾等人[20]则是利用片段神经网络结构, 实现特征的自动学习, 并在MSRA语料上取得90.44%的F1值.
然而以上方法存在这样的一个问题: 这些方法无法表征一词多义, 因为它们主要注重词、字符或是词与词之间的特征提取, 而忽略了词上下文的语境或语义, 这样提取出来的只是一种不包含上下文语境信息的静态词向量, 因而导致其实体识别能力下降. 为解决该问题, 谷歌团队Jacob Devlin等人[21]所提出来一种BERT (Bidirectional Encoder Representation from Transformers)语言预处理模型来表征词向量, BERT作为一种先进的预训练词向量模型, 它进一步增强词向量模型泛化能力, 充分描述字符级、词级、句子级甚至句间关系特征, 更好地表征不同语境中的句法与语义信息. Fábio Souza等人[22]采用BERT-CRF模型应用到Portuguese NER上, 在HAREM I上取得最佳的F1值; Jana Straková等人[23]把BERT预处理模型应用到实体识别上, 在CoNLL-2002 Dutch、Spanish 和 CoNLL-2003 English上取得相当理想的效果. 由于BERT具有表征一词多义的能力, 本文在此基础上提出一种BERT-BiLSTM-CRF神经网络模型, 该模型首先利用BERT预训练出词向量, 再将词向量输入到BiLSTM做进一步训练, 最后通过CRF解码预测最佳序列. 实验结果表明, 该模型在MSRA语料和人民日报语料库上分别达到了94.65%和95.67%的F1值.
本文的创新点主要有以下两点: ① 将语言预训练模型BERT应用到中文实体识别中, 语言预训练是作为中文实体识别的上游任务, 它把预训练出来的结果作为下游任务BiLSTM-CRF的输入, 这就意味着下游主要任务是对预训练出来的词向量进行分类即可, 它不仅减少了下游任务的工作量, 而且能够得到更好的效果; ② BERT语言预训练模型不同于传统的预训练模型, BERT预训练出来的是动态词向量, 能够在不同语境中表达不同的语义, 相较于传统的语言预训练模型训练出来的静态词向量(无法表征一词多义), 在中文实体识别中具有更大的优势.
2 BERT-BiLSTM-CRF模型 2.1 模型概述近几年来, 对于实体识别的上游任务语言预处理而言, 它一直是研究的热点问题. 而BERT作为先进的语言预处理模型, 可以获取高质量的词向量, 从而更有利于实体识别的下游任务进行实体提取和分类. 本文提出的BERT-BiLSTM-CRF模型整体结构如图1所示, 这个模型主要分3个模块. 首先标注语料经过BERT预训练语言模型获得相应的词向量, 之后再把词向量输入到BiLSTM模块中做进一步处理, 最终利用CRF模块对BiLSTM模块的输出结果进行解码, 得到一个预测标注序列, 然后对序列中的各个实体进行提取分类, 从而完成中文实体识别的整个流程.
本文模型最大的优势在于BERT语言预处理模型的应用, 它不再需要提前训练好字向量和词向量, 只需要将序列直接输入到BERT中, 它就会自动提取出序列中丰富的词级特征、语法结构特征和语义特征. Ganesh Jawahar等人[24]对BERT模型的内在机理做了进一步的研究, 指出对于BERT模型每一层学习到的特征是不尽相同的. BERT模型的底层主要是获取短语级别的特征信息, 中层主要是学习到句法结构特征信息, 顶层则是捕获整个句子的语义信息, 经过BERT处理过后能够获得语境化的词向量, 对处理长距离依赖信息的语句有很好的效果. 而对于传统模型, 它们主要集中在词语或字符级别特征信息的获取, 而对于句法结构以及语义信息很少涉及. 可以看出BERT模型特征抽取能力明显强于传统模型.
2.2 BERT模块多年来, 对语言模型的研究先后经历了one-hot、Word2Vec、ELMO、GPT到BERT, 前几个语言模型均存在一些缺陷, 如Word2Vec模型训练出来的词向量是属于静态Word Embedding, 无法表示一词多义; GPT则是单向语言模型, 无法获取一个字词的上下文. 而对BERT模型而言, 它是综合ELMO和GPT这两者的优势而构造出来的模型. Fábio Souza[22]利用BERT提取更强的句子语义特征来进行命名实体识别, 并取得相当不错的效果. 由于BERT具有很强的语义表征优势, 本文就利用BERT获取语境化的词向量来提高实体识别的性能. 但是本文采取的BERT模块与Fábio Souza[22]有不同之处: 在对句子进行前期处理时, 他采用的是以字符为单位进行切分句子. 因此, 这样的分词方式会把一个完整的词切分成若干个子词, 在生成训练样本时, 这些被分开的子词会随机被Mask. 而本文则按照中文的分词习惯, 于是将全词Mask[25]的方法应用到中文上, 在全词Mask中, 如果一个完整的词的部分被Mask, 则同属该词的其他部分也会被Mask. 具体如表1所示.
具体BERT模型结构如图2所示.
对于任意序列, 首先通过分词处理得到分词文本序列; 然后对分词序列的部分词进行全词Mask, 再为序列的开头添加一个特殊标记[CLS], 句子间用标记[SEP]分隔. 此时序列的每个词的输出Embedding由3部分组成: Token Embedding、Segment Embedding和Position Embedding. 将序列向量输入到双向Transformer进行特征提取, 最后得到含有丰富语义特征的序列向量.
对于BERT而言, 其关键部分是Transformer结构. Transformer是个基于“自我注意力机制”的深度网络, 其编码器结构图如图3所示.
该编码器的关键部分就是自注意力机制, 它主要是通过同一个句子中的词与词之间的关联程度调整权重系数矩阵来获取词的表征:
$Attention(Q,K,V) = Softmax \left({\frac{{Q{K^{\rm T}}}}{{\sqrt {{d_k}} }}}\right)V$ | (1) |
其中,
$MultiHead(Q,K,V) = Concat(hea{d_1},\cdots,hea{d_n}){W^O}$ | (2) |
$hea{d_i} = Attention(QW_i^Q,KW_i^K,VW_i^V)$ | (3) |
因此模型就可以得到不同空间下的位置信息, 其中
由于Transformer并没有像RNN一样能够获取整个句子的序列能力, 因此为解决这个问题, Transformer在数据预处理前加入了位置编码, 并与输入向量数据进行求和, 得到句子中每个字的相对位置.
而Transformer结构中的全链接前馈网络有两层dense: 第一层的激活函数是ReLU, 第二层是一个线性激活函数. 如果多头注意力机制的输出表示为Z,
$FFN(Z) = \max (0,Z{W_1} + {b_1}){W_2} + {b_2}$ | (4) |
LSTM (Long-Short Term Memory, 长短期记忆网络), 是循环神经网络(RNN)的一种变体. 它解决了RNN训练时所产生的梯度爆炸或梯度消失. LSTM巧妙地运用门控概念实现长期记忆, 同时它也能够捕捉序列信息. LSTM单元结构如图4.
LSTM的核心主要是以下结构: 遗忘门、输入门、输出门以及记忆Cell. 输入门与遗忘门两者的共同作用就是舍弃无用的信息, 把有用的信息传入到下一时刻. 对于整个结构的输出, 主要是记忆Cell的输出和输出门的输出相乘所得到的. 其结构用公式表达如下:
$\begin{array}{l} {i_t} = \sigma ({W_{xi}}{x_t} + {W_{hi}}{h_{t - 1}} + {W_{ci}}{c_{t - 1}} + {b_i})\\ {{\textit{z}}_t} = \tanh ({W_{xc}}{x_t} + {W_{hc}}{h_{t - 1}} + {b_c})\\ {f_t} = \sigma ({W_{xf}}{x_t} + {W_{hf}}{h_{t - 1}} + {W_{cf}}{c_{t - 1}} + {b_f})\\ {c_t} = {f_t}{c_{t - 1}} + {i_t}{{\textit{z}}_t}\\ {o_t} = \tanh ({W_{xo}}{x_t} + {W_{ho}}{h_{t - 1}} + {W_{co}}{c_t} + {b_o})\\ {h_t} = {o_t}\tanh ({c_t}) \end{array}$ | (5) |
其中,
由于单向的LSTM模型无法同时处理上下文信息, 而Graves A等人[26]提出的BiLSTM (Bidirectional Long-Short Term Memory, 双向长短期记忆网络), 其基本思想就是对每个词序列分别采取前向和后向LSTM, 然后将同一个时刻的输出进行合并. 因此对于每一个时刻而言, 都对应着前向与后向的信息. 具体结构如图5所示. 其中输出如以下式所示:
${h_t} = [\mathop {{h_t}}\limits^ \to ,{\mathop {h_t}\limits^ \leftarrow }]$ | (6) |
2.4 CRF模块
在命名实体识别任务中, BiLSTM善于处理长距离的文本信息, 但无法处理相邻标签之间的依赖关系. 而CRF能通过邻近标签的关系获得一个最优的预测序列, 可以弥补BiLSTM的缺点. 对于任一个序列
$s(X,Y) = \sum\limits_{i = 0}^n {{A_{{y_i},{y_{i + 1}}}} + \sum\limits_{i = 1}^n {{P_{i,{y_i}}}} } $ | (7) |
A表示转移分数矩阵,
$p(Y\left| X \right.) = \frac{{{e^{s(X,Y)}}}}{{\displaystyle\sum\limits_{\mathop Y\limits^ \sim \in {Y_X}} {s(X,\mathop Y\limits^ \sim )} }}$ | (8) |
两头取对数得到预测序列的似然函数:
$\ln (p(Y\left| X \right.)) = s(X,Y) - \ln (\sum\limits_{\mathop Y\limits^ \sim \in {Y_X}} {s(X,\mathop Y\limits^ \sim )} )$ | (9) |
式中,
${Y^ * } = \mathop {\arg \max }\limits_{\mathop Y\limits^ \sim \in {Y_X}} s(X,\mathop Y\limits^ \sim )$ | (10) |
本文主要采用人民日报语料库和MSRA语料作为实验的数据集, 这两个数据集是国内公开的中文评测数据集. 它们包含了3种实体类型, 分别是人名、地名和组织机构. 本实验主要对人名、地名以及组织机构进行识别评测. 语料具体规模如表2所示.
3.2 数据集标注与评价指标
命名实体识别常用的标注体系有BIO体系、BIOE体系以及BIOES体系, 本文选用的是BIO体系, 该体系的标签有7个, 分别是“O”、“B-PER”、“I-PER”、“B-ORG”、“I-ORG”、“B-LOC”、“I-LOC”.
本文采用召回率R、精确率P和F1值来评判模型的性能, 各评价指标的计算方法如下:
$\begin{array}{l} P = \dfrac{a}{B} \times 100\% \\ R = \dfrac{a}{A} \times 100\% \\ F1 = \dfrac{{2PR}}{{P + R}} \times 100\% \end{array}$ | (11) |
式中,
本实验是基于Tensorflow平台搭建, 具体训练环境配置如表3所示.
3.3.2 实验参数配置
训练过程中, 采用Adam优化器, 学习速率选取0.001. 同时, 还设置LSTM_dim为200, batch_size为64, max_seq_len为128. 为防止过拟合问题, 在BiLSTM的输入输出中使用Dropout, 取值为0.5. 具体超参数设定如表4所示.
3.4 实验结果
为了对本文模型做出更加客观的评价, 本文分别对人民日报语料和MSRA语料进行测评, 具体实验结果如表5至表8所示(注: 表中的BERT-BiLSTM-CRF指的是全词Mask下的BERT-BiLSTM-CRF).
3.4.1 BERT-BiLSTM-CRF和传统经典神经网络模型的对比实验
首先, 比较LSTM-CRF和BiLSTM-CRF这两者实验结果, 后者的F1值在人民日报语料和MSRA语料上比前者分别高出3.09%、3.56%. 从此可看出, BiLSTM能够利用双向结构获取上下文序列信息, 因此效果要优于LSTM. 其次, 比较BiLSTM与BiLSTM-CRF的实验结果, 增加CRF模块后, F1值在两者语料上分别提高了5.04%、7.99%, 这主要归因于CRF模块能够充分利用彼此相邻标签的关联性, 像“B-PER I-ORG ···”这样的标签序列无法有效地输出, 从而可以获得全局最优的标签序列, 进而能够改善实体识别性能. 随后在BiLSTM-CRF的基础上, 引入BERT模型(原始Mask)进行词向量预处理, 从实验的各项指标来看, 效果相当理想, F1值高达94.74%、94.21%, 同比BiLSTM-CRF模型, F1值已经提高了9.65%、9.17%. 加入的BERT模型, 该模型可以充分提取字符级、词级、句子级甚至句间关系的特征, 从而使预训练出来的词向量能够更好地表征不同语境中的句法与语义信息, 进而增强模型泛化能力, 提高实体识别的性能. 当全词Mask取代原始Mask的BERT时, 在人民日报语料、MSRA语料上分别提高了0.93%、0.44%, 说明其提取的特征能力更强.
此外, 本文还对比分析了前20轮的F1值更新情况(以人民日报测试结果为例), 如图6所示. 在训练初期, 两种BERT-BiLSTM-CRF模型就能够达到一个较高的水平, 并且会持续提升, 最后保持在相当高的水平上; 而对于传统经典神经网络模型, 在初期就处于一个相当低的水平, 只有经过多次迭代更新才会上升到一个较高的水平, 但还是无法超过BERT-BiLSTM-CRF模型.
同时也对比各模型训练一轮所需的时间(以人民日报测试结果为例), 如表7所示.
值得比较的是后两个模型, BERT-BiLSTM-CRF(原始Mask)训练一轮的所需时间是本文模型的15倍左右, 而且本文模型的训练时间在所有模型中是最少的, 说明全词Mask的BERT具有更高的训练效率.
3.4.2 BERT-BiLSTM-CRF和现有其他工作的对比从表8中可以看出, DC-BiLSTM-CRF模型利用DC-BiLSTM来学习句子特征, 应用自注意力机制来捕捉两个标注词语的关系; Radical-BiLSTM-CRF模型使用双向LSTM提取字根序列的特征, 然后与字向量拼接组成模型的输入; Lattice-LSTM模型则是把传统的LSTM单元改进为网格LSTM, 然后显式地利用词与词序信息, 避免了分词错误的传递; 对于WC-LSTM而言, 则是利用词语信息加强语义信息, 减少分词错误的影响; 片段神经网络结构通过片段信息对片段整体进行分配标记, 从而完成实体识别. 这几种改进模型很大程度上提高了F1值.
但是上述的改进模型始终停留在对字符和词语特征的提取, 导致这些改进模型有一定的局限性. 例如, “南京市长江大桥”, 这个短语可以理解为“南京市-长江大桥”, 以也可以理解为“南京市长-江大桥”, 然而上述的模型只能获取其中的一种意思, 无法同时表征两种意思. 而本文提出的BERT-BiLSTM-CRF模型能很好地解决这个问题. BERT是构建于Transformer之上的预训练语言模型, 它的特点之一就是所有层都联合上下文语境进行预训练. 因此BERT模型网络不仅可以学习到短语级别的信息表征以及丰富的语言学特征, 而且也能够学习到丰富的语义信息特征. 对于上面的“南京市长江大桥”这个例子, BERT根据上下文不同的语境信息能够准确区分出这两种意思. 所以本文提出的BERT-BiLSTM-CRF与BERT-IDCNN-CRF模型两者相差不大, 而本文模型的F1值在MSRA语料上达到了94.65%. 通过对上述多种模型的对比分析, BERT-BiLSTM-CRF模型在所有模型中都表现出最佳的效果, 说明BERT相比其他模型, 其特征抽取能力更强.
4 结语针对中文实体识别任务, 本文通过BERT语言预处理模型获得语境化的词向量, 再结合经典神经网络模型BiLSTM-CRF, 构建BERT-BiLSTM-CRF模型. 在人民日报语料库和MSRA语料上分别进行评测, 相比其他模型, 本文的BERT-BiLSTM-CRF模型在这两者语料上都取得了最佳的结果. 本文模型, 其最大的优势在于BERT能够结合上下文的语义信息进行预训练, 能够学习到词级别、句法结构的特征和上下文的语义信息特征, 使得该模型相比其他模型, 具有更优的性能. 同时利用BiLSTM对词向量做进一步处理, 再结合CRF的优势, 进一步提高了中文实体识别的效果. 下一步工作可以考虑将其应用到其他领域, 进行相应的领域实体识别.
[1] |
彭春艳, 张晖, 包玲玉, 等. 基于条件随机域的生物命名实体识别. 计算机工程, 2009, 35(22): 197-199. DOI:10.3969/j.issn.1000-3428.2009.22.067 |
[2] |
鞠久朋, 张伟伟, 宁建军, 等. CRF与规则相结合的地理空间命名实体识别. 计算机工程, 2011, 37(7): 210-212, 215. DOI:10.3969/j.issn.1000-3428.2011.07.071 |
[3] |
乐娟, 赵玺. 基于HMM的京剧机构命名实体识别算法. 计算机工程, 2013, 39(6): 266-271. DOI:10.3969/j.issn.1000-3428.2013.06.059 |
[4] |
Hammerton J. Named entity recognition with long short-term memory. Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL. Stroudsburg, PA, USA. 2003. 172–175.
|
[5] |
Lample G, Ballesteros M, Subramanian S, et al. Neural architectures for named entity recognition. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. San Diego, CA, USA. 2016. 260–270.
|
[6] |
Pinheiro PHO, Collobert R. Recurrent convolutional neural networks for scene parsing. Proceedings of ICML. Beijing, China. 2014. 82–90.
|
[7] |
Huang ZH, Xu W, Yu K. Bidirectional LSTM-CRF models for sequence tagging. arXiv preprint arXiv: 1508.01991, 2015.
|
[8] |
Chiu JPC, Nichols E. Named entity recognition with bidirectional LSTM-CNNs. Transactions of the Association for Computational Linguistics, 2016, 4: 357-370. DOI:10.1162/tacl_a_00104 |
[9] |
李丽双, 郭元凯. 基于CNN-BLSTM-CRF模型的生物医学命名实体识别. 中文信息学报, 2018, 32(1): 116-122. DOI:10.3969/j.issn.1003-0077.2018.01.015 |
[10] |
Luo L, Yang ZH, Yang P, et al. An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition. Bioinformatics, 2018, 34(8): 1381-1388. DOI:10.1093/bioinformatics/btx761 |
[11] |
Wu FZ, Liu JX, Wu CH, et al. Neural Chinese named entity recognition via CNN-LSTM-CRF and joint training with word segmentation. The World Wide Web Conference. New York, NY, USA. 2019. 3342–3348.
|
[12] |
秦娅, 申国伟, 赵文波, 等. 基于深度神经网络的网络安全实体识别方法. 南京大学学报(自然科学), 2019, 55(1): 29-40. |
[13] |
武惠, 吕立, 于碧辉. 基于迁移学习和BiLSTM-CRF的中文命名实体识别. 小型微型计算机系统, 2019, 40(6): 1142-1147. |
[14] |
王红斌, 沈强, 线岩团. 融合迁移学习的中文命名实体识别. 小型微型计算机系统, 2017, 38(2): 346-351. |
[15] |
王银瑞, 彭敦陆, 陈章, 等. Trans-NER: 一种迁移学习支持下的中文命名实体识别模型. 小型微型计算机系统, 2019, 40(8): 1622-1626. DOI:10.3969/j.issn.1000-1220.2019.08.008 |
[16] |
Dong CH, Zhang JJ, Zong CQ, et al. Character-based LSTM-CRF with radical-level features for Chinese named entity recognition. In: Lin CY, Xue N, Zhao D, et al., eds. Natural Language Understanding and Intelligent Applications. Cham: Springer, 2016.239–250.
|
[17] |
刘晓俊, 辜丽川, 史先章. 基于Bi-LSTM和注意力机制的命名实体识别. 洛阳理工学院学报(自然科学版), 2019, 29(1): 65-70, 77. |
[18] |
Zhang Y, Yang J. Chinese NER using lattice LSTM. arXiv preprint arXiv: 1805.02023, 2018.
|
[19] |
Liu W, Xu TG, Xu QH, et al. An encoding strategy based word-character LSTM for Chinese NER. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Minneapolis, MN, USA. 2019. 2379–2389.
|
[20] |
王蕾, 谢云, 周俊生, 等. 基于神经网络的片段级中文命名实体识别. 中文信息学报, 2018, 32(3): 84-90, 100. DOI:10.3969/j.issn.1003-0077.2018.03.012 |
[21] |
Devlin J, Chang MW, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv: 1810.04805, 2018.
|
[22] |
Souza F, Nogueira R, Lotufo R. Portuguese named entity recognition using BERT-CRF. arXiv preprint arXiv: 1909.10649, 2019.
|
[23] |
Straková J, Straka M, Hajič J. Neural architectures for nested NER through linearization. arXiv preprint arXiv: 1908.06926, 2019.
|
[24] |
Jawahar G, Sagot B, Seddah D. What does BERT learn about the structure of language? Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence, Italy. 2019. 3651–3657.
|
[25] |
Cui YM, Che WX, Liu T, et al. Pre-training with whole word masking for Chinese BERT. arXiv preprint arXiv: 1906.08101, 2019.
|
[26] |
Graves A, Schmidhuber J. Framewise phoneme classification with bidirectional LSTM and other neural network architectures. Neural Network, 2005, 18(5–6): 602-610. |
[27] |
Jia YZ, Xu XB. Chinese named entity recognition based on CNN-BiLSTM-CRF. 2018 IEEE 9th International Conference on Software Engineering and Service Science (ICSESS). Beijing, China. 2018. 1–4.
|
[28] |
李妮, 关焕梅, 杨飘, 等. 基于BERT-IDCNN-CRF的中文命名实体识别方法. 山东大学学报(理学版), 2020, 55(1): 102-109. |