目前, 我国的人工问诊制度还存在着许多问题. 主要体现在3个方面: 一是城乡医疗资源不平衡, 欠发达地区的医疗基础设施和专业医护人员相比发达地区还有一定的差距; 二是我国是一个人口大国, 目前的医疗资源还不足以满足所有人的医疗需求; 三是互联网的医疗问答工作混乱, 信息来源不明. 且对于一些无需大费周章到医院问诊的小病, 例如感冒、头晕, 在线问答往往会夸大其词, 造成患者不必要的恐慌.
另外, 受限于中文自身的语言特性, 对医疗问句的理解有限成了中文医疗问答系统主要的性能瓶颈. 在这一方面, 近几年来也有学者进行过相关的研究: Jiang等人[1]提出了一种字符串匹配的方式来对问句进行分类, Zhou等人[2]采用TF-IDF和贝叶斯算法对问句进行理解和分类, Gao等人[3]采用TF-IDF结合Word2Vec的方式理解中文问句. 但以上的研究中, 各模型对于中文语言的理解还不够深入, 且研究方向主要集中在问句分类上, 很少利用问句中的实体信息来增强对问句的理解.
基于上述问题, 本文从专业可靠的医疗网站上获取医疗信息, 构建了基于知识图谱的智能问答系统, 并利用富含语义信息的BERT模型, 结合意图识别和槽位填充等自然语言技术进一步加强了问答系统对用户问句的理解, 使得问答系统的回复更加精准有用. 本文的贡献总结如下.
(1) 利用爬虫技术, 从互联网上专业可靠的医疗平台上获取大量结构化数据, 并利用这些数据, 构建了一个医疗知识图谱, 并进一步构建了医疗智能问答系统.
(2) 提出了基于BERT的医疗意图分类模型, 用于准确识别出用户输入问句中的意图信息.
(3) 提出了基于BERT+BiLSTM+CRF的槽位填充模型, 用于准确识别出用户输入问句中的实体信息.
2 相关研究自然语言理解(natural language understanding, NLU)是自然语言处理下的一个任务分支, 其目的在于研究如何使机器理解人类自然语言. 近些年来对于这一问题的研究层出不穷, 其主要的研究思路是将自然语言理解任务分解为意图识别和槽位填充两个子任务. 其中, 意图识别的目的是确定句子意图, 而槽位填充的目的是获取句子实体信息.
意图识别(intent recognition)通常被认为是文本分类问题, 因此其解决思路也是围绕着这一点展开的. Ravuri等人[4]提出了使用RNN和LSTM网络用于获取丰富的句子上下文关系从而进行意图识别. Hashemi等人[5]则提出了使用CNN网络获取句子中的卷积特征进行意图识别. 而Firdaus等人[6]更是对LSTM、CNN、GRU等模型的集成模型如何用于意图识别进行了研究. 随着预训练模型的兴起, 使用GloVe、Word2Vec、BERT等预训练模型先进行词嵌入, 后应用于下游任务的方式也逐渐证明了其优越性[7].
与意图识别任务类似, 槽位填充(slot filling)也通常被认为是序列标注任务中的命名实体识别任务(named entity recognition, NER). Mesnil等人[8]和Vu[9]分别探索了如何利用RNN和CNN模型处理槽位填充任务, 也都取得了不错的效果. Louvan等人[10]则提出了一种更加高效地解决槽位填充的模型: BiLSTM-CRF, 同时该模型也被广泛用于中文相关数据集[11].
3 基于BERT的中文医疗问答系统构建本文构建的医疗问答系统主要分为3个模块, 分别是: 知识图谱模块, 意图识别模块, 槽位填充模块. 如图1所示, 在用户的医疗问句输入系统后, 系统将通过意图识别和槽位填充模块识别出问句中的意图信息和实体信息. 接着将这些信息代入到知识图谱中进行查询并最终将相应的答案输出. 下面我们将分别阐述这3个模块的具体实现.
3.1 构建知识图谱
知识图谱作为一种基于图的数据结构, 也是一种揭示实体之间关系的语义网络, 其通过节点和边的相互搭配组合可以以结构化的方式描述客观世界中的概念、实体及属性关系, 因此被广泛用于问答系统中[12]. 与此同时, 构建知识图谱需要获取大量结构化数据, 因此本文利用爬虫技术, 从国内可靠的医疗数据网站——寻医问药网( http://www.xywy.com/)上爬取了大量的医疗数据用于构建本系统的知识图谱.
对于从网站上抓取至本地的原始数据, 我们利用XPATH和正则表达式等文本处理技术, 按照网页排版规律, 依次提取其中的实体、属性、关系信息, 并将文本中含有的“\n”“\t”等特殊字符一一去除, 最终以JSON格式的文件形式存储在本地, 实现了从非结构数据到结构化数据的转换.
最后, 我们一共获取到了5类实体和5类关系. 其中, 每个疾病实体含有14种属性, 且疾病实体是其他实体之间的中心实体, 也是关系数量最多的实体. 在本文系统构建的知识图谱中, 一共有30402个节点以及206873对关系, 其具体的实体、属性、关系信息如表1所示.
对于知识图谱的存储方式, 本文采用了开源图形数据库Neo4j存储医疗知识图谱. Neo4j提供了功能强大的Cypher语言, 支持在知识图谱中进行复杂的关系查询. 我们利用Neo4j为我们获取到的每一个实体构建节点, 并将其对应的属性信息存储到节点中, 接着再根据实体间的关系信息, 创建对应边连接实体. 通过这种方式, 我们完成了知识图谱的构建和存储, 图2展示了本系统中关于阿洪病部分知识在图数据库中的存储.
3.2 意图识别
在系统获得用户的文本输入后, 系统需要正确识别出用户的询问意图, 才能继续查询相应的结果. 本文提出使用BERT模型来解决医疗问答系统中的意图识别任务, 相比于以Word2Vec和GloVe为代表的静态词向量方法, 作为动态词向量的BERT在预训练过程中充分计算了文本的上下文表示, 可以解决静态词向量无法解决的一词多义问题. 同时, 通过BERT表示的文本, 其向量稠密度也更高, 语义信息的表示能力也更强.
BERT处理问句意图分类问题的过程如图3所示. 对于一个问句文本序列
$ X = {\text{[CLS] }}{x_1}{x_2}\cdots{x_n}{\text{ [SEP]}} $ | (1) |
接下来将
$ h = {\text{BERT}}(X) $ | (2) |
BERT在文本分类任务中使用的是[CLS]标签对应的隐含层
$ P = {\textit{Softmax}}({h_0}{W^o} + {b^o}) $ | (3) |
其中,
3.3 槽位填充
在确定了用户输入文本的意图后, 下一步要确定的就是其具体的实体信息, 以便系统在知识库中查询具体的知识信息, 而识别实体信息就是槽位填充任务的主要内容, 因此本文提出使用BERT-BiLSTM-CRF模型来解决该问题. 如图4所示, 该模型分为3层: BERT层、BiLSTM层、CRF层. 输入文本在经过BERT模型获取了文本表示后, 利用BiLSTM学习文本时序特征信息, 最后再经过CRF层得到全局最优序列.
BERT层与意图识别类似, 其主要作用是将输入文本通过式(1)和式(2)后得到其上下文语义表示
BiLSTM表示双向的LSTM网络, 可以获得更全面的时序特征信息. 双向LSTM将前向向后向LSTM网络应用于每个训练序列, 并将两个LSTM网络连接到同一个输出层. 如图5所示, LSTM计算单元包括3个门结构: 输入门、遗忘门和输出门. 具体的计算过程如下公式所示:
$\left\{ { \begin{split} & {f_t} = \sigma ({w_f}[{h_{t - 1}}, {x_t}] + {b_f}) \\ & {o_t} = \sigma ({w_o}[{h_{t - 1}}, {x_t}] + {b_o}) \\ & {u_t} = \tanh ({w_c}[{h_{t - 1}}, {x_t}] + {b_c}) \\ & {c_t} = {f_t} \odot {c_{t - 1}} + {i_t} \odot {u_t} \\ & {h_t} = {o_t} \odot \tanh ({c_t}) \end{split} } \right.$ | (4) |
其中,
$\left\{ { \begin{split} & \vec h = {\textit{LSTM}}({x_t}, {{\vec h}_{t - 1}}) \\ & \stackrel{\leftarrow}{h} = {\textit{LSTM}}({x_t}, {{\stackrel{\leftarrow}{h} }_{t - 1}}) \\ & \overset{\lower0.5em\hbox{$\smash{\scriptscriptstyle\leftrightarrow}$}} {h} = [\vec h, \stackrel{\leftarrow}{h} ] \end{split} } \right.$ | (5) |
由于LSTM只能考虑句子的上下文信息, 不能考虑标记之间的依赖关系, 而CRF可以通过学习标记之间的依赖关系来确保标记有效, 因此我们在BiLSTM层后引入CRF层以弥补BiLSTM的缺陷. CRF层使用以下公式用于对输入序列
$ \begin{split} & score(X, Y) = \sum\limits_{i = 1}^n {({P_{i, {y_i}}} + {W_{{y_i}, {y_{i + 1}}}})} \\ & P(Y|X) = \frac{{\exp (score(x, y))}}{{\displaystyle\sum\limits_{y'} {\exp (score(x, y'))} }} \end{split} $ | (6) |
4 实验与结果分析 4.1 实验数据集选择
为了评估我们提出的模型, 我们分别使用CBLUE[13]中的QIC数据集和CCKS 2017 Task 2的数据集来对我们的意图识别和槽位填充模型进行实验. 表2为两个数据集的数据情况.
QIC为医疗意图问句分类数据集, 包含了疾病表述、治疗方案、就医建议、注意事项等11种意图. 由于其数据量分布不均, 因此本文使用了前10种意图进行实验.
CCKS 2017 Task 2为医学电子病历命名实体识别数据集, 包含了疾病、症状、检查项目、治疗方式和身体部位这5类实体标记. 该数据集采用了BIO标记方式, 其中B表示字符属于实体的开始位置, I表示字符属于实体的其他位置, O表示字符不属于任何实体.
4.2 评价指标本文采用精确率
$\left\{ { \begin{split} & P=\frac{正确识别的标签个数}{识别出的所有标签个数}\times \text{100\%}\\ & R=\frac{正确识别的标签个数}{所有标签个数}\times \text{100\%}\\ & F1=\frac{2\times P\times R}{P+R}\times \text{100\%} \end{split} } \right.$ |
在我们的实验中, 我们采用了BERT Base预训练模型, 该模型包含了12层的编码器, 768个隐藏单元, 12个注意头, 110M个参数. 另外, 我们使用PyTorch搭建了我们提出的模型. 对于意图分类模型, 我们设置序列长度为45, 而对于槽位填充模型, 我们设置序列长度为128, 隐藏层大小为128. 两个模型的学习率均为1E–5, 训练次数为100.
为了评估我们提出的模型的性能, 我们将我们的模型与几个基线模型进行了比较. 对于意图分类模型, 我们对比了几种经典的文本分类模型, 包括Fasttext、LSTM、Text-CNN. 而对于槽位填充模型, 我们将我们的模型与LSTM、LSTM-CRF、BiLSTM、BiLSTM-CRF模型对比. 表3和表4显示了我们提出的模型和其他基线模型在QIC和CCKS2017数据集上的实验结果.
从表3可以看出, LSTM和Text-CNN模型在意图识别任务上表现效果相近, 而基于预训练模型BERT的意图识别效果要明显好于其他的意图识别模型. 从表4可以观察到, 双向LSTM网络比单向的LSTM模型在识别实体效果上有优势, 且使用了CRF层后的模型准确率也会比使用前有一定的提升. 而我们提出的综合了预训练模型BERT、双向LSTM网络和CRF层的模型在各方面指标上都优于其他模型.
实验证明, 我们提出的两个模型对比其他基线模型效果显著. 这说明了我们提出的两个模型能够更好地表示单词的语义信息, 能够很好地应对医疗领域问答系统的意图识别和槽位填充任务.
5 系统优化由于数据集中的医疗信息并不能完全覆盖知识图谱中存储的医疗信息, 为了提高医疗问答系统的问答能力, 我们将知识图谱中未能覆盖到的实体与数据集中相同类别的实体进行了替换并生成了新的数据. 我们利用这些数据将我们的意图识别和槽位填充模型进行二次训练, 使得模型的识别能力有了一定的增强, 能够与我们构建的知识图谱中的医疗信息相适应.
另外, 我们搭建了一个简单的图形交互界面, 以供用户使用, 系统的使用界面如图6所示.
6 结论与展望
本文的主要工作是基于互联网上可靠的医疗专业知识, 构建了一个高质量的医疗知识图谱. 基于此知识图谱, 我们提出了基于BERT的意图识别模型和基于BERT-BiLSTM-CRF的槽位填充模型来改进传统的医疗问答系统, 使系统对用户的问句文本理解更深入, 返回的答案更加精准. 另外, 我们还针对公开数据集和自建知识图谱信息覆盖不充分的问题做了一定的优化, 同时也设计了图形化界面以供用户进行使用. 最终, 我们成功构建了一个可靠的中文医疗问答系统, 该系统能够帮助解决人们对日常疾病相关知识的需求, 具有很高的应用价值. 值得注意的是, 本文提出的系统构造方法具有一般性, 可用于构建其他垂直领域的知识图谱问答系统, 对其他领域基于知识图谱的问答系统研究具有一定的参考价值. 在未来的工作中, 我们将进一步扩展知识图谱的内容以及增强问答系统的问答能力, 以提高系统回答的性能.
[1] |
Jiang ZX, Chi CY, Zhan YY. Research on medical question answering system based on knowledge graph. IEEE Access, 2021, 9: 21094-21101. DOI:10.1109/ACCESS.2021.3055371 |
[2] |
Zhou CY, Guan RC, Zhao CT, et al. A Chinese medical question answering system based on knowledge graph. Proceedings of the 15th IEEE International Conference on Big Data Science and Engineering (BigDataSE). Shenyang: IEEE, 2021. 28–33.
|
[3] |
Gao RX, Li C. Knowledge question-answering system based on knowledge graph of traditional Chinese medicine. Proceedings of the 9th IEEE Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Chongqing: IEEE, 2020. 27–31.
|
[4] |
Ravuri SV, Stolcke A. Recurrent neural network and LSTM models for lexical utterance classification. Proceedings of the 16th Annual Conference of the International Speech Communication Association. Dresden: INTERSPEECH, 2015. 135–139.
|
[5] |
Hashemi HB, Asiaee A, Kraft R. Query intent detection using convolutional neural networks. Proceedings of the 2016 International Conference on Web Search and Data Mining, Workshop on Query Understanding. 2016. 1–5.
|
[6] |
Firdaus M, Bhatnagar S, Ekbal A, et al. Intent detection for spoken language understanding using a deep ensemble model. Proceedings of the 15th Pacific Rim International Conference on Artificial Intelligence. Nanjing: Springer, 2018. 629–642.
|
[7] |
Korpusik M, Liu Z, Glass JR. A comparison of deep learning methods for language understanding. Proceedings of the 20th Annual Conference of the International Speech Communication Association. Graz: Interspeech, 2019. 849–853.
|
[8] |
Mesnil G, Dauphin Y, Yao KS, et al. Using recurrent neural networks for slot filling in spoken language understanding. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2015, 23(3): 530-539. DOI:10.1109/TASLP.2014.2383614 |
[9] |
Vu NT. Sequential convolutional neural networks for slot filling in spoken language understanding. Proceedings of the 17th Annual Conference of the International Speech Communication Association. San Francisco: Interspeech, 2016. 3250–3254.
|
[10] |
Louvan S, Magnini B. Exploring named entity recognition as an auxiliary task for slot filling in conversational language understanding. Proceedings of the 2018 EMNLP Workshop SCAI: The 2nd International Workshop on Search-Oriented Conversational AI. Brussels: ACL, 2018. 74–80.
|
[11] |
Zhang WT, Jiang SH, Zhao S, et al. A BERT-BiLSTM-CRF model for Chinese electronic medical records named entity recognition. Proceedings of the 12th International Conference on Intelligent Computation Technology and Automation (ICICTA). Xiangtan: IEEE, 2019. 166–169.
|
[12] |
郑泳智, 朱定局, 吴惠粦, 等. 知识图谱问答领域综述. 计算机系统应用, 2022, 31(4): 1-13. DOI:10.15888/j.cnki.csa.008418 |
[13] |
Zhang NY, Chen MS, Bi Z, et al. CBLUE: A Chinese biomedical language understanding evaluation benchmark. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Dublin: ACL, 2022. 7888–7915.
|