社会的高速发展, 带来群众各方面压力的日益增加, 工作强度越来越大, 饮食不规律, 不健康, 欠缺睡眠, 加上现在食品的安全性依然存在着很大的隐患, 导致身患消化内科疾病的人群日益增多. 有调查显示接近80%的人在有医药和疾病的疑问时, 首先会选择上网寻找帮助, 但是传统的搜索引擎在提供相关信息时, 大多采用关键词匹配技术, 在过去网络中已录入的信息进行匹配, 具备诸多限制, 类似于“过去几周”的关键词会被忽略, 并且由于用户的语言表达差异和网络信息的混乱, 网络存在的知识库并不能涵盖用户重要的意图, 无法满足实际的应用需求.
消化内科对话系统的研究需要大量数据, 而现有的医学公开数据集多为影像数据集, 没有问诊类的公开数据集. 其次, 同医学自然语言理解处理研究的大部分挖掘研究类似, 第一步都需要对数据进行分词, 但是因为消化内科疾病的种类繁多, 还有很多新的疾病不断被发现, 所涉及疾病名、症状表现名和药名很多, 中科院的汉语分词系统NLPIR、中文结巴分词等常用的分词工具在处理该领域分词的结果并不能给生成式对话系统构建提供保障. 国内中文医学术语的标准化的研究也比较少, 而国外如比较具备代表性如UMLS[1]等也缺乏对中文的支持.
本文在谷歌传统 seq2seq 框架的基础上, 运用 butterfly爬虫技术和主动学习结合获取相关网站消化内科约48万条问诊语料, 解决医疗问诊语料缺少问题. 在医学院消化科同学的帮助下, 结合医药库的消化科常用药名和常见病症, 通过统计分析构建约20万消化科领域词汇表, 运用基于词库与最大规则相结合的分词算法, 对问诊语料对进行分词处理. 结合Word2Vec构建自主的词向量, 并提出模型增强训练法获得消化科生成式问诊对话模型.
1 处理流程消化内科生成式问诊系统的实现过程主要涉及3个模块, 语料获取与处理、词向量构建、对话模型, 整体的框架如图1所示.
1.1 语料获取与预处理 1.1.1 构建词库
因为消化科文本的特殊性, 包括方位词、副词以及大量的专业词汇和否定词汇, 直接利用结巴分词类通用分词工具进行分词, 结果显示, 这些词当中大部分无法被识别, 分词效果极差. 但对话模型的训练过程涉及词之间相关性的建立过程, 且键值对向量的处理对分词的准确率有一定的要求, 为了提高分词的结果准确率, 本文构建自定义消化内科分词词库, 其主要由两大部分组成: 消化专业词库和停用词词库.
消化内科专业词库主要来源于以下几部分: 从现存医学网站爬取获得的消化科常见疾病和症状表现名称, 包括有问必答网、寻医问药网; 百度文库提供的消化科药品字典; 以及医学院同学对字典的补充. 词库内部结构如“胰腺炎 nz 260”, 其中“胰腺炎”为消化科专业词汇, nz代表其他专有名词, 260代表词频.
停用词库包含在问诊语料之中具有高频率但实际意义不大的词, 如: “的”、“请”, 包含介词、副词、语气词等.
1.1.2 数据预处理在问答对进行分词操作之前, 都会先进行文本的预处理. 第一, 根据自定义的停用词库, 去除文本中“的”、“①”等停用词; 第二, 由于网络获取的问答对经常会出现多个标点的情况, 如“?????”, 去掉重复; 第三, 很多药名有简称或者别名, 本文为了降低复杂性, 将有别名的药统一为同一药名, 如“奥美拉唑肠溶片”统一为“兰尼”.
1.1.3 分词现存的分词大致有3大类: 基于理解的分词方法、基于规则的分词方法和基于统计的分词方法[2]. 由于本文词典的构建花费时间比较多, 相对比较完整, 因此在基于最大逆向匹配算法的结巴分词算法的基础上, 采用改进规则和统计相结合的方式行进行分词的改进.
文献[3]提出歧义检测, 在对句子进行正向和逆向切分得到的两个结果的比较过程中, 发现两种方式切分的结果有90%的概率重合且正确, 有约9%的概率其中必有一个结果是正确的. 因此, 本文在此基础上, 在进行问答对分词的时候增加比较机制, 同时对句子进行正向和逆向最大匹配切分, 然后将两个结果进行比较, 若前后分词所产生词的个数有差异, 则选择其中单字少的分词作为结果, 若所得分词数相同, 则随机选择一个作为结果.
1.1.4 分类消化内科一般分为“胃肠病”、“肝病”、“胰胆疾病”、“内镜”和其他疾病五大类, 对话模型的训练过程中, 为了避免过拟合, 需要五大类的语料数据均衡. 由于每条问答对可以具备多种疾病的症状表现, 且不受其他类影响, 并且一个类的疾病具备常见的术语, 如“胃肠病”常出现“胃炎”类关键词, 因此本文将多标签分类问题转化成单标签分类问题进行求解.
分类模型的训练的过程结合主动学习[4], 先准备两万条问答对, 人工先对其中6000条数据进行分类处理, 完成类别标注, 然后将这些数据用Word2Vec向量表示, 作为支持向量机的输入获得简单的分类模型, 然后每次由分类模型处理2000条新数据, 根据结果评测分类器的好坏, 并且每次将标记好的数据加入训练集, 重新获得新的分类器, 直至分类模型达到给定的阈值, 过程如图2所示.
得到满足的要求模型后, 通过该模型本文从有问必答网、寻医问药网共获取约48万条消化科问答对.
1.2 词向量构建词向量又称Word嵌入式自然语言理解中的一组语言建模和特征学习技术的统称, 是让计算机理解自然语言手段之一, 很多研究都表明当将其用作底层输入表示时, 可以很大程度的提高NLP任务的性能, 如语法分析和情感分析.
为了在有限的数据集下能获得较好的词与词之间的相关性, 本文使用两种词向量: 键值对向量和Word2Vec向量.
1.2.1 键值对向量分词之后获得初始语料, 对分词之后的语料中词语的出现频次进行统计, 从高到底进行排序, 形成形同“123-胆囊炎”的键值对, 通过实验比较排序字典大小的影响, 得到相对于合理的是统计前20 000个高频词, 也就是在问答对里各抽出前20 000个高频词, 形成键值对序号, 高频词的选择之后会经过比对, 如果自定义词典有词未出现在这20 000个词内, 问答对同时增加未出现的词, 因此序号的取值范围会多个“+”.
1.2.2 Word2Vec向量Word2Vec[5,6]包括两种模型: CBOW和Skip-Gram. CBOW模型的训练输入是某一个特征词的上下文相关的词对应的词向量, 输出的是这特定的一个词的向量. Skip-Gram与CBOW刚好相反, 是在已知当前词的情况下预测上下文. 两者均可以和哈夫曼树结合训练得到最终的词向量, 但考虑到时间序列GRU[7], 是根据句子前面的词预测后面的词, 课题选择基于Hierarchical Softmax 哈夫曼树的 Skip-Gram 模型获取本文的 Word2Vec向量.
1.3 对话模型生成话对话这个场景, 与机器翻译有很多相似之处, 都可以可以简单理解为建立原句和翻译结果两者相同位置的词的相关性, 都是根据当前词推算下一个词, 现在的研究部分是在不改变主模型的基础上, 在传统的Sutskever等[8]提出seq2seq框架上改变编解码结构、神经元等, 如加入注意力机制[9], 有的已达到比较好的效果. 由于对话场景的特殊性, 一个极有潜力的改变办法是长短期记忆网络LSTM[10](包含其各种变体)结合seq2seq框架, 加入注意力机制, 理由在于LSTM能够避免长期的依赖问题, 适合于解决包含时序先后顺序的序列生成的问题, 如阿里小蜜[11]和百度自我诊断[12]. 当本文直接使用基本模型seq2seq模型时, 所得结果很不好, 生成词的困惑度高, 整个句子的结构不全, 可读性很差. 为了得到更好的结果, 本文对模型进行筛选, 在公开数据集WSJ第23部分同等前提下, 加州伯克利分校NLP实验室开发的BerkeleyParser开源句法分析器在测试集上F1的分数达到了90.5, Google提出的句法成分分析所采取的结构[13]F1分数达到了95.7. 而GRU与LSTM相比, 只有两个门(更新门和重置门), 参数少更容易收敛, 本文的实验对比也表明GRU比LSTM更适用于对话处理场景. 因此本文最终选择multi_encoder+attention_decoder+GRU+beamsearch模型结构, 网络结构如图3所示.
给定输入为
用
第一层得到中间状态
$ {z_t} = \sigma \left( {{W_z} \cdot \left[ {{h_{t - 1}},{x_t}} \right]} \right) $ | (1) |
$ {r_t} = \sigma \left( {{W_r} \cdot \left[ {{h_{t - 1}},{x_t}} \right]} \right) $ | (2) |
$ {\tilde h_t} = \tanh \left( {{W_{\tilde h}} \cdot \left[ {{r_t} ^* {h_{t - 1}},{x_t}} \right]} \right) $ | (3) |
$ {h_t} = \left( {1 - {z_t}} \right) * {h_{t - 1}} + {z_t} * {\tilde h_t} $ | (4) |
其中, []表示两个向量相连接, *表示矩阵的相乘, ·表示矩阵的点乘,
在一个深层的GRU, 每层将上一层的得到的
$ \begin{aligned} P\left( {B|A} \right) \equiv &\prod\nolimits_{t = 1}^{{T_B}} {P\left( {{B_t}|{A_1}, \cdots ,{A_{{T_A}}},{B_1}, \cdots ,{B_{t - 1}}} \right)} \\ \equiv &\prod\nolimits_{t = 1}^{{T_B}} {softmax {{\left( {{W_o} \cdot {h_{{T_A} + t}}} \right)}^{\rm{T}}}{\delta _{{B_t}}}} \end{aligned} $ | (5) |
输入序列
直接使用该方法去处理医疗问答会出现一些问题, 其一在于问句对疾病的描述语句可能会很长, 解码阶段GRU无法很好的针对序列前面部分进行解码, 其二在于没有关键点, 解码阶段应该更关注于疾病症状词, 而直接单纯的使用同一个中间向量进行解码, 显然是不合理. 因此, 本文加入注意力机制, 来源于文献[10], 也就是图3中最上方的黑线曲线, 使得每一步解码都有不同的中间向量c. 中间状态表示为
$ u_i^t = {\nu ^{\rm{T}}}\tanh (W_1'{h_i} + W_2'{d_t}) $ | (6) |
$ a_i^t = softmax \left( {u_i^t} \right) $ | (7) |
$ d_t' = \sum\nolimits_{i = 1}^{{T_A}} {a_i^t{h_i}} $ | (8) |
其中, t指的是t时刻,
从获取的48万对问答对中随机抽取2000条问答对, 进行人工分词并统计作为标准. 结果评估采用第二届国际汉语分词评测发布的国际中文分词标准进行评测, 计算方法:
$ precision = \frac{{CN}}{{CS}} * 100\% $ | (9) |
$ recall = \frac{{CN}}{{TS}}*100\% $ | (10) |
$ F = \frac{{2 ^* precision^*recall}}{{precision + recall}} * 100\% $ | (11) |
其中, precision表示准确率, recall表示召回率, F值为正确率和召回率的调和平均值, CN表示正确切分词数, CS表示切分的总词数, TS表示答案中的词语总数.
对这2000条问答对, 使用3种方法进行分词: 直接使用结巴分词、结巴结合清华医学词库、结巴分词+清华医学库+自定义词典, 以及结巴分词+清华医学库+自定义词典+歧义消除. 分词结果如表1所示, 分词样例如表2所示.
通过表1结果不难看出, 当直接使用结巴分词进行消化内科语料的分词操作时, 准确率最低, 为70.5%, 可以从表2中发现此时分词产生的结果中, “胃粘膜炎症”、“胃炎胶囊”、“999胃泰颗粒”、“丽珠得乐”和“吗丁啉”药名和症状名出现错分, 且“肠胃病恶化”通过查询中间结果发现, 出现歧义, 有多种切分结果: “肠胃/病/恶化”、“肠胃病/恶化”、“肠/胃/病/恶化”. 增加清华医学词库后, 3个指标都得到提升, 准确率达到73.8%, 可以从样例中发现, “胃黏膜炎症”得到正确且切分, 同时也发现, 药名仍然处于错分状态, 且歧义没有得到解决. 进一步增加自定义词典, 由于本文的自定义词典花费的时间和人力较大, 包含绝大部分的消化内科常见疾病名称和药名, 因此通过表1可以发现, 实验结果得到了很大提升, 准确率达到96.6%, 召回率达到96.4%, F值达到95.3%, 从样例中可以发现, “胃炎胶囊”、“999胃泰颗粒”、“丽珠得乐”和“吗丁啉”都得到正确切分, 但歧义仍然存在.
最后一步, 歧义的消除, 可以发现准确率有了进一步的提升, 针对表2例子中“肠胃病恶化”, 根据本文采取得取最大操作, 直接被切分成一个词, 符合人工切分要求.
2.2 对话模型实验 2.2.1 数据处理获取的48万条问答对, 长短不一, 短的问句只有十几个词, 长的超过60个词, 本文采取桶装方式对数据进行分组, 共分(10, 15)、(20, 30)、(30, 45)、(40, 60)、(40+, 60+) 5个桶, (20, 30)代表问句词数在10~20之间, 答句词数在15~30之间, 如果问句和答句的词数分布在两个桶内, 以答句词数为准, 如“12, 40”放至(30, 45)桶内, (40+, 60+)代表多问答句词数超过40和60的放至该桶. 将五组分开进行模型的训练.
2.2.2 模型训练本文提出一种加强训练法, 过程如下:
1) 使用键值对向量进行预训练, 得到初始模型Model_1;
2) 将键值对问句前后颠倒, 加载Model_1进行训练, 得到Model_2;
3) 在Model_2的基础上, 使用Word2vec向量进行训练, 得到Model_3;
4) 将Word2vec向量表示的问句前后颠倒, 加载Model_3, 得到最终模型Model_4.
2.2.3 评估方法本文在48万问答对随机选择1万条问答对作为测试集, 通过两个方面进行对话模型质量评估: 困惑度和词向量匹配评价.
(1) 困惑度是衡量一个语言模型好坏的指标, 用来估算一句话是否通顺, 主要根据每个词来估计一句话出现的概率, 计算方法:
$ PP(S) = {2^{ - \tfrac{1}{N}\sum {\log (P({\omega _i}))} }} $ | (12) |
其中, S代表句子, N代表句子的长度,
(2) 词向量的评价方法是通过计算目标句子与生成句子之间句向量之间的余弦距离的大小来估算两者的相似度, 本文采取BLEU值进行评估, 也就是比较两者中的n-gram (实验取值为3, 也就是每次三词一组进行比对)词组在整个训练语料中出现的总次数, 出现的次数越高, 则模型的效果越好. 计算方法:
$ {P_n}\left( {r,\hat r} \right) = \frac{{\displaystyle \sum\nolimits_k {\min (h(k,r),h(k,{r_i}))} }}{{\displaystyle \sum\nolimits_k {h(k,{r_i})} }} $ | (13) |
$ BP = \left\{ {\begin{array}{*{20}{c}} 1,&{{\rm{if}}{\kern 1pt} {\kern 1pt} c > r{\kern 1pt} } \\ {{e^{1 - {r / c}}}},&{\rm{else}} \end{array}} \right. $ | (14) |
$ BLEU = BP \cdot \exp \left(\sum\nolimits_{n = 1}^N {{\omega _n}\log {P_n}}\right) $ | (15) |
其中,
在测试解码阶段, 传统的广度优先策略虽然能够找到最优的路径, 但是由于本文数据有限, 困惑度会很大, 因此搜索的空间会非常大, 如果使用广度优先策略会导致内存占用指数级增长, 内存会溢出, 因此采用Beamsearch算法[15]进行寻找最优解, 该算法是一种启发式图搜索算法, 一般当解空间特别大时会被使用到, 该算法的优点在于能够减少空间和时间的使用, 在每一步路径的选择中, 不同于传统的广度优先策略, 会根据定义的策略对一些质量差的点进行去除操作, 保留质量高点, 最终找到最优的路径. 算法的流程如下:
1) 初始化节点, 将节点插入到列表中;
2) 从列表中提取节点出堆, 如果为目标节点, 则结束, 否则扩展该节点, 并取集束的宽度的节点入堆, 既取前k个概率最大的节点入堆, 不断循环, 直至找到最优解或堆为空. 每个t时刻有几个大概率的词候选, 选择可能性最大的前几个候选, 降低复杂度.
2.2.5 对话模型实验结果表3表明, 在Encoder和Decoder层数都为3层, 单元数都为256的条件下, GRU比LSTM所产生的困惑度降低约18, 得出GRU更适用于对话系统模型; 表格也显示在使用GRU作为神经元的前提下, 神经元数目超过256个, 模型会出现不收敛和困惑度持续增加的情况; 而在神经元为256个相同数目下, 3层因为计算量少, 比5层的效果好, 困惑度降低21, 因此最终本文选择3层256个神经元进行最终的模型的实验对比, 结果如表4所示.
表4表明层数都为3层, 神经元都为256个, 训练次数都为2000 000的情况下, 本文所使用的模型结构和训练方法获得最好的结果, 困惑度只有3.55, 且bleu值能提高到0.2675.
对于表5中的问句, 模型最后获得两个句子: “你好, 根据你的描述, 你这种情况应该是有便秘的情况. 建议口服, 可以口服润肠通便的药物, 如可以口服润肠通便的药物. ”和“你好, 根据你的描述, 我们的需求, 最终模型取第一个作为最终结果.
我们咨询了消化内科领域的专家, 给出的回答考虑是胃肠胀气的症状, 建议您首先注意饮食, 避免吃生冷辛辣刺激油腻的食物, 可以适当口服吗丁啉, 再热敷一下腹部, 症状应该会有所改善”. 概率分别为0.87和0.81, 其实可以发现两种答案都满足为: “考虑胃肠功能紊乱的可能性较大, 可以吃点促进胃肠蠕动药物, 比如多潘立酮片或者是枸橼酸莫沙必利胶囊, 适当运动, 不要长时间久坐”. 在语义方面和模型生成的是接近的, 都是肠胃蠕功功能出现异常的回答, 证明本文得出的模型能够有效的回答.
3 结论与展望通过实验发现增加消化科比较充足的自定义词典和增加前后选择机制, 分词的准确率能够达到97.3%, 支持向量机和主动学习的结合能够有效获取均衡数据. 本文使用的模型结构, 与传统主流的模型相比, 困惑度和BLEU值都要好, 且在键值对向量和Word2Vec向量两者组合增加训练法, 对话系统的性能得到了进一步的提升. 为了进一步提高实用性, 接下来的研究工作, 会研究消化科语料中的语义信息和数据特征, 然后研究增强词之间的相关性, 以及寻找更好的模型结构和训练方法.
[1] |
Bodenreider O. The unified medical language system (UMLS): Integrating biomedical terminology. Nucleic Acids Research, 2004, 32(S1): D267-D270. |
[2] |
奉国和, 郑伟. 国内中文自动分词技术研究综述. 图书情报工作, 2011, 54(2): 41-45. |
[3] |
Sun MS, T’sou BK. Ambiguity resolution in Chinese word segmentation. Proceedings of the 10th Pacific Asia Conference on Language, Information and Computation. Hong Kong, China. 1995. 121–126.
|
[4] |
白龙飞, 王文剑, 郭虎升. 一种新的支持向量机主动学习策略. 南京大学学报(自然科学), 2012, 48(2): 182-189. |
[5] |
Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality. Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe, NV, USA. 2013. 3111–3119.
|
[6] |
Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space. arXiv preprint arXiv: 1301.3781, 2013.
|
[7] |
Chung J, Gulcehre C, Cho KH, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling. arXiv preprint arXiv: 1412.3555, 2014.
|
[8] |
Sutskever I, Vinyals O, Le QV. Sequence to sequence learning with neural networks. Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Quebec, Canada. 2014. 3104–3112.
|
[9] |
Luong MT, Pham H, Manning CD. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv: 1508.04025, 2015.
|
[10] |
Sundermeyer M, Schlüter R, Ney H. LSTM neural networks for language modeling. Proceedings of the International Speech Communication Association. Portland, OR, USA. 2012. 601–608.
|
[11] |
Qiu MH, Li FL, Wang SY, et al. Alime chat: A sequence to sequence and rerank based chatbot engine. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vancouver, Canada. 2017. 498–503.
|
[12] |
Liu CC, Sun H, Du N, et al. Augmented LSTM framework to construct medical self-diagnosis android. Proceedings of the IEEE 16th International Conference on Data Mining. Barcelona, Spain. 2016. 251–260.
|
[13] |
Vinyals O, Kaiser Ł, Koo T, et al. Grammar as a foreign language. Proceedings of the 28th International Conference on Neural Information Processing Systems. Montreal, Quebec, Canada. 2015. 2773–2781.
|
[14] |
Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv: 1409.0473, 2014.
|
[15] |
Freitag M, Al-Onaizan Y. Beam search strategies for neural machine translation. arXiv preprint arXiv: 1702.01806, 2017.
|