基于循环神经网络的语义完整性分析
作者:
基金项目:

网络犯罪侦查湖南省普通高校重点实验室开放项目(2018WLFZZC003)


Semantic Integrity Analysis Based on Recurrent Neural Network
Author:
  • 摘要
  • | |
  • 访问统计
  • |
  • 参考文献 [15]
  • |
  • 相似文献 [20]
  • | | |
  • 文章评论
    摘要:

    本文提出了一种基于循环神经网络的语义完整性分析方法,通过判断句子是否语义完整,将长文本切分成多个语义完整句.首先,对文本进行分词,映射为相应的词向量并进行标注,然后将词向量和标注信息通过循环窗口和欠采样方法处理后,作为循环神经网络的输入,经过训练最后得到模型.实验结果表明,该方法可以达到91.61%的准确率,为主观题自动评分工作提供了基础,同时对语义分析、问答系统和机器翻译等研究有一定的帮助.

    Abstract:

    This study proposes a semantic integrity analysis method based on recurrent neural network. By judging whether the sentence is semantically complete, the long text is divided into multiple semantic complete sentences. First, dividing the sentences into words, mapped to the corresponding word vector and labeled. Then the word vector and the annotation information are processed by the loop window and the undersampling method, and used as the input of the recurrent neural network. Finally we get the model by training. The result of experiment indicates that this method can achieve an accuracy of 91.61%. This method is the basis of automatic assessment of the subjective questions, and also helps the research of semantic analysis, question and answer system and machine translation.

    参考文献
    [1] 林奕欧,雷航,李晓瑜,等.自然语言处理中的深度学习:方法及应用.电子科技大学学报, 2017, 46(6):913-919.[doi:10.3969/j.issn.1001-0548.2017.06.021
    [2] Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space. arXiv:1301.3781, 2013.
    [3] Graves A. Generating sequences with recurrent neural networks. arXiv:1308.0850v5, 2013.
    [4] Tang DY, Qin B, Liu T. Document modeling with gated recurrent neural network for sentiment classification. Proceedings of 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon, Portugal, 2015:1422-1432
    [5] 何炎祥,孙松涛,牛菲菲,等.用于微博情感分析的一种情感语义增强的深度学习模型.计算机学报, 2017, 40(4):773-790
    [6] 刁琦,古丽米拉·克孜尔别克,钟丽峰,等.基于循环神经网络序列标注的中文分词研究.计算机技术与发展, 2017, 27(10):65-68.[doi:10.3969/j.issn.1673-629X.2017.10.014
    [7] 李艳翠,冯文贺,周国栋,等.基于逗号的汉语子句识别研究.北京大学学报(自然科学版), 2013, 49(1):7-14
    [8] 王博立,史晓东,苏劲松.一种基于循环神经网络的古文断句方法.北京大学学报(自然科学版), 2017, 53(2):255-261
    [9] Dyer C, Ballesteros M, Ling W, et al. Transition-based dependency parsing with stack long short-term memory. arXiv:1505.08075, 2015.
    [10] 赵楠,张小芳,张利军.不平衡数据分类研究综述.计算机科学, 2018, 45(6A):22-27, 57
    [11] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout:A simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, 2014, 15(1):1929-1958
    [12] 周志华.机器学习.北京:清华大学出版社, 2016.
    [13] Kingma DP, Ba J. Adam:A method for stochastic optimization. arXiv:1412.6980, 2014.
    [14] Zeiler MD. ADADELTA:An adaptive learning rate method. arXiv:1212.5701, 2012.
    [15] Reddi SJ, Kale S, Kumar S. On the convergence of Adam and beyond. International Conference on Learning Representations. New York, NY, USA. 2018.
    引证文献
    网友评论
    网友评论
    分享到微博
    发 布
引用本文

刘京麦野,刘新,郭炳元,孙道秋.基于循环神经网络的语义完整性分析.计算机系统应用,2019,28(9):203-208

复制
分享
文章指标
  • 点击次数:1764
  • 下载次数: 3497
  • HTML阅读次数: 2966
  • 引用次数: 0
历史
  • 收稿日期:2019-03-11
  • 最后修改日期:2019-04-04
  • 在线发布日期: 2019-09-09
  • 出版日期: 2019-09-15
文章二维码
您是第12795732位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号