计算机系统应用  2022, Vol. 31 Issue (3): 326-332   PDF    
基于Attention机制的BiLSTM诈骗电话识别
许鸿奎1,2, 姜彤彤1, 李鑫1, 周俊杰1, 张子枫1, 卢江坤1     
1. 山东建筑大学 信息与电气工程学院, 济南 250101;
2. 山东省智能建筑技术重点实验室, 济南 250101
摘要:电话诈骗日益猖獗, 严重影响人民的生命和财产安全, 如何有效防范电话诈骗已成为社会的一大焦点问题. 本文提出一种基于Attention-BiLSTM模型的诈骗电话识别方法. 该方法以电话文本为数据集, 采用双向长短时记忆神经网络(bi-directional long short-term memory)模型提取句子的长距离特征. 通过引入注意力机制增强电话文本中与诈骗相关词汇的特征权重, 得到电话文本的句子层面的特征向量表示, 最后输入Softmax层进行分类预测. 实验结果表明, 基于注意力机制的BiLSTM诈骗电话分类模型的准确率较基线模型分别提高了2.15%和0.6%, 具有更好的预测性能.
关键词: 诈骗电话    深度学习    双向长短时记忆神经网络    注意力机制    
BiLSTM Network Fraud Phone Recognition Based on Attention Mechanism
XU Hong-Kui1,2, JIANG Tong-Tong1, LI Xin1, ZHOU Jun-Jie1, ZHANG Zi-Feng1, LU Jiang-Kun1     
1. School of Information and Electrical Engineering, Shandong Jianzhu University, Jinan 250101, China;
2. Shandong Key Laboratory of Intelligent Buildings Technology, Jinan 250101, China
Abstract: Telephone fraud is increasingly rampant, affecting the safety of people’s lives and property seriously. How to effectively prevent telephone fraud has become a great concern of society. This study proposes a fraud phone recognition method based on the Attention-BiLSTM model. This method uses phone text as a data set and adopts a bi-directional long short-term memory (BiLSTM) model to extract the long-distance characteristics of a sentence. Furthermore, the attention mechanism is utilized to enhance the meaning feature weight of the words related to the fraud parts in phone text. The feature vector representation of phone text at the sentence level is achieved and inputted to the Softmax layer for classification prediction. The experimental results show that the BiLSTM fraud phone classification model based on the attention mechanism has the accuracy increased by 2.15% and 0.6% respectively compared with baseline models, possessing more excellent prediction performance.
Key words: telephone fraud     deep learning     bi-directional long short-term memory (BiLSTM)     attention mechanism    

随着通信技术的迅速发展, 电信网络诈骗犯罪活动也屡禁不止, 给国家和人民带来了巨大损失. 电话诈骗是电信诈骗的一种, 是以电话通信的方式对受害人进行行骗, 骗取信任, 最后诱导受害人以银行卡、网上转账等方式骗取金钱的犯罪活动. 这些诈骗犯罪不仅给受害群众造成经济上的重大损失, 更是造成精神、心理上的严重伤害, 是人民群众深恶痛绝的犯罪行为. 例如, 2016年, 大一新生徐某某因诈骗电话被骗取9 900元, 而导致抑郁猝死; 广东省新生蔡某某被骗后跳海身亡. 一系列案件让电信欺诈问题成为备受瞩目的社会热点, 电信欺诈的影响已经深入到人们的日常生活中. 尽管近几年随着国家对此类诈骗案刑事打击和普法宣传力度的不断加大, 电信网络诈骗犯罪得到一定程度的遏制, 但总体上仍呈现高发态势, 在互联网快速发展和智能手机高度普及的新形势下, 如何有效治理电信诈骗, 是运营商面临的一大挑战. 2019年, 腾讯联合公安部、工信部和移动、联通、电信等企业, 发布了《电信网络诈骗治理研究报告(2019上半年)》, 报告显示, 电信网络诈骗呈现日趋专业化、公司化的趋势, 2019年上半年, 全国各级公安机关共破获电信网络诈骗案件5.8万起, 同比上升3%; 共抓获电信网络犯罪嫌疑人5.14万人, 同比上升32.28%. 其中, 跨平台交易日益增多, 发生诈骗最多的两个平台为二手交易平台和婚恋招聘网站, 分别占了28%和19%, 而电话诈骗占了9%, 由此可见, 电话诈骗仍占据相当高的比重, 通过电话进行行骗仍是犯罪分子主要的诈骗方式之一, 有效防范电话诈骗, 是遏制电信欺诈的重要手段.

针对国内电信诈骗频发的现状, 很多学者也进行了广泛的探究.

传统的防范诈骗电话体系主要是通过对诈骗电话号码的结构进行分析, 构建黑白名单库, 从而对疑似号码进行拦截处理[1-3], 此时的诈骗行为已经发生, 只能进行事后分析处理, 而且诈骗类型和手段一直在更新, 这就存在一定的滞后性, 无法在第一时间对诈骗电话进行拦截.

近年来, 机器学习迅速发展, 已在各个领域得到广泛应用, 为电话诈骗的治理带来了新的转机和挑战. 张慧嫦等[4]提出基于信令的电话诈骗行为检测方法, 采用大数据挖掘的方式, 对电话诈骗的行为特征进行分析, 对疑似诈骗电话号码进行叫停、拦截等处理. 程锦红等[5]提出基于大数据挖掘的防范电话诈骗模型, 从诈骗通话的前、中、后三阶段作研判分析, 构建基于号码特征和通话行为特征的混合模型, 实现了对诈骗行为进行事前预判、事中拦截、事后分析. 白晶晶等[6]提出基于大数据挖掘技术构建的电话诈骗识别模型, 根据诈骗电话特征, 分析通信行为, 建立挖掘模型, 不仅可以识别诈骗电话号码, 而且能够提前预测诈骗行为, 同时准确找到诈骗电话来源.

基于以上分析, 可以发现, 以往的防范诈骗手段大多是从政府和运营商的角度, 本文则采用深度学习的方法构建一个诈骗电话识别模型, 从用户视角来提高公民的反诈骗意识, 当用户接通电话后, 首先使用语音处理技术将语音转换为文字, 本文对转换后的文字进行研究, 利用自然语言处理领域中的文本分类技术来对电话文本进行识别, 计算一个电话为诈骗电话的概率.

1 相关工作

文本分类问题是自然语言处理领域的一个经典问题, 已广泛应用于垃圾过滤、新闻分类、词性标注、情感分类等领域. 文本分类技术的发展经历了从基于规则的方法到机器学习再到深度学习的过程. 基于规则的方法是依据预先定义好的规则将文本分成不同类别, 例如任何带有关键词“篮球”“足球”的文本就可以划分为体育类, 这种方法太依赖专家知识和历史数据, 可迁移性差. 20世纪90年代初, 许多机器学习方法开始成为主流趋势, 如支持向量机[7]、朴素贝叶斯[8]、决策树[9]等, 在文本分类领域得到广泛应用, 使用机器学习方法进行分类, 需要两步, 第一步是人工提取特征, 第二步将特征输入分类器进行分类. 但是繁琐的人工特征工程、过度依赖特定领域知识以及不能利用大量的训练数据又限制了其进一步发展. 21世纪后, 随着深度学习的发展, 很多学者开始将神经网络模型引入文本分类任务, 并取得了不错的进展.

RNN的线性序列结构使其非常适合用于处理序列数据, 但是由于其反向传播路径太长, 容易导致梯度消失和梯度爆炸问题, 为解决这一问题, Hochreiter等[10]提出了长短时记忆神经网络(LSTM), 引入“门”结构, 很大程度上缓解了梯度消失问题. 很多学者开始将这种模型用于自己的研究中, 黄贤英等[11]提出一种基于Word2Vec和双向LSTM的情感分类方法, 利用Word2Vec算法训练词向量, BiLSTM提取特征, 最后用支持向量机(SVM)进行情感分类, 取得了良好的分类效果; 吴鹏等人[12]提出一种BiLSTM和CRF结合的网民负面情感分类模型, 增加具有情感意义的词向量来提高分类性能; 赵明等[13]提出一种基于LSTM的关于饮食健康的分类模型, 利用Word2Vec实现词向量表示, LSTM作为分类模型, 自动提取特征, 解决了数据稀疏和维度灾难问题. 尽管这种循环神经网络结构在处理时序数据的研究上表现出良好效果, 但它无法捕获对重点词的关注, 因为很多时序数据在时间维度上的重要程度存在一定的差异, 因此有学者提出将注意力机制引入自然语言处理领域.

注意力机制[14]来源于人类视觉的选择性注意力机制, 最早被用于计算机视觉领域[15], 之后有学者将其引入自然语言处理领域, 与神经网络模型结合使用来进改善模型性能. 例如, Bahdanau等[16]将其用于神经网络的机器翻译模型, 取得了卓越效果; 关鹏飞等[17]提出一种基于注意力机制的双向LSTM情感分类模型, 利用注意力得到每个词的权重分布, 来提升分类效果; 汪嘉伟等[18]将Attention 机制和卷积神经网络结合, 利用CNN捕捉局部特征, 注意力机制捕捉文本的长距离关系, 结合二者优势, 也在一定程度上弥补了CNN的不足, 实验结果表明, 与CNN 模型相比, 分类准确率有提升. 本文将注意力机制引入诈骗电话分类模型, 来弥补BiLSTM模型不能准确提取关键信息的不足, 以提升分类效果.

2 文本处理 2.1 文本预处理

预处理的主要目的是减少噪声的影响, 此阶段主要包括分词、去停用词以及类别匹配3个步骤. 本文选用的分词方法是jieba分词; 去停用词可以在进行分类任务之前过滤掉一些对分类无实际意义的语气助词, 提高分类效率; 本文的研究属于有监督学习, 使用带标签的数据集, 所以需要对收集的数据进行人工标注, 将数据标记为两类, 诈骗和非诈骗, 最终得到诈骗数据5 890条, 非诈骗数据6 230条.

2.2 词嵌入

目前通常用的词嵌入方法是神经网络的分布式表示, 神经网络在训练模型的同时可以得到词语的向量表示. 使用最普遍的向量表示方法是Word2Vec算法[19], 该算法包含两种模型, CBOW模型和Skip-gram模型, CBOW是用上下文词作为输入, 来预测当前词, 而Skip-gram则相反, 是用当前词来预测上下文词, 网络结构分别如图1图2所示. Word2Vec的思想是训练一个语言模型, 该模型以词语的one-hot形式作为输入, 比如输入的一个x = [1, 0, 0, …, 0], 训练完得到神经网络的权重v, vx正是所需的词向量, 该词向量的维度与隐层节点数一致, 本质上也是一种降维操作. Word2Vec得到了一个有效表示词语特征的向量形式, 是自然语言处理领域的重要突破.

3 模型构建 3.1 BiLSTM-Attention模型架构

本文提出了一个基于Attention机制的BiLSTM电话文本分类模型, 通过引入Attention机制, 建立如图3所示的BiLSTM-Attention神经网络框架结构, 主要由词嵌入层、特征提取层、注意力模块以及Softmax分类层组成.

词嵌入层: 将经过预处理后的电话文本数据映射为维度相同的词向量, 图3中词向量的维度为6维.

特征提取层: 为BiLSTM模型, 对词向量进行抽象的特征提取, 可以得到文本的长距离依赖关系.

注意力模块: 为进一步提高模型的拟合能力, 引入Attention机制对特征矩阵进行参数优化, 抽取句中单词之间的句法和语义特征, 捕获对当前分类任务更为重要的关键词.

图 1 CBOW

图 2 Skip-gram

图 3 BiLSTM-Attention模型架构

分类层: 由全连接层和Softmax层组成, 输入为经过Attention机制后得到的句向量, 完成对电话文本的分类, 得到文本分别为诈骗和非诈骗的概率.

3.2 BiLSTM层

长短时记忆神经网络(LSTM)是循环神经网络的一种, 它可以很大程度上解决梯度消失问题. LSTM特有的门结构可以让信息有选择性地通过, 决定哪些信息应该被保留, 哪些信息应该被遗忘. LSTM的内部结构如图4所示.

图 4 LSTM结构图

其中, Xt为当前时刻的输入值; Ct−1为上一时刻的单元状态; ht−1为上一时刻的隐层状态; Ct为当前时刻的单元状态; ht为当前时刻的隐层状态.

LSTM的工作过程如下:

第一步是“遗忘门”(forget gate), 这一步决定了要保留多少前一时刻的单元状态信息到当前单元, 它查看上一时刻的隐层单元状态ht–1和当前时刻的输入Xt, 经过Sigmoid激活函数, 得到遗忘门的权重向量Wf, 这一计算过程表示如下:

$ {f_t} = \sigma \left( {{W_f} \cdot \left[ {{h_{t - 1}}, {x_t}} \right] + {b_f}} \right) $ (1)

然后是“输入门”(input gate), 它决定了要保留多少当前时刻的输入状态Xt到当前时刻的单元状态Ct. 这一过程分两步, 首先由Sigmoid激活函数决定更新哪些值, 得到决策向量it; 然后由tanh激活函数构建候选向量Vt, 由这两个向量来得到更新值, 计算过程如下:

$ {i_t} = \sigma \left( {{W_x} \cdot \left[ {{h_{t - 1}}, {x_t}} \right] + {b_i}} \right) $ (2)
$ {V_t} = \tanh \left( {{W_c} \cdot \left[ {{h_{t - 1}}, {x_t}} \right] + {b_c}} \right) $ (3)

当前时刻的单元状态Ct的计算过程如下所示:

$ {C_t} = {f_t} * {C_{t - 1}} + {i_t} * {V_t} $ (4)

最后一步是“输出门”(output gate), 这一步是基于单元状态, 决定输出什么. 单元状态Ct的决策向量Ot和隐层状态ht的计算过程表示如下:

$ {O_t} = \sigma \left( {{W_o} \cdot \left[ {{h_{t - 1}}, {x_t}} \right] + {b_o}} \right) $ (5)
$ {h_t} = {O_t} * \tanh \left( {{C_t}} \right) $ (6)

其中, WxWfWo分别代表输入门、遗忘门、输出门的权重向量; bfbobc分别代表输入门、遗忘门、输出门和记忆单元的偏置值; σ(·)表示Sigmoid激活函数; tanh表示双曲正切激活函数.

自然语言处理的很多情况下, 当前时刻的输出不仅取决于之前的状态, 还和未来的状态有关, 由于LSTM只能依据之前时刻的序列信息来预测下一时刻的输出, Graves等[20]提出双向LSTM, 该网络结构由前向和后向的两个LSTM叠加构成, 其结构如图5所示. 对于任一时刻, 输出由两个方向相反的LSTM的状态共同决定, 正向LSTM能够从前向后捕捉“过去”时刻的信息, 反向LSTM能够从后向前捕捉“未来时刻”的信息, 同时还能获取单词之间的长距离依赖特征, 真正做到了基于上下文判断, 丰富了句子特征, 有利于提高分类准确率.

图 5 BiLSTM神经网络结构

在时刻i, 网络的最终输出由前向和后向的特征采取按位加和操作得到, 如式(7)所示:

$ {h_i} = {{\mathop h\limits^ \to } _i} \oplus {{\mathop h\limits^ \leftarrow } _i} $ (7)
3.3 Attention层

视觉注意力机制是人类视觉所特有的一种大脑信号处理机制. 人类视觉通过快速扫描全局图像, 获得需要重点关注的目标区域, 即所谓的注意力焦点, 而后会更多关注目标区域的细节信息, 抑制其他无用信息. 人类通过这种注意力机制, 可以快速从大量信息中快速筛选出少量高价值信息, 从而极大地提高了视觉信息处理的效率.

深度学习中的注意力机制正是受启发于人类视觉的选择性注意力机制, 核心目标也是从大量信息中选择出对当前任务目标更关键的信息, 忽略其他不重要的信息.

注意力机制的实质是为每个值分配一个权重系数, 其本质思想可以表示为式(8)所示:

$ \begin{split} &Attention\left( {Query, {\textit{Source}}} \right) \\ &= \displaystyle\sum\limits_{i = 1}^{{L_x}} {Similarity\left( {Query, Ke{y_i}} \right)*Valu{e_i}} \end{split} $ (8)

其中, Source为已知的某个元素, 由<Key, Value>, 数据对构成;Query为目标元素.

注意力模型在训练过程中动态调整每个时间步的权重, 计算每个单词的权重系数, 其计算过程可以表示为下式所示:

$ {M_i} = \tanh ({h_i}) $ (9)
$ {\alpha _i} = {{Softmax}} ({w_i}^{\text{T}}{M_i}) $ (10)
$ {s_i} = {h_i}{\alpha _i}^{\text{T}} $ (11)

其中, hi为BiLSTM的输出, αi为注意力权重系数, wi为权重矩阵, si为经过注意力机制后的输出向量.

3.4 Softmax层

本文使用Softmax回归模型作为分类器实现对电话短文本的分类. Softmax回归模型是Logistic模型在多分类问题上的推广, 当类别数为2时, 即为Logistic模型. 假设样本输入X={(x1, y1), (x2, y2), …, (xm, ym)}, 其中, XiRn, i表示第i个样本的文本向量, 维度为n, 样本总数为m; yi∈{1, 2, …, k}表示第i个样本对应的类别, 类别数为k, 本文为二分类, 所以k=2. 判别函数hθ(xi) 为:

$ {h_\theta }\left( {{x^i}} \right) = \left[ {\begin{array}{*{20}{c}} {p\left( {{y^i} = 1|{x^i};\theta } \right)} \\ {p\left( {{y^i} = 2|{x^i};\theta } \right)} \\ \vdots \\ {p\left( {{y^i} = k|{x^i};\theta } \right)} \end{array}} \right] = \dfrac{1}{{\displaystyle\sum\limits_{j = 1}^k {{{\rm{e}}^{\theta _j^{\text{T}}{x^i}}}} }}\left[ {\begin{array}{*{20}{c}} {{{\rm{e}}^{\theta _1^{\text{T}}{x^i}}}} \\ {{{\rm{e}}^{\theta _2^{\text{T}}{x^i}}}} \\ \vdots \\ {{{\rm{e}}^{\theta _k^{\text{T}}{x^i}}}} \end{array}} \right] $ (12)

其中, θ1T, θ2T, …, θkTRn+1表示模型参数; p(yi=k|xi; θ)为当前样本对应第k个类别的概率.

Softmax模型的代价函数为:

$ J\left( \theta \right) = - \dfrac{1}{m}\left[ {\displaystyle\sum\limits_{i = 1}^m {\displaystyle\sum\limits_{j = 1}^k {{{1}}\left\{ {{y^i} = j} \right\}\log \dfrac{{{{\rm{e}}^{\theta _j^{\text{T}}{x^i}}}}}{{\displaystyle\sum\limits_{l = 1}^k {{{\rm{e}}^{\theta _l^{\text{T}}{x^i}}}} }}} } } \right] $ (13)

其中, j代表某个类别; 1{·}表示示性函数, 当第i个样本属于第j个类别时, 1{y(i)=j}=1, 当第i个样本不属于第j个类别时, 1{y(i)=j}=0. 在实际的工程应用中, 一般会用随机梯度下降法来优化最小代价函数, 将涉及到J(θ)对各个参数求偏导, 经过数次迭代计算得到最优参数, 此时的模型即为最佳分类模型.

4 实验与分析 4.1 实验数据集

本文实验所用的数据集一部分是由中国移动设计院提供的, 一部分来自百度、微博、知乎问答社区等网站, 其中包含诈骗数据5 890条, 非诈骗数据6 000条, 诈骗数据与非诈骗数据的比例约为1:1, 将其按照7:3的比例分别划分为训练集、测试集, 数据集的具体组成情况如表1所示. 该数据集来自从网络上搜集爬虫来的近几年出现的各类电话诈骗案件, 涉及范围包括刷单、虚假中奖、网贷、彩票股票、快递丢件、冒充海关、冒充警察等为由的诈骗案件, 几乎涵盖了所有的诈骗类型.

表 1 数据集统计表

4.2 实验环境

本文算法的实现采用基于PyTorch的NLP框架AllenNLP, AllenNLP是由Allen人工智能实验室构建和维护的一个开源工具, 是专门用于研究自然语言理解的深度学习方法平台.

实验环境如表2所示.

表 2 实验环境

4.3 参数设置

实验使用由北京师范大学中文信息处理研究所与中国人民大学 DBIIR 实验室的研究者提供的开源中文词向量语料库sgns.target.word-word.dynwin5.thr10.neg5.dim300.iter5.gz作为预训练词向量, 该词向量维度为300维, 是通过Word2Vec方法训练得到, 训练语料来自百度百科, 涵盖各领域[21].

经过反复实验, 本文最终选取的最优超参数设置如表3所示.

表 3 超参数

4.4 评估方法

实验采用的评价指标为准确率accuracy, 精确率precision, 召回率recall和F1值.

混淆矩阵, 如表4所示.

表 4 混淆矩阵

1) 准确率是指所有预测为正类占总数的比例.

$ {{Acc = }}\frac{{TP + TN}}{{TP + FN + TN + FP}} $ (14)

2) 精确率是指所有正确预测为正类占全部正类的比例.

$ Pre = \frac{{TP}}{{TP + FP}} $ (15)

3) 召回率是指所有正确预测为正类占全部实际为正类的比例.

$ Rec = \frac{{TP}}{{TP + FN}} $ (16)

4) F1值综合了精确率和召回率, 把PreRec的权重看作是一样的, 是基于两者的调和平均, 通常作为一个综合性的评价指标, F1值越高, 代表模型的性能越好.

$ F1 = \frac{{2 \times Pre \times {{{Re}}}c}}{{Pre + {{{Re}}}c}} $ (17)
4.5 实验结果

为验证本文提出的基于Attention机制的BiLSTM电话诈骗识别模型的有效性, 在同一数据集下, 分别对LSTM, BiLSTM以及本文提出的BiLSTM-Attention模型进行了对比实验, 实验结果如表5所示.

表 5 实验结果 (%)

基于以上3种模型进行对比试验, 并针对评价指标精确率、召回率、F1值以及准确率作对比分析. 由表中实验结果可以发现:

1) 本文提出的BiLSTM-Attention模型的准确率为94.74%, 比LSTM高2.15%, 比BiLSTM高0.6%; F1值为94.86%, 比LSTM高2.34%, 比BiLSTM高0.48%;

2) 通过LSTM和BiLSTM的对比实验可以看出, BiLSTM的精确率、召回率、F1值均要高于LSTM, 即BiLSTM模型的分类效果更好. 因为前者只是提取了上文信息, 而后者提取了上文和下文的信息, 特征更丰富, 说明基于上下文的判断更有利于分类;

3) 通过BiLSTM和BiLSTM-Attention的对比试验可以看出, BiLSTM-Attention的精确率、F1值、准确率较BiLSTM, 尽管提高不大, 但都有显著的提升, 但召回率要低于BiLSTM模型, 这一点有待改进, 说明注意力机制对实验分类效果具有一定程度的影响. 这是因为注意力机制可以通过增大重点词的权重, 增加对重点词的关注, 突出了对当前诈骗电话分类任务更关键的信息, 即进一步捕获经过BiLSTM提取长距离特征后的重点信息, 来提升模型性能, 提高分类准确率.

5 结束语

本文提出一种基于Attention机制的BiLSTM诈骗电话分类方法, 首先对文本进行预处理, 包括分词、去停用词等, 然后利用预训练词向量模型得到每个词的词向量, 输入BiLSTM模型, 提取长距离特征, 并通过引入注意力模块进一步捕捉关键信息, 来提升模型性能. 实验证明, 提出的模型较单模型LSTM和BiLSTM, 都有显著的提升. 同时本文实验也存在一定的不足之处, 比如实验数据不足, 所提出模型分类效果提升不高等问题. 未来的研究中, 将考虑从以下几个方面来改进模型, 继续搜集更新诈骗信息, 扩大数据集; 采取下采样的方法增加诈骗数据; 针对本研究的小数据特点, 采用先进的预训练语言模型来训练, 如ELMo、BERT、GPT等.

参考文献
[1]
刘源. 运用聚类数据挖掘技术预防电信业中的欺诈行为[硕士学位论文]. 长春: 吉林大学, 2005, 1-5.
[2]
殷春祥, 朱晓民, 彭刚. 骚扰电话监控系统的研究与设计. 计算机系统应用, 2010, 19(7): 6-9. DOI:10.3969/j.issn.1003-3254.2010.07.002
[3]
计国华, 邵四清. 上海移动骚扰电话分析拦截系统应用案例. 电信网技术, 2011(5): 82-87.
[4]
张慧嫦, 李力卡. 基于信令的电话诈骗行为检测及防范研究. 广东通信技术, 2016, 36(10): 6-9, 45. DOI:10.3969/j.issn.1006-6403.2016.10.002
[5]
程锦红, 萧瑶, 方雅丽, 等. 基于大数据的防范电话诈骗体系架构研究. 通讯世界, 2020, 27(4): 13-15. DOI:10.3969/j.issn.1006-4222.2020.04.008
[6]
白晶晶, 张利宏. 基于大数据挖掘技术的诈骗电话识别与管理. 长江信息通信, 2021, 34(5): 126-128. DOI:10.3969/j.issn.1673-1131.2021.05.039
[7]
Joachims T. Text categorization with support vector machines: Learning with many relevant features. Proceedings of the 10th European Conference on Machine Learning Chemnitz. Chemnitz: Springer, 1998. 137–142.
[8]
Kim SB, Han KS, Rim HC, et al. Some effective techniques for naive Bayes text classification. IEEE Transactions on Knowledge and Data Engineering, 2006, 18(11): 1457-1466. DOI:10.1109/TKDE.2006.180
[9]
Li H, Yamanishi K. Text classification using ESC-based stochastic decision lists. Proceedings of the 8th International Conference on Information and Knowledge Management. Kansas City: ACM, 1999. 122–130.
[10]
Hochreiter S, Schmidhuber J. Long short-term memory. Neural Computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735
[11]
黄贤英, 刘广峰, 刘小洋, 等. 基于word2vec和双向LSTM的情感分类深度模型. 计算机应用研究, 2019, 36(12): 3583-3587, 3596.
[12]
吴鹏, 应杨, 沈思. 基于双向长短期记忆模型的网民负面情感分类研究. 计算机应用, 2019, 39(7): 1931–1935.
[13]
赵明, 杜会芳, 董翠翠, 等. 基于Word2vec和LSTM的饮食健康文本分类研究. 农业机械学报, 2017, 48(10): 202-208. DOI:10.6041/j.issn.1000-1298.2017.10.025
[14]
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the Annual Conference on Neural Information Processing Systems 2017. Long Beach: NIPS, 2017. 5998–6008.
[15]
Carrasco M, Barbot A. Spatial attention alters visual appearance. Current Opinion in Psychology, 2019, 29: 56-64. DOI:10.1016/j.copsyc.2018.10.010
[16]
Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. Proceedings of the 3rd International Conference on Learning Representations. San Diego: ICLR, 2015. 1–15.
[17]
关鹏飞, 李宝安, 吕学强, 等. 注意力增强的双向LSTM情感分析. 中文信息学报, 2019, 33(2): 105-111. DOI:10.3969/j.issn.1003-0077.2019.02.014
[18]
汪嘉伟, 杨煦晨, 琚生根, 等. 基于卷积神经网络和自注意力机制的文本分类模型. 四川大学学报(自然科学版), 2020, 57(3): 469-475.
[19]
Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality. Proceedings of the 27th Annual Conference on Neural Information Processing Systems 2013. Lake Tahoe: NIPS, 2013. 3111–3119.
[20]
Graves A, Schmidhuber J. Framewise phoneme classification with bidirectional LSTM and other neural network architectures. Neural Networks, 2005, 18(5–6): 602-610. DOI:10.1016/j.neunet.2005.06.042
[21]
Li S, Zhao Z, Hu RF, et al. Analogical reasoning on chinese morphological and semantic relations. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne: ACL, 2018. 138–143.