基于深度学习的网站权威性预测
  计算机系统应用  2018, Vol. 27 Issue (8): 164-169   PDF    
基于深度学习的网站权威性预测
杨海华1,2, 冯仰德1, 王珏1, 聂宁明1, 刘芳1, 张博尧1     
1. 中国科学院 计算机网络信息中心, 北京 100190;
2. 中国科学院大学, 北京 100049
摘要:网站权威性一般是由外部链接来衡量, 高质量的外部链接越多, 网站的权威性就越高; 常用的评价网站权威性的算法有PageRank等, 然而该类算法对网站权威性的影响是有选择性的, 使得这种方法具有一定的弊端. 本文利用深度学习的方法, 通过将搜索词和网址映射为向量, 计算两个向量之间的相似度来评判在某个搜索词下不同网址的权威性, 把计算结果相似度高对应的网站称为在该搜索词下权威性高的网站, 从而从另一种角度去衡量网站的权威性. 通过对比使用Word2vec和LSTM两种不同的模型实验, 在对公开的数据集上的实验结果表明使用这两种模型是有效的, 其中LSTM模型比Word2vec模型的效果要好.
关键词: 网站权威性    Word2vec    LSTM    自然语言处理    
Website Authority Prediction Based on Deep Learning
YANG Hai-Hua1,2, FENG Yang-De1, WANG Jue1, NIE Ning-Ming1, LIU Fang1, ZHANG Bo-Yao1     
1. Computer Network Information Center, Chinese Academy of Sciences, Beijing 100190, China;
2. University of Chinese Academy of Sciences, Beijing 100049, China
Foundation item: National Key R & D Program of China (2017YFB0203704)
Abstract: Website authority is generally measured by external links. The more high-quality external links are, the more authoritative the website or web page itself is. Evaluation website authoritative algorithm has PageRank and so on. However, the impact of such algorithms on the authority of the website is selective, making this method has some drawbacks. This study uses the method of deep learning, by mapping search terms and URLs into vectors, and then calculates the similarity between two vectors to judge the authority of different websites under a certain search term. The website with high similarity of calculation results is referred to as an authoritative site under the search term, so we can use another view to measure the authority of website. By comparing two different model experiments using Word2vec and LSTM, the experimental results on open datasets show that it is effective to use both models, and LSTM model is better than Word2vec model.
Key words: website authority     Word2vec     LSTM     Natural Language Processing (NLP)    

网站权威性一般是由外部链接数来衡量, 常用的算法有PageRank[1]等算法. 一般而言高质量的外部链接越多, 网站或者网页本身的权威性就越高. 这类的方法的缺点在于外部链接对网站权威性的影响是有选择性的, 也就是说来自相关内容网站的链接, 对提高权威性帮助最大, 不相关内容的链接帮助很小. 比如在某个音乐网站首页上加一个链接到某个美食网站, 那么对美食网站的权威性几乎没什么帮助; 而且甚至在某些场景下这种方式的权威性可以被操作, 即可以有很多链接是人为设置的. 本文通过使用将搜索词和被召回的网站的URL映射为向量的方法, 计算两个向量之间的相似度来评价搜索词和网站之间的相似度, 相似度越高, 那么该网站的权威性越高, 所以如何精确的表达搜索词和网站的向量是最为关键的问题. 本文利用深度学习[2,3]的技术, 分别使用Word2vec[4]模型与LSTM (Long Short-Term Memory)递归神经网络模型[5]来获取搜索词得向量表示; 通过随机初始化网址的向量, 然后在模型的训练中实时的更新词向量和网址向量, 从而得到最终的词汇表和网址向量表; 其中Word2vec模型和LSTM模型获取搜索词的向量方式有些不同, 具体见下一章节.

1 方法及模型介绍

本文在模型训练过程中一共使用了两张向量表, 一张用户搜索词集合的词汇表, 另外一张是所有网站URL集合的网址表, 两张表开始时都是随机初始化的. 在Word2vec模型的实验中, 最终的词汇表是由训练Word2vec模型得来的, 网址表是在整体的模型训练中生成的, 在计算相似度时, 使用的搜索词向量是通过查由Word2vec模型训练得到的词汇表获取的, 网址向量是在模型收敛时得到的网址表中获取的, 然后计算搜索词和网站之间的相似度. 例如用于计算相似度的搜索词为“我是中国人”, 将“我是中国人”通过切词得到“我”、“是”、“中国人”三个词, 然后通过查由Word2vec训练得到的词汇表获取相应的词的向量, 最后将查到的3个词的向量相加作为整个搜索词的向量; 在LSTM模型试验中, 最终的词汇表和网站表都是在利用整体网络端到端的训练过程中生成的, 在计算相似度时, 使用的搜索词向量是由两个步骤得到的: ① 搜索词切词后得到的词通过查词汇表得到每个词向量, 然后作为LSTM的输入; ② 取LSTM模型最后一个时刻的隐层输出得到最终整个搜索词的向量表达; 网址向量是在模型收敛时得到的网址表中获取的, 然后计算搜索词和网站之间的相似度. 例如用于计算相似度的搜索词为“我是中国人”, 将“我是中国人”通过切词得到“我”、“是”、“中国人”三个词, 然后通过查由整个模型训练得到的词汇表获取相应的三个词的向量作为LSTM的输入, 最后取LSTM模型最后一个时刻隐层的输出作为整个搜索词的向量.

1.2 Word2vec模型训练词向量

Word2vec模型是Mikolov等人在NNLM[6]以及Log-Bilinear模型[7]基础上开发的工具, 分为连续Bag Of Words (CBOW)和连续Skip-gram两种模型. CBOW模型利用上下文中的若干词去预测当前词; 而Skip-gram模型恰好相反, 利用当前词预测上下文的若干词.

两种模型的训练过程类似, 对于CBOW模型, 输入层是词的上下文中的若干词向量, 为了充分利用上下文信息预测中间词, 并且不损失句子长度信息的情况下, 将该词的上下文中的若干个词向量以累加的方式得到中间层的向量. 输出层则是以训练语料库中的词作叶子节点, 以各词出现次数为权值构造的一棵Huffman树. 通过随机梯度上升算法[4]对投影层向量可能表示的词进行预测, 使得p(W|con(W))[8]值最大化, W表示当前词, con(W)表示该词上下文中的若干词. 当神经网络训练完成时, 即可求出所有词的词向量. Word2vec输出的词向量可以用于解决自然语言处理(NLP)方面的问题, 如情感分析[9]、图片描述[10]等. Lilleberg等人[11]在做文本分类相关工作方面时, 为了更好的得到语义特征, 使用了Word2vec 训练词向量, 并且得到不错的效果.

1.3 LSTM网络模型

LSTM网络是RNN的扩展, 它成功的解决了原始循环神经网络的缺陷, 成为当前最流行的RNN. LSTM的神经网络基本模块具有不同的结构, 这与传统的RNN不同, 传统的RNN模型的隐藏层只有一个状态, 即h, 它对于短期的输入非常敏感. LSTM基本模块中增加了一个新的单元状态C, 如图1所示.

图 1 LSTM网络模块示意图

LSTM具有遗忘门(forget gate)、输入门(input gate)、和输出门(output gates)等三种门结构, 用以保持和更新细胞状态. 以下是三种门的具体作用方式:

(1) 遗忘门: 它决定了上一时刻的单元状态ct-1有多少保留到当前时刻ct.

${f_t} = \sigma \left( {{w_f} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_f}} \right)$ (1)

其中, wf是遗忘门的权重矩阵, xt是当前时刻网络的输入值, ht–1是上一时刻LSTM的输出值, [ht–1, xt]表示把两个向量连接成一个更长的向量, bf是遗忘门的偏置项, σ是Sigmoid函数.

(2) 输入门: 它决定当前时刻网络的输入xt有多少保存到单元ct.

${i_t} = \sigma \left( {{w_i} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_i}} \right)$ (2)

其中, wi是输入门的权重矩阵, bi是输入门的偏置项.

(3) 输出门: 它是控制单元状态ct有多少输出到LSTM的当前输出值ht.

${\tilde c_t} = \tanh \left( {{w_c} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_c}} \right)$ (3)
${c_t} = {f_t} \circ {c_{t - 1}} + {i_t} \circ {\tilde c_t}$ (4)
${o_t} = \sigma \left( {{w_o} \cdot \left[ {{h_{t - 1}},{x_t}} \right] + {b_o}} \right)$ (5)
${h_t} = {o_t} \circ \tanh \left( {{c_t}} \right)$ (6)

以上式子中符号 $ \circ $ 表示按元素乘. 式(3)中 ${\tilde c_t}$ 用于描述当前输入的单元状态, 它是根据上一次的输出和本次输入来计算的; 式(4)计算的是当前时刻的状态单元ct; 式(5)是把当前输入的单元状态 ${\tilde c_t}$ ct–1组合在一起, 形成新的状态单元ct; 式(6)的输出最终是由输出门和单元状态共同确定的.

LSTM网络模型已被成功地应用于图片/视频描述[1214]、文本/情感分类[1518]、机器翻译[19]、智能问答[20,21]等自然语言处理任务中. 由于LSTM网络通过记忆单元去学习从细胞状态中忘记信息、去更新细胞状态的信息, 具有学习文本序列中远距离依赖的特性, 所以很自然地想到使用LSTM网络模型学习本文需要的搜索词的向量表达.

2 模型具体设计 2.1 使用Word2Vec模型的实验设计

使用Google开源的Word2vec模型, 训练语料库为数据集中的搜索词, 结合实际使用经验设置词向量的维度大小为256; 由于用户输入的查询词一般在10个字以内, 所以设置模型中对应滑动窗口大小为2; 这里使用CBOW方式训练Word2vec模型, 得到该实验最终的词向量表; 网址表的向量初始为随机生成, 维度大小为256, 初始权重范围为: [–1.0, 1.0], 之后随着模型的训练实时更新; 使用Tensorflow框架搭建训练模型, 设置其初始的学习速率为0.1, 使用tensorflow提供的指数衰减函数tf.train.exponential_decay动态的更新学习率; 为了防止模型在训练过程中过拟合, 采用了dropout方式, 其相关系数设置为0.5, 并结合使用early_stopping的方式: 即记录到目前为止最好的accuracy, 当连续2次Epoch没达到最佳accuracy时, 则停止训练. Batchsize的大小设置为256; 模型训练的最大迭代次数设为100. 具体的训练步骤如下:

1)将所有搜索词切词. 将切词后的搜索词通过调用Word2vec模型训练, 得到最终的词向量表;

2)对于新来的一个搜索词, 通过切词, 然后通过查询由Word2vec生成的词向量表, 将切词后对应的词的向量相加作为该搜索词的向量表达, 记为QueryEM.例如: 搜索词为“我是中国人”, 切词后分别为“我”、“是”、“中国人”三个词, 然后通过查询词向量表获取三个相应的词向量, 然后将这三个词向量相加得到关于“我是中国人”这个搜索词的向量表达;

3)通过使用tf.nn.embedding_lookup函数查随机初始化的网址表得到URL1、URL2的向量表达, 分别记为URLBEMURLWEM, 并将其值设置为可训练的;

4)将Sigmoid函数作用于搜索词的向量与点击率高的网址向量相加的结果上, 其结果记为QBSCORE; 同理将Sigmoid函数作用于搜索词的向量与点击率低的网址向量相加的结果上, 其结果记为QWSCORE; QBSCOREQWSCORE的具体计算方式如下:

${Q_{BSCORE}} = f\{ \sum\limits_{i = 1}^n {(Quer{y_{EM}} \cdot UR{L_{BEM}})} \} $ (7)
${Q_{WSCORE}} = f\{ \sum\limits_{i = 1}^n {(Quer{y_{EM}} \cdot UR{L_{WEM}})} \}$ (8)

其中, f为Sigmoid激活函数; n为向量的维度大小, ·符号为向量对应位置相乘. QBSCOREQWSCORE之间的差越大, 即认为在当前搜索词下URL1的权威性比URL2权威性高.

5)定义损失函数并记为Loss, 并以此优化模型, 公式(9)为其计算方式:

$Loss = \sum\nolimits_{i = 1}^n {\rm{max}} \left({{{\left( {{Q_{BSCORE}} - {Q_{WSCORE}}} \right)},0}}\right)$ (9)

其中, n为Batchsize的大小.

6)训练过程中, QBSCOREQWSCORE之间的差大于0的样本为正例, 小于0为负例. 每个Batchsize的平均准确率的计算方式为当前批次中正例的个数除以当前批次的总样本数.

具体流程如图2所示.

图 2 Word2vec模型实验的训练流程图

2.2 使用LSTM模型的实验设计

同样设置词向量与网址向量的维度大小为256; 词向量表与网址表中网址的向量随机初始化的, 初始权重范围为: [–1.0, 1.0]; 使用TensorFlow搭建LSTM模型, 设置其网络层次为1层, 时间维度的最大长度为20, 隐层维度为256; 设置其初始的学习速率为0.1, 然后使用tensorflow提供的指数衰减函数tf.train.exponential_decay动态的更新学习率; 为了防止模型在训练过程中过拟合, 采用了Dropout方式, 其相关系数设置为0.5, 并结合使用early_stopping的方式. Batchsize的大小设置为256; 模型训练的最大迭代次数设为100; 与Word2vec模型不同的是, 这里词汇表和网址表都是随着模型训练实时更新的. 具体的训练步骤除了第一、二步外, 其他步骤与Word2vec模型实验训练步骤一致. 这里模型训练的前二个步骤为:

1) 使用tf.nn.embedding_lookup函数查随机初始化的词汇表, 然后获取搜索词切词后不同词的向量表达, 将其结果作为LSTM的输入, 记为QueryEm_init, 并将其值设置为可训练的;

2) 取LSTM模型最后一个时刻隐层输出为整个搜索词的向量表达, 即第二十个时刻隐层的输出为这个搜索词的向量表达, 记为QEM.

具体流程如图3所示.

图 3 LSTM模型实验的训练流程图

3 实验结果及分析 3.1 数据集、数据格式及评价指标

本文使用的日志数据集来源于搜狗公开的数据集SogouQ, 数据包括了约一千万用户输入的大约九百万的搜索词以及大约一千五百万的URL展现结果. 词向量表是所有搜索词切词后的集合, 网址表是所有URL的集合; 通过使用计算点击率的方式计算出查询词下出现的URL的点击率, 然后将样本的格式整理成为: 搜索词、URL1、URL2的格式, 它们之间以tab键隔开, 其中URL1的点击率比URL2的点击率高. 通过随机打乱样本顺序, 取其中4/5作为训练集, 剩下的为测试集.

本文采用了P(准确率)为主要评测指标.

3.2 实验结果

图4图5给出了使用两种不同模型实验在训练集、测试集上随着迭代次数的变化平均准确率的变化曲线.

图 4 Word2vec模型实验

图 5 LSTM模型实验

两组不同的实验在训练集、测试集上的平均准确率值如表1所示.

表 1 平均准确率表

图4图5表1可知, 使用Word2vec模型的实验比使用LSTM模型的实验在训练集、测试集上的平均准确率低, 但是模型收敛的时间比后者快. 分析原因主要有以下两点:

(1) 由于前者是先利用Word2vec模型训练得到了最终的词向量表, 所以在后续的训练过程中只需要针对网址表更新训练, 所以收敛时间会比后者快.

(2) 由于用户输入的查询词是具有先后的语义关系, 而LSTM模型本身的时序特性能够很好的结合查询词的这种语义关系, 而Word2vec考虑更多的是在维度空间上词与词之间的相似度, 所以通过LSTM模型获得的搜索词向量表达比Word2vec要更符合这本文中的应用场景, 导致平均准确率比使用Word2vec的实验要高.

4 结束语

本文分别使用Word2vec模型与LSTM模型获取用户搜索词的向量表达, 在通过与相应的网址的向量表达计算相似度作为对应网址的权威性. 实验结果表明两种方式的有效性, 其中LSTM模型试验的效果突出.

然而, 本方法中只考虑了搜索词对应的网址, 并未考虑具体网站标题和内容等信息; 由于网站的标题和内容是具体的文字, 所以理论上是可以获取很好的向量表达, 从而计算用户查询词和网站标题、内容之间的相似度; 如此就可以从多个方面更加全面的来评判网站的权威性. 所以评判用户查询词和网站标题等信息之间的相似度, 并将其与本文中提出方法相结合是本文下一步研究的重点.

参考文献
[1]
Page L, Brin S, Winograd T. The PageRank citation ranking: Bringing order to the web. Stanford: Stanford InfoLab, 1998. 1–14.
[2]
余凯, 贾磊, 陈雨强, 等. 深度学习的昨天、今天和明天. 计算机研究与发展, 2013, 50(9): 1799-1804. DOI:10.7544/issn1000-1239.2013.20131180
[3]
孙志军, 薛磊, 许阳明, 等. 深度学习研究综述. 计算机应用研究, 2012, 29(8): 2806-2810. DOI:10.3969/j.issn.1001-3695.2012.08.002
[4]
Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality. Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe, NV, USA. 2013. 3111–3119.
[5]
Graves A, Mohamed AR, Hinton G. Speech recognition with deep recurrent neural networks. Proceedings of 2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Vancouver, Canada. 2013. 6645–6649.
[6]
Bengio Y, Ducharme R, Vincent P, et al. A neural probabilistic language model. Journal of Machine Learning Research, 2003, 3: 1137-1155.
[7]
Mnih A, Hinton G. Three new graphical models for statistical language modelling. Proceedings of the 24th International Conference on Machine Learning. Corvalis, OR, USA. 2007. 641–648.
[8]
王勤勤, 张玉红, 李培培, 等. 基于word2vec的跨领域情感分类方法. 计算机应用研究, 2018, 35(10). [在线出版] http://www.arocmag.com/article/02-2018-10-004.html.
[9]
Xue B, Fu C, Zhan SB. A Study on sentiment computing and classification of Sina Weibo with Word2vec. Proceedings of 2014 IEEE International Congress on Big Data. Anchorage, AK, USA. 2014. 358–363.
[10]
Sharma K, Kumar AC, Bhandarkar SM. Action recognition in still images using word embeddings from natural language descriptions. Proceedings of 2017 IEEE Winter Applications of Computer Vision Workshops. Santa Rosa, CA, USA. 2017. 58–66.
[11]
Lilleberg J, Zhu Y, Zhang YQ. Support vector machines and word2vec for text classification with semantic features. Proceedings of the 14th International Conference on Cognitive Informatics & Cognitive Computing. Beijing, China. 2015. 136–140.
[12]
Venugopalan S, Rohrbach M, Donahue J, et al. Sequence to sequence-video to text. Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile. 2015. 4534–4542.
[13]
Byeon W, Breuel TM, Raue F, et al. Scene labeling with LSTM recurrent neural networks. Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA. 2015. 3547–3555.
[14]
Vinyals O, Toshev A, Bengio S, et al. Show and tell: A neural image caption generator. Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA. 2015. 3156–3164.
[15]
马胜蓝. 基于深度学习的文本检测算法在银行运维中应用. 计算机系统应用, 2017, 26(2): 184-188. DOI:10.15888/j.cnki.csa.005628
[16]
Zhao Z, Chen WH, Wu XM, et al. LSTM network: A deep learning approach for short-term traffic forecast. IET Intelligent Transport Systems, 2017, 11(2): 68-75. DOI:10.1049/iet-its.2016.0208
[17]
Liu PF, Qiu XP, Chen XC, et al. Multi-timescale long short-term memory neural network for modelling sentences and doucuments. Proceedings of Conference on Empirical Methods in Natural Language Processing. Lisbon, Portugal. 2005. 2326–2335.
[18]
Wang X, Liu YC, Sun CJ, et al. Predicting polarities of tweets by composing word Embeddings with long short-term memory. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Beijing, China. 2015. 1343–1353.
[19]
Sutskever I, Vinyals O, Le QV. Sequence to sequence learning with neural networks. Advances in Neural Information Processing Systems. Montreal, QB, Canada. 2014. 3104–3112.
[20]
Ghosh S, Vinyals O, Strope B, et al. Contextual LSTM (CLSTM) models for large scale NLP tasks. arXiv: 1602.06291, 2016.
[21]
Wang D, Nyberg E. A long short-term memory model for answer sentence selection in question answering. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Beijing, China. 2015. 707–712.