随着大数据时代下数字化技术的不断发展, 各种互联网应用的出现在为用户提供有效服务的同时, 也带来了数据规模的爆炸式增长. 面对如此海量的数据, 如何从中获取用户感兴趣的内容变得愈发重要. 为了解决这一问题, 推荐系统应运而生. 推荐系统能够根据用户喜好和项目属性来推测用户对项目的偏好, 从而决定是否将项目推荐给目标用户. 通常, 推荐系统通过特定的推荐算法处理用户与项目之间的交互, 推荐算法的好坏决定了推荐系统的业务性能. 传统协同过滤推荐算法[1]的主要思路是: 寻找与目标用户喜好相似的其他用户, 将这些用户感兴趣的内容推荐给目标用户, 具体可以分为基于用户的推荐和基于项目的推荐两类方法. 但协同过滤方法只考虑了用户对项目的交互, 没有关注其属性特征. 基于内容的推荐算法[2]能够根据用户和项目的诸多信息, 比如历史评价、收藏文档等, 提取用户和项目的属性特征, 然后根据这些特征进行相似推荐. 基于图结构的推荐算法先将用户和项目之间的交互建模成一个二分图, 然后分析二分图的结构以给出合理推荐. 混合推荐算法则是融合多个单一的推荐算法, 使其相互取长补短, 以解决各自的问题. 但是由于传统推荐算法具有数据稀疏和冷启动问题[3], 所以在复杂场景下的推荐性能不高.
近年来, 深度学习技术不断发展, 越来越多的研究者将深度学习模型应用到推荐领域中, 并取得了显著效果. He等[4]在建模用户和项目之间的交互时, 利用多层感知机(multi-layer perceptron, MLP)代替传统的矩阵分解(matrix factorization, MF)方法, 在两个公共数据集上取得了更好的推荐性能. Zheng等[5]提出了一个基于CNN构建的推荐模型DeepCoNN, 该模型由两个在最后一层耦合的并行CNN组成, 两个CNN能够从评论文本中联合抽取丰富的语义信息, 从而分别学习用户和项目的特征, 但是比较依赖评论文本数据的质量. Zhang等[6]考虑到图像中可能包含文本没有的额外信息, 使用包含CNN和RNN的混合模型进行推文主题推荐. 该模型通过VGGNet提取图片的特征信息, 通过LSTM (long short-term memory)网络提取文本内容的特征信息, 然后使用注意力机制对两者进行融合. 从Twitter上收集的数据的实验结果证明, 这种多模型的组合在相同推荐任务中的准确率相对于单模型有较大提升. 由于深度学习能够凭借其强大的表征学习能力提取目标的深层特征, 并挖掘用户和项目之间的非线性关系, 因此对推荐效果的提升具有很大帮助[7].
在使用推荐系统的场景中, 大多数信息具有不规则的图结构, 比如电子商务、社交发现等. 图神经网络(graph neural network, GNN)作为一种处理非欧式空间数据的深度学习模型, 能够通过图中节点之间的消息传递来捕捉数据之间的潜在联系, 因此目前许多研究开始将图神经网络应用于推荐问题中[8-9]. 例如, Li等[10]面向大规模电子商务领域, 提出了一种分层二部图神经网络模型HiGNN, 模型首先将多个GNN模块叠加, 然后交替使用确定性聚类算法以捕捉分层模块中用户和项目的信息, 进而在更大范围内高效地捕捉用户的潜在偏好. 通过在真实的电子商务数据集上的实验结果表明, HiGNN相对于主流的推荐方法取得了显著改进. 葛尧等[11]提出了一种基于图卷积网络的推荐算法GCN4RS, 使用两组图卷积网络来分别提取异质和同质交互信息, 然后统一两类交互信息以提升推荐系统性能. Fan等[12]将GNN用于社交推荐中, 分别考虑用户和项目的两类数据的交互和观点, 并利用注意力机制聚合节点的邻居信息, 但其使用随机初始化的方式获取用户和项目的初始嵌入, 没有考虑隐含的语义信息.
本文考虑到用户和项目本身具有一定的属性信息, 比如评论内容、商品描述等, 而这些文本内容中包含了大量的语义信息. 同时图中不同邻居对目标节点的影响不同, 在通过影响传播学习目标节点的嵌入表示过程中具有不同大小的贡献, 通过注意力机制计算邻居节点的注意力权重, 再按照权重聚合相关邻居节点的特征信息, 可以使得学习到的目标节点的嵌入表示更加准确合理. 因此, 本文构建了一种融合语义信息和注意力机制的图神经网络推荐算法, 结合文本中隐含的语义信息和网络中交互关系的影响, 学习用户和项目的嵌入表示, 从而提高推荐结果的准确性.
本文主要贡献如下: (1)基于项目、用户的社交评论等文本信息, 使用语义模型SpanBERT获得节点的语义嵌入表示, 通过多特征联合表示方法融合多维度的特征信息. (2)通过用户社交以及用户-项目交互两项关系结构, 利用图神经网络聚合高阶拓扑结构中的影响信息, 并使用注意力机制增强目标节点的特征表示能力, 提高推荐模型的质量. (3)通过在公共数据集上与多个经典模型进行实验对比, 验证本文提出推荐算法的有效性.
后文的章节安排如下: 第1节介绍用户-项目推荐的问题定义以及相关知识的简介; 第2节介绍本文提出模型的主要结构以及具体实现细节; 第3节介绍数据集、实验环境以及实验结果与分析; 第4节为总结与展望.
1 相关知识本节主要介绍模型的问题定义, 以及与模型架构相关的图神经网络、注意力机制、SpanBERT的相关知识.
1.1 问题定义在推荐系统中通常包括用户和项目两种实体集合, 分别被表示为
给定用户-用户交互矩阵
图神经网络(graph neural network, GNN)提出的目的是对图域中的数据进行有效处理[13], 即在图上对节点进行特征提取和嵌入表示. 其主要思路是: 首先利用自身特征或相关节点等方法获取图中节点的描述, 然后通过输入邻域信息不断更新节点的状态, 得到具有包含邻居节点信息和图形拓扑结构的状态嵌入, 最终对这些状态嵌入进行整合映射, 输出所需结果如分类标签等. 图神经网络的状态更新与结果输出过程为:
$ {h_n} = f\left( {{x_n}, {x_{CO[n]}}, {h_{NE[n]}}, {x_{NE[n]}}} \right) $ | (1) |
$ {o_n} = g\left( {{h_n}, {x_n}} \right) $ | (2) |
其中,
注意力机制可以使模型在输入的大量信息中聚焦对当前任务更为关键的部分, 降低对于非关键信息的关注度, 从而获取更多与目标相关的细节信息, 而忽视其他的无用信息[14].
对于一组输入向量
$ {\alpha _i} = {{\textit{Softmax}}}\left( {{{s}}\left( {{x_i}, q} \right)} \right) = \frac{{\exp \left( {{{s}}\left( {{x_i}, q} \right)} \right)}}{{\displaystyle\sum\limits_{j = 1}^n {\exp \left( {{{s}}\left( {{x_j}, q} \right)} \right)} }} $ | (3) |
其中,
之后, 根据得到的注意力分布可以从输入数据中有选择性地提取有效信息, 即根据注意力分布对输入向量进行加权求和, 得到最终的注意力值, 其计算公式为:
$ {{Attention}}\left( {X, q} \right) = \sum\limits_{i = 1}^n {{\alpha _i}{x_i}} $ | (4) |
在图神经网络中, 不同的邻居节点对目标节点产生的影响不同, 应用注意力机制不仅能够加速模型的训练过程, 而且能够较好地捕捉局部信息, 即学习邻居节点对于目标节点的贡献度. 注意力机制的示意图如图1所示.
设目标节点
$ {a_{ij}} = \frac{{\exp \left( {{\textit{LeakyReLU}}\left( {{\alpha ^{\rm{T}}}\left[ {W{h_i} \oplus W{h_j}} \right]} \right)} \right)}}{{\displaystyle\sum\limits_{k \in {N_i}} {\exp \left( {{\textit{LeakyReLU}}\left( {{\alpha ^{\rm{T}}}\left[ {W{h_i} \oplus W{h_k}} \right]} \right)} \right)} }} $ | (5) |
其中,
将目标节点的所有邻居节点特征按贡献度进行加权求和, 并经过非线性变换后, 得到目标节点更新后的特征如下:
$ {h_i}^\prime = \sigma \left( {\sum\limits_{j \in {N_i}} {{a_{ij}}W{h_j}} } \right) $ | (6) |
1.4 SpanBERT模型
SpanBERT是一种预训练语言模型, 主要基于BERT模型进行优化[15]. 不同于其他方法通过增加训练的数据和加大模型的尺寸来提升性能, SpanBERT主要通过优化预训练模型的训练目标来提升效果. 考虑到许多NLP任务中都涉及推理两个或多个文本区间之间的关系, 因此SpanBERT被设计用来更好地表示和预测区间, 其在BERT模型的基础上进行的改动如下.
(1)与BERT对于随机词符(token)进行遮蔽不同, SpanBERT会对连续的随机区间(span)进行遮蔽.
(2)SpanBERT通过训练文本区间的边界表示, 对整个被遮蔽的区间进行预测, 而非其中的单个词符. 具体来说, 模型引入了SPO (span boundary objective)训练方式, 以促进将区间层面的信息存储在其边界的词符表示上, 从而在微调阶段获得更好的效果.
(3)BERT中包含下一句预测(next sentence prediction, NSP)的预训练任务, 此任务输入两个文本序列, 目的是预测二者是否具有连接关系. 但实验发现, 这种训练方法几乎总是比只用单个文本序列训练更差. 因此, SpanBERT去除了NSP任务, 仅仅使用了单个片段序列进行训练和预测.
模型训练过程如图2所示. 通过实验对比, SpanBERT在许多任务上达到了比BERT更好的结果, 并在有关文本区间选择的任务上取得了非常大的提升, 包括问答匹配和共指消解等.
2 算法模型
通常物品名称或描述中包含大量语义信息, 而SpanBERT模型可以通过训练, 得到包含这些语义信息的词嵌入. 用户和项目的历史交互能够构成一种图结构, 图神经网络能够利用图结构聚合邻居节点的信息, 从而进行节点间的影响传播. 而注意力机制可以获取到不同节点对当前节点的影响大小, 在聚合时分配不同的权重, 使影响更加符合真实情况. 因此, 本文提出一种融合语义信息和注意力机制的图神经网络推荐算法, 算法流程如图3所示.
该算法主要包含3个部分: 语义嵌入生成、融合注意力机制的图神经网络模型以及最终的双线性预测部分. 其中, 语义嵌入生成模块基于实体的文本属性信息生成其初始的语义特征向量; 初始特征融合模块初始化实体的自由特征向量, 并分别对用户和项目的两类特征向量进行融合, 生成统一的向量表示; 用户特征传播更新和项目特征传播更新模块利用图神经网络的思想, 基于网络实体之间的关系结构, 结合注意力机制对目标节点进行层级的特征传播与更新; 最后的推荐评分预测模块通过DistMult函数计算实体之间的相似度, 得到用户-项目实体对的推荐评分.
2.1 语义嵌入生成模型中语义嵌入生成模块的主要任务是根据实体的文本属性信息, 通过语义模型生成各个实体的语义特征向量. 根据推荐领域中数据的不同特点, 本文为不同种类的实体设计对应的语义特征生成方法: 在推荐领域, 通常项目类实体中包含较多的文本属性数据, 比如项目说明、用户对项目的评价等, 因此可以直接使用文本特征抽取方法提取其中的语义信息; 而用户类实体大多数不包含文本数据, 但在推荐网络中每个用户实体都有与其相关的项目实体, 因此可以通过聚合邻居项目节点的特征向量得到其特征表示.
基于上述思路, 本文使用SpanBERT模型获取项目类数据的初始特征向量. 对于项目类实体
$ {x_i} = \sum\limits_{a = 1}^w {\frac{{W_i^a}}{w}} , a \in \left[ {1, w} \right] $ | (7) |
$ W_i^a = {\textit{SpanBERT}}\left( {{i^a}} \right) $ | (8) |
其中,
用户类实体的初始特征向量由邻居项目类实体融合生成, 对于用户类实体
$ {y_j} = \sum\limits_{i \in N{X_j}} {\frac{{{x_i}}}{{\left| {N{X_j}} \right|}}} $ | (9) |
其中,
为了捕捉用户和项目类实体的隐含特征表示, 模型首先随机初始化矩阵
特征融合模块由一层全连接层构成, 输入属性特征向量以及自由特征向量, 输出包含节点初始偏好信息的融合特征向量. 对于项目类实体
$ v_{_i}^0 = f\left( {W_{_I}^0 \times \left[ {{x_i}, {p_i}} \right]} \right) $ | (10) |
其中,
同样对于用户类实体
$ u_j^0 = g\left( {W_U^0 \times \left[ {{y_j}, {q_j}} \right]} \right) $ | (11) |
其中,
在得到实体融合后的特征向量后, 本文将注意力机制引入用户和项目的特征更新过程中, 即在聚合与中心节点存在交互的邻居节点特征时, 通过注意力机制为邻居节点分配不同的权重, 从而体现不同邻居节点对目标节点不同的重要性. 从而模拟实体所受潜在影响的动态传播过程.
基于上述思路, 对于每个用户类实体
$ u_{N{U_j}}^{l + 1} = AG{G_{UU}}\left( {u_{ju}^l} \right) = \sum\limits_{ju} {\alpha _{ju}^{l + 1}u_{ju}^l} , \; ju \in N{U_j} $ | (12) |
其中,
$ \alpha _{ju}^{l + 1} = ML{P_1}\left( {u_j^l, u_{ju}^l} \right) $ | (13) |
之后从
$ u_{N{I_j}}^{l + 1} = AG{G_{UI}}\left( {u_{ji}^l} \right) = \sum\limits_{ji} {\beta _{ji}^{l + 1}v_{ji}^l} , ji \in N{I_j} $ | (14) |
其中,
$ \alpha _{ji}^{l + 1} = ML{P_2}\left( {u_j^l, v_{ji}^l} \right) $ | (15) |
最终, 将得到的用户社交网络和用户-项目交互网络中的用户隐特征
$ u_j^{l + 1} = u_j^l + \eta _{jU}^{l + 1}u_{N{U_j}}^{l + 1} + \eta _{jI}^{l + 1}u_{N{I_j}}^{l + 1} $ | (16) |
其中,
$ \eta _{jU}^{l + 1} = ML{P_3}\left( {u_j^l, u_{N{U_j}}^{l + 1}} \right) $ | (17) |
$ \eta _{jI}^{l + 1} = ML{P_4}\left( {u_j^l, u_{N{I_j}}^{l + 1}} \right) $ | (18) |
这里得到的用户隐含向量表示作为最终的用户向量表示.
2.2.3 项目特征传播更新对于每个项目类实体
$ v_{N{U_i}}^{l + 1} = AG{G_{IU}}\left( {u_{iu}^l} \right) = \sum\limits_{iu} {\lambda _{iu}^{l + 1}u_{iu}^l} , iu \in N{U_i} $ | (19) |
其中,
$ \lambda _{iu}^{l + 1} = ML{P_5}\left( {v_i^l, u_{iu}^l} \right) $ | (20) |
最终, 将得到的项目实体
$ v_i^{l + 1} = {\sigma ^{\left( {l + 1} \right)}}\left( {{W^{l + 1}} \times \left[ {v_i^l, v_{N{U_i}}^{l + 1}} \right]} \right) $ | (21) |
其中,
这里得到的项目隐含向量表示作为最终的项目向量表示.
2.3 评分预测经过
在获取用户和项目的嵌入表示后, 本文使用双线性投影函数DistMult, 将一对节点的嵌入表示转化为它们之间的连接强度
$ {\hat r_{ji}} = {\textit{Sigmoid}}\left( {s\left( {j, i} \right)} \right) = \frac{1}{{1 + {{\rm{e}}^{ - \left( {u_j^{ * T}{M_r}v_i^ * } \right)}}}} $ | (22) |
由于最终的评分与用户和项目的组合顺序无关, 所以这里的关系矩阵
本文使用经典的交叉熵损失函数进行模型的更新, 损失函数的具体计算公式如下:
$ Loss=\sqrt{\frac{1}{C}\sum\limits_{\begin{smallmatrix} j\in U \\ i\in I \end{smallmatrix}}{{{\left( {{{\hat{r}}}_{ji}}-{{r}_{ji}} \right)}^{2}}}} $ | (23) |
其中,
本文选择Yelp数据集进行对比实验与分析, Yelp公开数据集是Yelp网站相关业务、商户评论和用户数据的子集, 以JSON数据格式组织, 获取途径为 https://www.yelp.com/dataset. 为了保证实验数据的有效性, 本文经过筛选删除了少于2条评分记录和2条社交链接的用户数据, 以及被评分数少于2次的项目数据, 最终实验数据集的组成及规模如表1所示.
3.2 实验评估指标
为了更好地训练推荐模型并评估模型效果, 本文使用HR和NDCG两种指标对推荐结果进行打分. HR指标的计算过程如式(24)所示, 代表是否推荐给用户想要的结果, 关注于推荐的准确性; NDCG指标的计算过程如式(25)所示, 代表推荐给用户想要的结果是否在排名较前的位置上, 关注于推荐的先后性.
$ HR = \frac{1}{N}\sum\limits_{i = 1}^N {hit(i)} $ | (24) |
$ NDCG = \frac{1}{N}\sum\limits_{i = 1}^N {\frac{1}{{{{\log }_2}\left( {{p_i} + 1} \right)}}} $ | (25) |
其中,
实验硬件环境为NVIDIA GeForce RTX 3060显卡, Intel(R) Core(TM) i7-12700H处理器, 32 GB运行内存. 软件环境为Ubuntu 20系统, Python 3.6, TensorFlow 1.10.0开发环境. 模型主要参数设置如表2所示.
3.4 实验结果分析
为了分析模型的有效性, 本文将数据集按照8:1:1的比例随机划分为训练集、验证集和测试集, 分别进行以下实验.
3.4.1 不同层数L对结果的影响在用户特征传播模块中, GNN网络的层数L代表了用户邻居影响的传播深度, L越大, 则影响传播越深. 因此应当根据问题规模选择合适的层数, 以保证节点最终特征向量的融合效果.
为了评估不同层数L对预测结果的影响, 本文将GNN的层数分别设置为L=1、L=2和L=3进行实验, 同时将测试集平均分为10份计算HR@10和NDCG@10两项指标值, 最终结果对比如图4所示.
从图4可以看出, 当L从1增加到2时, 模型取得了更好的效果, 表明更深的传播层数可以聚合更高阶的特征影响; 当L继续增大后, 模型的性能开始下降, 表明考虑到实体间的二阶关系影响是足够的. 因此本文在后续实验中均将模型层数设为2, 即通过两层GNN来聚合邻居影响.
3.4.2 模型指标随Epoch变化结果模型在160 个Epoch的训练过程中, HR@10与NDCG@10两个指标的变化情况如图5 所示. 由实验结果可以看出, 当Epoch达到100次时, 模型取得最佳性能, 其中HR@10稳定在0.37左右, NDCG@10稳定在0.23左右.
3.4.3 不同模型结果对比
为了评估本文模型的推荐性能, 选择了以下推荐模型作为基准模型, 在Yelp数据集上进行对比实验.
(1) SocialMF (social matrix factorization)[18], 模型的主要思想是将信任传播合并到社交推荐的矩阵分解模型中, 使得用户表示接近其信任的用户.
(2) GraphRec (graph recommendation)[12], 主要思想是按用户间的社交关系以及用户与商品间的交互关系, 通过MLP融合用户特征, 然后获取商品特征, 并训练GNN预测推荐评分.
(3) DiffNet (diffusion network)[19], 模型的主要思想是根据用户社交关系和历史行为建模用户偏好, 并使用两层GNN来模拟高阶影响的传播.
实验选择HR和NDCG的top-N指标进行评价, 其中N分别取值5、10、15. 最终模型对比的实验结果如图6所示.
由上述实验结果可以看出, 本文提出的模型在两个评价指标上均得到了提升. 相比于基线方法使用随机初始化方法生成用户与项目的节点表示, 本文模型采用的融合语义信息与注意力机制的方法具有更好的节点特征表示能力, 能够从多个维度聚合更深层次的关系影响, 验证了模型的有效性.
4 结论与展望
针对当前基于图神经网络的推荐算法中没有合适的方法来生成节点的语义信息以及高阶影响的传播聚合等问题, 本文提出了融合语义信息与注意力机制的图神经网络推荐算法, 基于SpanBERT语义模型处理实体相关的文本信息, 生成包含语义信息的嵌入表示, 然后考虑用户社交关系以及用户-项目交互, 并设计带注意力机制的图神经网络模拟高阶影响的传播与融合过程, 最后在公开数据集上进行实验, 结果表明本文所提出的方法较现有基准方法在各项指标上均有所提升, 验证了推荐算法的有效性.
今后, 将进一步研究如何有效地生成项目之间的潜在关系, 并将潜在的关系影响融合至项目实体表示学习中, 增强网络节点的特征表示, 进而优化本文模型.
[1] |
Resnick P, Iacovou N, Suchak M, et al. Grouplens: An open architecture for collaborative filtering of netnews. Proceedings of 1994 ACM Conference on Computer Supported Cooperative Work. Chapel Hill North: ACM, 1994. 175–186.
|
[2] |
Lops P, de Gemmis M, Semeraro G. Content-based recommender systems: State of the art and trends. Recommender Systems Handbook. Boston: Springer, 2011, 73-105. DOI:10.1007/978-0-387-85820-3_3 |
[3] |
杨博, 赵鹏飞. 推荐算法综述. 山西大学学报(自然科学版), 2011, 34(3): 337-350. DOI:10.13451/j.cnki.shanxi.univ(nat.sci.).2011.03.001 |
[4] |
He XN, Liao LZ, Zhang HW, et al. Neural collaborative filtering. Proceedings of the 26th International Conference on World Wide Web. Perth: International World Wide Web Conferences Steering Committee, 2017. 173–182.
|
[5] |
Zheng L, Noroozi V, Yu PS. Joint deep modeling of users and items using reviews for recommendation. Proceedings of the 10th ACM International Conference on Web Search and Data Mining. Cambridge: ACM, 2017. 425–434.
|
[6] |
Zhang Q, Wang JW, Huang HR, et al. Hashtag recommendation for multimodal microblog using co-attention network. Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne: AAAI Press, 2017. 3420–3426.
|
[7] |
刘华玲, 马俊, 张国祥. 基于深度学习的内容推荐算法研究综述. 计算机工程, 2021, 47(7): 1-12. DOI:10.19678/j.issn.1000-3428.0060557 |
[8] |
Zhou J, Cui GQ, Hu SD, et al. Graph neural networks: A review of methods and applications. AI Open, 2020, 1: 57-81. DOI:10.1016/j.aiopen.2021.01.001 |
[9] |
Wu SW, Sun F, Zhang WT, et al. Graph neural networks in recommender systems: A survey. ACM Computing Surveys, 2022, 55(5): 97.
|
[10] |
Li Z, Shen X, Jiao YH, et al. Hierarchical bipartite graph neural networks: Towards large-scale e-commerce applications. Proceedings of 2020 IEEE 36th International Conference on Data Engineering (ICDE). Dallas: IEEE, 2020. 1677–1688.
|
[11] |
葛尧, 陈松灿. 面向推荐系统的图卷积网络. 软件学报, 2020, 31(4): 1101-1112. DOI:10.13328/j.cnki.jos.005928 |
[12] |
Fan WQ, Ma Y, Li Q, et al. Graph neural networks for social recommendation. Proceedings of the World Wide Web Conference. San Francisco: ACM, 2019. 417–426.
|
[13] |
Scarselli F, Gori M, Tsoi AC, et al. The graph neural network model. IEEE Transactions on Neural Networks, 2009, 20(1): 61-80. DOI:10.1109/TNN.2008.2005605 |
[14] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 6000–6010.
|
[15] |
Joshi M, Chen DQ, Liu YH, et al. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics, 2020, 8: 64-77. DOI:10.1162/tacl_a_00300 |
[16] |
Xue JW, Jiang N, Liang SW, et al. Quantifying the spatial homogeneity of urban road networks via graph neural networks. Nature Machine Intelligence, 2022, 4(3): 246-257. DOI:10.1038/s42256-022-00462-y |
[17] |
Yang BS, Yih WT, He XD, et al. Embedding entities and relations for learning and inference in knowledge bases. arXiv:1412.6575, 2014.
|
[18] |
Jamali M, Ester M. A matrix factorization technique with trust propagation for recommendation in social networks. Proceedings of the 4th ACM Conference on Recommender Systems. Barcelona: ACM, 2010. 135–142.
|
[19] |
Wu L, Sun PJ, Fu YJ, et al. A neural influence diffusion model for social recommendation. Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. Paris: ACM, 2019. 235–244.
|