计算机系统应用  2022, Vol. 31 Issue (4): 296-302   PDF    
基于张量图卷积的多视图聚类
刘改, 吴峰, 刘诗仪     
西安工程大学 计算机科学学院, 西安 710699
摘要:针对多视图聚类进行的数据表示学习, 通常采用浅层模型与线性函数实现数据嵌入, 该方式无法有效挖掘多种视图间丰富的数据关系. 为充分表示不同视图间的一致性信息与互补性信息, 本文提出基于张量图卷积的多视图聚类方法(TGCNMC). 该方法首先将传统的平面图拼接为张量图, 并采用张量图卷积学习各视图中数据的近邻结构; 接着利用图间卷积进行多视图间的信息传递, 从而捕获多视图数据间的协同作用, 揭示多视图数据中的一致性与互补性信息; 最后采用自监督方式进行数据聚类. 通过在标准数据集上进行的广泛实验, 聚类效果优于现有的方法, 表明该方法可以更全面的描述多视图数据、更有效地挖掘视图间的关系并具有更好的处理下游聚类任务的能力.
关键词: 图卷积神经网络    多视图学习    聚类    深度学习    机器学习    
Tensor Graph Convolution Networks for Multi-view Clustering
LIU Gai, WU Feng, LIU Shi-Yi     
School of Computer Science , Xi’an Polytechnic University, Xi’an 710699, China
Abstract: The shallow models and linear functions are usually utilized for data embedding in data representation learning aimed at multi-view clustering. This strategy, however, cannot effectively mine the rich data relationships among the multiple views. For better representation of the consistency and complementarity information among different views, a tensor graph convolution network for multi-view clustering (TGCNMC) is proposed in this study. This method splices the traditional plane graphs into tensor graphs and uses tensor graph convolution to learn the neighbor relationships of the data in each view. Then, inter-graph convolution is adopted to transfer information among multiple views and thereby to capture the synergistic effect among the data of multiple views and reveal the consistency and complementarity information in those data. Finally, the self-monitoring method is employed for data clustering. Extensive experiments are carried out on standard data sets and the corresponding clustering results are better than those of the existing methods, which indicates that this method can represent multi-view data comprehensively, mine the relationships among views effectively, and deal with downstream clustering tasks beneficially.
Key words: graph convolution neural network     multi-view learning     clustering     deep learning     machine learning    

在现实生活中, 数据往往可以从不同的来源收集或多个视图观察, 不同来源获取的数据形成了多视图数据. 在这些多视图中, 每一个独立的视图满足特定数据分析任务的需求, 然而不同的视图之间往往包含着互补型的数据, 此类互补的数据可以提供更加全面的特征信息[1]. 如何挖掘并利用多视图数据引起广泛的关注. 数据挖掘常用的方法有分类, 聚类等. 由于数据获取的来源增多, 数据越发复杂, 凭借个人经验和一些专业知识已不能完成分类任务. 因此聚类分析成为一种寻找没有类别标记数据之间内在结构的关键技术[2]. 传统聚类算法处理的数据是单视图的, 很难适用于多视图数据的聚类分析. 面对多视图数据, 学者们大致从以下方向进行研究, 第一类以Elhamifar等人[3]为代表的将多视图数据直接拼接为单视图数据, 由于多视图数据中含大量重复的数据, 此类简单将其拼接的方法, 会带来维度灾难. 为了解决上述问题, Kumar等人[4]提出了只提取多视图之间的互补性信息以及Brbić等人[5]仅提取多视图间的一致性信息来提升聚类效果的方法, 然而随着现有数据的日益复杂, 这种单一的提取方法不能够满足数据处理的要求. 基于此, 一些学者提出能够同时提取互补性和一致性的方法[6]. 传统的多视图聚类方法通常用线性模型和浅层模型揭示复杂多视图数据之间关系, 其学习能力有限. 并且, 图形结构信息与数据内在特征无法有效地结合, 对聚类效果产生一定的影响.

深层学习因其强大学习能力得到了广泛的应用, 特别是具有强大建模能力的卷积神经网络. 但传统的卷积神经网络因其卷积核固定只能处理具有平移不变性的欧氏空间的数据. 而现实中, 存在着各式各样的非欧式图, 如社交网络图, 生物分子结构图等, 此类图形结构数据中每个节点的局部结构各不相同. 图神经网络[7]旨在将深度神经网络应用于结构化数据, 由于图的结构不是规则网格, 传统的卷积神经网络不易推广到图结构数据, 因此促使了图卷积网络的出现和发展. 图卷积网络在提取图的特征和拓扑信息方面是非常重要. Kipf等人[8]结合深度学习和图卷积, 提出了图自编码器. 它利用模型学习的结果重构了原始输入图的拓扑结构; Bo等人[9]首次将图神经网络用在聚类上, 将用于深度提取自身特征的自编码器与擅长融合邻居特征图卷积神经网络进行结合; Wang等人[10]提出了一种深度聚类算法, 通过图神经网络结合自训练做图聚类. 图卷积在单视图的图聚类得到了很大的发展, 但在多视图上, 应用甚少.

针对上述问题, 受到TGCN[11]的启发, 本文提出了一种基于张量图卷积的多视图聚类方法(TGCNMC). 将张量图卷积应用在多视图聚类上, 通过串联多个视图形成张量图, 利用图内图卷积分别学习到张量图中每个图形信息和数据内在特征, 再利用图间图卷积, 多视图间进行互相学习, 更好的提取图数据的深层结构以及多视图数据间的互补信息. 此外引入了自监督聚类模型对聚类结果进行优化.

1 相关工作

本文所提算法涉及张量图卷积神经网络及多视图聚类, 此节中分别对其进行简要介绍.

1.1 图卷积神经网络

图卷积神经网络将卷积网络应用到实际生活中各式各样的非欧式图中, 通过消息传递来合并图形结构信息和节点(或边缘)特征, 并计算深度节点的表示. 图神经网络是一个图的特征学习的过程, 要实现对于图数据的端对端学习, 学习系统必须能够适配图数据的内在模式. 图数据中同时包含着两部分信息: 图中对象的固有性质与对象之间的性质. 这种由关联所产生的结构不仅对图数据中节点的刻画具有很大的帮助作用, 而且对全图的刻画也起着关键作用, 针对图数据的学习系统, 必须能够做到对属性信息和结构信息进行端对端的学习. 图卷积的研究从两个方面展开, 谱域卷积和空域卷积. 谱方法是一种图上的信号处理, 把图上的信号投影到谱域, 再与卷积核相乘, 最后利用傅里叶逆变换把信号变换到节点域[12]. Gori等人[13]首次提出了图神经网络; Bruna等人[14]从卷积定理出发, 定义了谱空间的卷积, 由于该方法空间复杂度高; Defferrard等人[15]提出了用切比雪夫多项式来近似卷积核, 不需要做特征分解, 将计算复杂度降低. 在这两种方法启发下, Kipf等人[7]通过堆叠多个卷积层建立了一个GCN模型, 他提出的图卷积神经网络可以看作是谱方法和空间方法的融合. 此外, 受传统自动编码器的启发, Kipf等人[8]结合图卷积神经网络提出了图自动编码器(GAE), 在编码层利用图卷积神经网络作为编码器将图结构集成到节点特征中, 学习节点嵌入. GAE没有像自编码器一样恢复输入的特征, 而是重建图, 因为节点的连接可以被视为弱监督信息[16]. 具体地说, 解码器计算任意两个节点之间的内积, 然后将它们映射到一个概率空间中, 通过Sigmoid函数来模拟相似性. 随着卷积算子的逐渐完善, 多种多样的图特性成为人们的关注点. 图卷积也被应用到各个领域, 例如, 网络分析[17], 生物化学[18], 自然语言处理[19]等.

1.2 多视图聚类

给定一个标签未知的多视图数据集, 多视图聚类算法挖掘并利用不同视图之间的一致性信息和互补性信息, 构建并学习共识函数, 融合不同视图, 最后将每个数据样本划分到相应的类中. 多视图聚类作为一个新兴的研究领域, 获得了国内外学者的广泛研究, Chao等人[20]对多视图聚类的研究做了综述性介绍; De Sa[21]率先研究了两个视图数据的谱聚类, 基于最小化不一致性准则提出一种由二部图构建的谱聚类算法; Zhou等人[22]通过归一化图切割算法从单视图聚类扩展到多视图聚类; Cheng等人[23]结合协同正则化技术提出一种多视图的图聚类算法; Zhan[24]将图拉普拉斯矩阵融合的方法用于多视图数据聚类. 此类传统多视图聚类方法通常是线性模型和浅层模型, 揭示复杂多视图数据关系的能力有限.

2 模型与算法

在本节将详细介绍本文提出的基于张量图卷积的多视图聚类网络(TGCNMC). 如图1所示, 网络结构主要由两个部分组成. 基于张量图卷积的图自编码器模块和自监督图聚类模块.

图 1 基于张量图卷积的多视图聚类框架图

给定一个多视图的数据集 $H = \left\{ {{H^{\left( 1 \right)}} \cdots {H^{\left( m \right)}}} \right\}$ m个视图的n个节点组成. $ {H^{\left( m \right)}} \in {R^{{{{d}}_{{m}}} \times n}} $ 表示第m个视图的特征矩阵. $ {d_m} $ 表示第m个视图数据的维度. $A = \left\{ {{A^{\left( 1 \right)}} \cdots {A^{\left( m \right)}}} \right\} \in $ $ {\mathbb{R}^{n \times n}}$ 表示每个视图的构图. 首先将特征数据的平面图进行串联为张量图作为编码器的输入, 它将图结构A和节点内容X都编码为张量的节点表示. 在编码部分首先采用传统的图卷积聚合每个视图中来自邻居节点的信息, 再利用图间图卷积进行多视图的信息互相传递, 协调图之间的异构信息, 将学到的信息进行平均池化, 再利用多个解码器重构出原始图结构. 张量图卷积的引入更加全面地挖掘了多视图共同的潜在以及视图间的互补性信息. 此外, 使用由编码部分学习到的嵌入表达Z本身生成的软标签来监督编码器参数和聚类中心的学习, 使表示更适合聚类任务.

2.1 张量图自编码器

为更加全面的学习多视图数据的信息, 本文提出了基于图卷积设计了一个可全面融合多视图信息的张量图自编码器. 其中通过基于张量图卷积的图自编码器学习共同的潜在表示. 此外, 设计了多视图解码器从学习表示中重建多视图图数据.

假设一个无向图 $ G = \left( {V, E} \right) $ , 其中 $ \left| v \right| = n $ 表示图G中有n个节点, E表示边的集合, 对于每个节点i均有特征 $ {x_i} $ , 用矩阵 $ X{{n}}\times {{d}} $ 表示, 则将特征矩阵X和邻接矩阵A构成GCN的输入.

$ {{H}}^{{l}+1}={f}({{H}}^{{l}}, {A})={\sigma }\left({{D}}^{-\frac{1}{2}}\widehat{{A}}{{D}}^{-\frac{1}{2}}{{H}}^{\left({l}\right)}{{W}}^{\left({l}\right)}\right) $ (1)

其中, $ {H^0} = X $ 为第一层输入 $ X \in {R^{n \times d}} $ , n为图中节点数, d为每个节点特征向量的维度, A表示邻接矩阵. 在本文中, 将多视图定义为 $G = \left\{ {{G^{\left( 1 \right)}} \cdots {G^{\left( m \right)}}} \right\}$ , 其中 $ {G^{\left( 1 \right)}} = $ $ \left\{ {{V^{\left( 1 \right)}}, {E^{\left( 1 \right)}}} \right\} $ , $ {V^{\left( 1 \right)}} $ 代表第一个图的节点集合, m表示m种视图, 对于同一节点在不同视图下节点相同, 邻接矩阵不同, 即 $ {V^1} = {V^2} $ , $ {A^1} \ne {A^2} $ . 图结构是由邻接矩阵来表示, 将邻接矩阵定义成张量的形式 $A = \left\{ {{A^{\left( 1 \right)}} \cdots {A^{\left( m \right)}}} \right\} \in $ $ {\mathbb{R}^{m \times n \times n}}$ , $ {A^{\left( 1 \right)}} $ 代表第一张图的邻接矩阵. 所构成的张量图中每个图的节点都相同, 每个图连接节点的边不同. 张量图内的数据点通常是相互关联的, 不同的视图内有不同的关联关系, 本文将图的特征矩阵X和多视图构建的张量邻接矩阵A作为输入. 将式(1)应用到张量图中, 可以得到式(2).

$ {H^{(l)}}\left( { * , * , * } \right) = \sigma \left( {\hat A\left( { * , * , * } \right){H^{(l)}}\left( { * , * , * } \right){W^{(l)}}} \right) $ (2)

本文中图自编码器编码部分由两层构成. 第一层由传统的图卷积层, 输入多视图数据 $G = \left\{ {{G^{\left( 1 \right)}} \cdots {G^{\left( m \right)}}} \right\}$ 和相应图 $A = \left\{ {{A^{\left( 1 \right)}} \cdots {A^{\left( m \right)}}} \right\}$ , 将多视图串联为一个张量图进行图内卷积, 用于聚合图中每个节点邻居的信息. 因此, 套用式(2), 可以得到式(3).

$ {H^{(l)}}\left( {v, * , * } \right) = \sigma \left( {\hat A\left( {v, * , * } \right){H^{(l)}}\left( {v, * , * } \right){W_{tn}}^{(l, v)}} \right) $ (3)

其中, $ H \in {R^{m \times n \times d}} $ , $ A \in {R^{m \times n \times n}} $ .

第二层做图间图卷积, 是在张量图中不同的图间进行传递信息, 使不同的图的异构信息就可完整地融合成一个一致的信息. 张量图中的所有图共享节点集, 将张量图中每张图的同一个节点相互连接, 最终, 得到了 $ n $ 个虚图, 虚图中的所有节点都相互连接, 并且边权值设置为1, 使异构信息更有效地融合在一起. 从而得到了一个新的图邻接张量 $ \hat A' \in {R^{m \times m \times n}} $ . 图间图卷积如式(4)所示.

$ {H^{(l + 1)}}\left( { * , i, * } \right) = \sigma \left( {\hat A\left( { * , * , i} \right){H_{tn}}^{(l)}\left( { * , i, * } \right){W_{tj}}^{(l, i)}} \right) $ (4)

其中, $ {H^{(l + 1)}} \in {\mathbb{R}^{r \times n \times d}} $ .

在完成图间图卷积后, 对得到的图进行平均池化, 用来得到要聚类的文档节点的最终表示.

为监督张量图卷积编码器学习的融合表示, 采用多组图解码器从嵌入表达Z重建多视图图数据 ${A^{\left( 1 \right)}} \cdots {A^{\left( m \right)}}$ . 由于学习到的表示已经包含了内容和结构信息, 因此采用特定的解码器来预测节点之间的链接, 如式(5).

$ \sum\limits_{m = 1}^m {\hat A = \sum\limits_{m = 1}^m {\sigma \left( {\phi \left( {Z \cdot {W_m} \cdot {Z^{\rm{T}}}} \right)} \right)} } $ (5)
$ \phi \left( x \right) = x - \frac{1}{x} $ (6)

其中, σ是逻辑符号函数. 重构的邻接矩阵的元素是通过 $s({{\textit{z}}_i}, {{\textit{z}}_j}) = {{\textit{z}}_i}^{\rm{T}}{{\textit{z}}_j}$ $Z \cdot {W_{{m}}} \cdot {Z^{\rm{T}}}$ 做了一个非线性变换. 其中 ${W_{{m}}}$ 是第 $ m $ 个特定解码器中学到的参数矩阵. 在 $ x $ 较大的时候, 采用 $ \phi \left( x \right) $ 可以更好的逼近 $ y = x $ , $ \phi \left( x \right) $ 函数更好地对节点对的内积进行映射.

为降低 $ {A^{\left( M \right)}} $ ${\widehat A^{\left( M \right)}}$ 之间的差异, 最小化每个视图的重建误差之和来优化模型.

$ {L}_{r}={\displaystyle \sum _{m=1}^{M}loss({A}^{\left(M\right)}\text{, }{\widehat{A}}^{\left(M\right)})} $ (7)
2.2 自监督模型

图聚类是一个无监督的任务, 在训练的过程中不了解学到的嵌入是否有好的优化. 受到DEC[9]的启发, 本文使用一种自监督的嵌入算法作为监督优化. 自监督模型就是对图自编码器所学习到的嵌入进行约束和整合, 使其更适合于聚类任务.

给定初始簇质心 $ {\mu _j} $ , 使用t分布作为核来衡量嵌入表示点 $ {{\textit{z}}_i} $ 和质心 $ {\mu _j} $ 之间的相似性.

$ {q_{ij}} = \frac{{{{\left( {1 + \parallel {{\textit{z}}_i} - {\mu _j}{\parallel ^2}/v} \right)}^{ - \frac{{v + 1}}{2}}}}}{{\displaystyle\sum {j'{{\left( {1 + \parallel {{\textit{z}}_i} - {\mu _j}^\prime {\parallel ^2}/v} \right)}^{ - \frac{{v + 1}}{2}}}} }} $ (8)

分配样本i到集群j的概率为 $ {q_{ij}} $ , 也称为软分配分布. 进一步的, 聚类信息来实现聚类导向的节点表示. 为实现类内距离最小, 类间距离最大. 因此, 定义了如下的目标分布:

$ {P_{ij}} = \frac{{{q_{ij}}^2/{f_j}}}{{\displaystyle\sum {j'} {q_{ij}}{{^\prime }^2}/{f_j}^\prime }} $ (9)

其中, $ {f_j} = \sum\limits_i {{q_{ij}}} $ 是软簇频率. 通过这种方法, 可以通过分割数据分布来更好的将相同的类数据集中, 并为多视图聚类获得更有效和更通用的表示.

最后, 通过计算两个分布之间的交叉熵, 来实现互相约束, 也就是所谓的自监督:

$ L{{\kern 1pt} _c} = H\left( {p, q} \right) = - \sum\limits_{i = 1}^n {{p_{ij}}} \log {q_{ij}} $ (10)

本文TGCNMC总损失由两部分构成如下所示:

$ L = {L_r} + \gamma {L_c} $ (11)

其中, $ {L_r} $ $ {L_c} $ 分别为重建损失和聚类损失, $ \gamma \geqslant 0 $ 是一个控制两者之间平衡的系数.

3 实验分析

在公开的数据集上对本文提出的算法与经典的深度聚类算法进行对比实验, 来验证本文所提出方法的有效性.

3.1 数据集

DBLP是一个引用网络数据集, 此数据集来自于DBLP, ACM, MAG和其他来源中提取的一个具有多重属性图的单视图数据, 按照在文献[25]中的设置来构建多视图数据集. 分别利用同一篇论文中合作关系同一会议发表论文和两位作者发表了相同术语的论文这3种关系来构建3个不同视图. 按此方法构建的多视图数据集避免了在视图收集中某个视图的部分数据缺失问题.

ACM数据集包含出版KDD, SIGMOD, SIGCOMM, MobiCOMM和VLDB和被分为3类的论文. 该数据集包含3025篇论文, 5835名作者和56个主题. 分别利用两篇论文由同一作者撰写关系和两篇论文包含相同的主题关系, 构建了两个视图.

IMDB是一个电影网络数据集. 利用电影由同一演员表演和电影由同一导演两组关系来构建两个视图. 对数据集的详细描述见表1.

表 1 本文所用数据集

3.2 参数及指标

算法运行环境: PyCharm 2020; 加速环境: Cuda_10.2; 操作系统: Windows 10; 深度学习框架: TensorFlow 1.15.0; 语言环境: Python 3.7.

本文训练所有与自动编码器相关的模型(GAE、O2MAC、DCNS、TGCNMC)进行1000次迭代, 使用Adam算法进行优化, 学习率λ设置为0.001. 所有嵌入方法的维数均为32. 对于O2MAC, 收敛阈值设置为δ=0.1%, 更新间隔为T=20. 对于其余的参数, 采用了在相应的论文中所描述的设置. 由于所有的聚类算法都依赖于初始化, 本文使用随机初始化重复所有的方法重复10次, 并报告平均性能.

评估指标: 使用4种评价指标来评判聚类效果: 聚类准确性ACC, 标准化互信息NMI, 调整兰德系数ARI和FF1. 一般来说, 这4种指标的值越高, 就表示聚类效果更好.

3.3 对比试验

实验对比当前主流深度学习聚类算法, 来对所本文提出算法性能进行验证. GAE[8]将图上的光谱卷积移植到自编码器框架上的方法; SDCN[9]方法使用图卷积神经网络和自动编码器共同构建聚类网络. 并提出自监督模块对图卷积模块和自动编码器模块的参数进行更新. SwMC[26]为一种自加权多视图图聚类方法. 通过引入自权重参数, 学习一个拉普拉斯秩约束的相似图; O2MAC[26]为一对多视图自动编码聚类方法, 一对多视图图自编码器能够通过使用一个信息图视图和内容数据来重建多个图视图来学习节点嵌入.

3.4 实验结果

所提出的算法在3组数据集上与当前的一些聚类方法的性能对比见表2. 实验分析如下.

表 2 不同数据集上聚类效果对比

与多视图模型SwMC对比分析. 首先可以看出, 本文提出的基于GCN的方法比基于图的浅层方法SwMC的性能更好, 证实了图卷积网络将相邻信息与节点特征结合起来是有用的; 其次, 因为SwMC是一种两步融合方法, 而且这种混合操作可能会引入噪声. 使用简单的多视图加权处理的SwMC并不能提高结果. 因此, 本文提出的端到端融合的模型, 可以更好的完成聚类任务.

O2MAC模型使用挑选信息量最为丰富的视图作为输入, 对视图间互补性信息捕获不佳. 而本文为了更好地提取各个视图结构, 将所有视图作为TGCNMC的输入, 对3种视图数据进行串联, 各个视图间分别进行图内学习以及视图间的互相学习, 更加完整的揭示多视图数据中的一致性与互补性信息. 通过与O2MAC模型对比, 可以看出本文提出的模型在ACC、NMI等评价指标上有一定的提升, 得到更好的聚类结果. 验证张量图卷积的有效性.

此外本文通过相同数据集下与单视图聚类模型GAE及SDCN进行实验与O2MAC及本文提出的方法TGCNMC进行对比, 可以看出多视图聚类方法的性能优于具有最佳视图结果的单一聚类方法

4 结论

本文研究了深度学习下的多视图聚类, 旨在通过图神经网络来挖据多视图数据的互补性信息和一致性信息, 更加全面的描述数据. 因此, 本文提出了一种基于张量图卷积的多视图聚类方法. 此方法将多视图串联为张量图, 采用图内图卷积来聚合各个视图中来自邻居节点的信息, 再利用图间卷积来进行多个视图间的信息的交换学习, 有效地挖掘了多视图的一致性及互补性信息. 此外本文还引入了一个自监督聚类模型来优化聚类结果, 使特征空间更适合聚类. 通过将其实验结果与几种典型的算法进行了比较, 验证了该方法的有效性.

参考文献
[1]
Gao XJ, Mu TT, Goulermas JY, et al. Topic driven multimodal similarity learning with multi-view voted convolutional features. Pattern Recognition, 2018, 75: 223-234. DOI:10.1016/j.patcog.2017.02.035
[2]
宗林林. 多视角聚类研究[博士学位论文]. 大连: 大连理工大学, 2017.
[3]
Elhamifar E, Vidal R. Sparse subspace clustering: Algorithm, theory, and applications. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(11): 2765-2781. DOI:10.1109/TPAMI.2013.57
[4]
Kumar A, Daume III H. A co-training approach for multi-view spectral clustering. Proceedings of the 28th International Conference on International Conference on Machine Learning. Bellevue: ACM, 2011. 393–400.
[5]
Brbić M, Kopriva I. Multi-view low-rank sparse subspace clustering. Pattern Recognition, 2018, 73: 247-258. DOI:10.1016/j.patcog.2017.08.024
[6]
Luo SR, Zhang CQ, Zhang W, et al. Consistent and specific multi-view subspace clustering. Proceedings of the 32nd AAAI Conference on Artificial Intelligence. New Orleans: AAAI, 2018. 3730–3737.
[7]
Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks. Proceedings of the 5th International Conference on Learning Representations. Toulon: OpenReview.net, 2017.
[8]
Kipf TN, Welling M. Variational graph auto-encoders. arXiv: 1611.07308, 2016.
[9]
Bo DY, Wang X, Shi C, et al. Structural deep clustering network. Proceedings of Web Conference 2020. Taipei: ACM, 2020. 1400–1410.
[10]
Wang C, Pan SR, Hu RQ, et al. Attributed graph clustering: A deep attentional embedding approach. Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macao: IJCAI, 2019. 3670–3676.
[11]
Jing BT, Tong HH, Zhu YD. Network of tensor time series. Proceedings of Web Conference 2021. Ljubljana: ACM, 2021. 2425–2437.
[12]
白铂, 刘玉婷, 马驰骋, 等. 图神经网络. 中国科学: 数学, 2020, 50(3): 367-384.
[13]
Gori M, Monfardini G, Scarselli F. A new model for learning in graph domains. Proceedings of 2015 IEEE International Joint Conference on Neural Networks. Montreal: IEEE, 2005. 729–734.
[14]
Bruna J, Zaremba W, Szlam A, et al. Spectral networks and locally connected networks on graphs. Proceedings of the 2nd International Conference on Learning Representations. Banff: ICLR, 2014.
[15]
Defferrard M, Bresson X, Vandergheynst P. Convolutional neural networks on graphs with fast localized spectral filtering. Proceedings of the 30th International Conference on Neural Information Processing Systems. Barcelona: NIPS, 2016. 3844–3852.
[16]
Zhang HY, Zhang R, Li XL. Embedding graph auto-encoder for graph clustering. arXiv: 2002.08643, 2020.
[17]
Leung CK, Cuzzocrea A, Mai JJ, et al. Personalized deepinf: Enhanced social influence prediction with deep learning and transfer learning. Proceedings of 2019 IEEE International Conference on Big Data. Los Angeles: IEEE, 2019. 2871–2880.
[18]
Zitnik M, Agrawal M, Leskovec J. Modeling polypharmacy side effects with graph convolutional networks. Bioinformatics, 2018, 34(13): i457-i466. DOI:10.1093/bioinformatics/bty294
[19]
Yao L, Mao CS, Luo Y. Graph convolutional networks for text classification. Proceedings of the the 33rd AAAI Conference on Artificial Intelligence, the 31st Conference on Innovative Applications of Artificial Intelligence, the 9th Symposium on Educational Advances in Artificial Intelligence. Honolulu: AAAI, 2019. 7370–7377.
[20]
Chao GQ, Sun SL, Bi JB. A survey on multi-view clustering. arXiv: 1712.06246, 2017.
[21]
De Sa VR. Spectral clustering with two views. Proceedings of Workshop on Learning with Multiple Views. Bonn: ICML, 2005. 20–27.
[22]
Zhou DY, Burges CJC. Spectral clustering and transductive learning with multiple views. Proceedings of the 24th International Conference on Machine Learning. Corvalis: ACM, 2007. 1159–1166.
[23]
Cheng W, Zhang X, Guo ZS, et al. Flexible and robust co-regularized multi-domain graph clustering. Proceedings of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Chicago: ACM, 2013. 320–328.
[24]
Zhan K, Nie FP, Wang J, et al. Multiview consensus graph clustering. IEEE Transactions on Image Processing, 2019, 28(3): 1261-1270. DOI:10.1109/TIP.2018.2877335
[25]
Fan SH, Wang X, Shi C, et al. One2Multi graph autoencoder for multi-view graph clustering. Proceedings of Web Conference 2020. Taipei: ACM, 2020. 3070–3076.
[26]
Nie FP, Li J, Li XL. Self-weighted multiview clustering with multiple graphs. Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne: IJCAI, 2017. 2564–2570.