2. 广州市智慧农业重点实验室, 广州 510642
2. Guangzhou Key Laboratory of Intelligent Agriculture, Guangzhou 510642, China
近年来, 将深度学习应用于图结构数据受到广泛关注, 并广泛应用于自然语言处理、计算机视觉和推荐系统. 图神经网络可以看作是节点之间的连接和消息传递之间的一个过程. 自从引入图卷积神经网络 (graph convolutional networks, GCN)[1]以来, 许多高性能的设计已经被提出来解决节点分类问题. 例如, 图注意网络 (graph attention networks, GAT)[2], GraphSAGE[3]和JKNet[4]等. 随着越来越多的网络结构的提出, 模型的精度也稳步提高.
图卷积神经网络的目标是将节点特征转换为能够感知图的结构的特征, 可以通过聚合多层邻居信息来增加感知域, 并提高对图结构的认识. 但是, 随着GCN层数的加深, 将会导致梯度消失、过平滑、过拟合等一系列问题. 随着图卷积神经网络的发展, 有许多方法可以减少过平滑. 例如GCNII[5]通过初始残差连接和恒等式映射, 缓解了过平滑问题. DeeperGCN[6]提出了两个广义的均值-最大聚合函数, 分别是Softmax聚合函数与PowerMean聚合函数. JKNet需要保存每一层的中间层信息, 最后进行层聚合. 虽然已有部分文章提出缓解图卷积神经网络过平滑问题, 但是它们提出的方法并不是都适用于图卷积神经网络节点分类任务, 如果随意使用常见的缓解过平滑的技巧, 往往会使得模型效果适得其反.
然而, 单个分类器的性能是有局限性的, 通过融合多个模型的技术可以进一步提升分类的精度. 这些信息融合的概念产生于20世纪70年代末, 最开始起源于军事领域, 但随着信息融合技术本身、计算机和网络通信以及控制技术的发展, 信息融合已成为信息处理的一种通用工具和常用的思维模式.
信息融合技术应用于分类问题也称为多分类融合技术, 旨在利用各分类器检测的信息和不同的处理方法以获得对分类对象的全面检测信息, 从而提高分类精度和可靠性. 目前, 常见的融合方法有投票法[7]、最大值法[8]和权重平均法[9]. 投票法是一种遵循多数票原则的集成学习模型. 最大值法是一种选择样本并选择分类效果概率最高的方法. 加权平均法根据不同的模型对最终结果的贡献不同, 这可以代表不同模型的重要性. 虽然这些上述传统的融合方法是常用且高效的, 但是他们并不能具有对分类器的准确性、描述的质量和可区分性具有可解释性.
然而, 采用模糊积分融合技术替代传统融合技术进行多分类器模型融合. 与传统的融合技术相比, 恰恰能够弥补它们的不足. 在计算模糊测度值中, 通过计算模糊测度公式描述分类器的准确性、质量以及可区分性. 这使得使用模糊积分融合技术进行多分类器融合相比于传统融合方法具有更优的可解释性与效果.
综合以上分析, 本文主要围绕图卷积神经网络用于节点分类性能不佳的问题, 为了减轻GCN的深层影响和提高泛化性, 提出了一种结合层注意力的GCNRN模型, 利用残差连接结构, 使得节点特征获得更好的表达, 从而有效提升其泛化能力. 最后, 为基于模糊积分的多分类器融合机制构建融合分类框架, 以整合更深入的节点信息, 提高分类精度.
本文的主要工作如下.
(1)提出了一种基于图卷积神经网络的结合残差网络与层注意力的分类算法, 从而更好地表达节点的表征.
(2)基于模糊积分构建融合分类框架, 以获得更深层次的信息, 从而提升整体分类效果.
(3)在4个公共基准数据集上进行实验, 验证了本文的分类算法的分类指标高于同类算法.
本文架构如下: 第2节将简要介绍相关工作; 第3节提出本文的创新方法, 分别从核心分类模型、融合算法和整体框架展开介绍; 第4节分别在多个数据集上展开对比验证, 并分析和讨论了本文算法的特点; 最后一节给出简要总结和未来研究方向.
2 相关工作 2.1 基于图神经网络的分类算法图神经网络GNN自2009年模型被提出[10], 直到2017年GCN模型的出现使得图神经网络得到快速发展. Bruna等人[11]首先利用谱域内的图的傅里叶变换和卷积神经网络相结合, 产生频谱图卷积神经网络. Kipf等人[1]提出了使用切比雪夫多项式简化图卷积. 图卷积神经网络中的消息聚合和消息更新是消息传递机制中的两个重要过程. 首先聚合每个邻居节点的信息, 并将其传输到目标节点, 然后通过消息更新将目标节点的信息和邻居节点传递来的信息进行更新, 最终得到目标节点的表示. 图卷积神经网络层是由频率响应函数的线性近似推导出来的, 但是和深度学习中深度网络给模型带来的强大拟合能力一样, 通过堆叠多层图卷积神经网络, 在某种程度上, 可以达到高阶多项式形式的频率相应函数的滤波能力.
图卷积神经网络架构被广泛使用, 它依赖于层级的传播规则. 我们定义
$ {X^{(l + 1)}} = \sigma \left({D^{ - \frac{1}{2}}}A{D^{ - \frac{1}{2}}}{X^{(l)}}{W^{(l)}}\right) $ | (1) |
目前以GCN内核为基础的模型中, 例如GraphSAGE、DeeperGCN、JKNet和GCNII模型, 在面对多层图卷积过平滑问题, 大多对初始残差连接块、聚合函数和中间层进行填充聚合器进行改进以适应深层模型.
但是上述基于GCN内核的分类算法仍无法解决深层过平滑问题和融合模型的问题. 因此, 本文首先结合注意力机制与残差网络结构, 再利用模糊积分融合多分类器的方式提取更深层次的信息, 最终提升模型性能.
2.2 分类器融合机制信息融合技术应用于分类问题称为多分类融合技术, 从而提高分类精度和可靠性, 对于分类问题, 主要分为3个层次上的融合, 数据融合、特征级融合和决策级融合. 常见的融合工具有投票法、最大值法、权重平均法等.
传统的融合技术是常用且高效的, 但仍各自存在缺陷. 最大值法只是对样本使用分类结果概率最高的方法, 但该方法不能忽略分类器对样本描述的质量和区别. 投票模型融合方法采用多数票规则进行投票, 但该方法依赖于模型的区分度. 如果相似的模型融合, 投票融合效果会更差. 权重平均模型融合方法根据准确率为不同的模型分配不同的权重, 但该方法考虑的分类器指标太少, 无法影响最终的融合效果.
为了避免上述传统方法存在的问题, 能够充分考虑多个分类器的联合贡献率, 本文采用模糊积分[12]做多分类器融合算法.
在基于模糊积分的多分类融合系统中, 模糊测度的取值决定着模糊积分的值, 从而对分类结果产生较大影响. 依靠模糊测度能够对分类器间交互作用的特性, 实现将多个分类器融合后性能的正向提升. 在应用模糊积分进行融合时, 需要学习出最优的模糊测度值, 以更好地表现各分类器自身在融合系统中具有的重要程度和分类器之间的交互作用, 以达到有效提高融合的分类性能的目的.
3 模型设计本文提出了一种基于初始残差连接和层注意力方法的GCNRN模型. 该方法基于ResNet首次提出了跳跃连接, 可以缓解深度GCN的过平滑问题, 提高了模型的泛化性. 另外, GCNRN模型添加了一个层注意力机制建模每一层嵌入的重要程度, 最后根据每一层的嵌入结果完成分类任务.
3.1 GCNRN模型框架GCNRN模型框架如图1所示, 其中, 包含线性变化层、图卷积层、残差网络层、自注意力层和分类层.
线性变换层为了避免高维输入特征
图卷积神经网络层包含Norm[13]、ReLU[14]和Dropout模块[15], Norm模块主要用于加速网络的收敛速度, 具有一定程度的正则化效果. 经过归一化操作后, 不同维数的特征具有数值可比性. ReLU是一个分段线性函数, 相较于线性函数更具表现力. 由于非负区间的梯度是常数, 因此ReLU函数不存在梯度消失的问题, 可以使模型的收敛速度处于稳定状态. Dropout模块可以防止过拟合, 在训练过程中减少了特征之间的交互作用, 以减少过拟合, 在该模型中用于提高模型的鲁棒性和测试的准确性.
残差连接结构需要将模型的输入
$ {e_i} = \alpha \times {e_0} + \beta \times {e_{i - 1}} + \gamma \times {e_i} $ | (2) |
为更好地得到图卷积神经网络的最终表达, 采用自注意力机制来建模每一层嵌入的重要程度, 使用
$ at{t_{\textit{z}}} = {\textit{Softmax}} (ReLU({e_{\text{0}}} \times {e_{\textit{z}}})) $ | (3) |
利用注意力向量将每层的嵌入向量加权求和可以得到最终的节点表征
$ e = \sum\limits_{{\textit{z}} = 0}^k {at{t_{\textit{z}}} \times {e_{\textit{z}}}} $ | (4) |
基于模糊积分的多分类融合方法是一种扩展的加权平均法, 可以根据分类器的输出与模糊测度动态为各分类器赋予权重, 从而使得融合后的分类性能比单个分类器效果好.
3.2.1 模糊积分模糊积分原理是建立在模糊测度上的概念. 设
(1)平凡性. 若
(2)单调性. 若
由此定义模糊积分.
$ \int f d \mu=\sum_{i=1}\left[f\left(x_i\right)-f\left(x_{i-1}\right)\right] \mu\left(A_i\right) $ | (5) |
对于给定训练样本集
为了进一步给出模糊测度的计算式, 我们需要引入分类器识别过程中的3个不确定性表征量[17].
(1) 随机性或概率不确定性. 分类正确率是对这一不确定性的反映, 我们使用
(2)清晰度. 分类器对某类别的正确认知能力以及认知的清晰度大小称为分类器对这一类的清晰度, 定义为
$ F_j^i = \frac{{\displaystyle\sum\limits_{k = 1}^s {f_j^i} }}{s} $ | (6) |
(3)描述品质. 当样本被正确分类的时候, 输出向量中最大分量的值越大, 其他分量的值越小, 则该输出向量的歧义性越小, 分类器的分辨能力越强; 输出向量的歧义性反映出的分类器的分辨能力称为分类器的描述品质, 用符号
$ D_j^i = \left[ {\frac{{\displaystyle\sum\limits_{k = 1}^s {(2 \times a_{kj}^i - 1)} }}{s}} \right] + \left[ {\frac{{\displaystyle\sum\limits_{k = 1}^{L - s} {(1 - 2 \times a_{kj}^{i'})} }}{{L - s}}} \right] $ | (7) |
其中, 对分类器
最终对分类器
$ V_j^i = {R_i} \times F_j^i \times {e^{ - \frac{{(2 - D_j^i)}}{4}}} $ | (8) |
基于模糊积分的多分类融合模型, 要求分类器的输出为非负值向量, 对于一个共有
如果学习节点嵌入能够考虑更深入的信息同时保持模型的泛化性, 那么就可以缓解模型过平滑问题. 本文提出的GCNRN模型采用了残差结构与层注意力方案, 恰恰能够解决这一问题.
为了避免高维输入引起的操作复杂性, 我们需要通过全连接层来降低特征矩阵的维数. 每一层都需要Norm、ReLU和Dropout层. 在每一层中, 残差网络结构需要将输入
算法1. GCNRN模型框架
输入: 图
输出: 表征向量
1.
2. for k=1, …, K do
3.
4.
5.
6.
7.
8. end for
9. for k=1, …, K do
10.
11.
12. end for
13.
14.
15.
如图1所示, 分类层将最终的节点表征
模型训练时, 本文使用交叉熵L作为损失函数进行最小化, 如式(9)所示. 其中, N表示样本个数, M代表类别个数,
$ L = - \frac{1}{N}\sum\limits_{{{i}} = 0}^{N - 1} {\sum\limits_{c = 0}^{M - 1} {{p_{i, c}}\log ({q_{i, c}})} } $ | (9) |
本节将验证所提出的GCNRN模型的有效性, 在多个数据集上进行图节点分类实验, 并与多个基于经典模型展开对比. 同时, 针对融合模块, 与传统的模型融合方法展开对比研究, 证实了模糊积分融合机制的有效性.
4.1 基于模糊积分的多分类器融合方法本文采用的4个数据集分别是ogbn-arxiv[19]、Cora、Citeseer和PubMed数据集, 详情如表1所示.
ogbn-arxiv是一个真实的、大规模、多样的论文引文网络数据集, 每一个节点代表一篇arXiv论文, 每条有向边代表节点之间的引用关系, 每篇论文都有128维的特征向量, 它是通过对标题和摘要中单词的嵌入进行平均得到的, 常被用于40类的多分类问题. 另外3个数据集选取了被广泛使用的Cora、Citeseer和PubMed数据集, 相比于ogbn-arxiv, 它们的数据量是在2000到20000节点内, 属于轻量级数据. 本文需要在大型和小型数据集的应用中, 验证GCNRN模型的泛化性能以及分类性能.
本次实验模型是在PyTorch框架下实现的, CPU是锐龙R7 2700X 3.8 GHz. 内存是16 GB, 显卡是GeForce GTX 3060.
4.2 实验超参数设定为了保证实验的可靠性与公平性, 本文使用交叉验证方法将数据集划分训练集、验证集和测试集, 比例为8:1:1. 本文5个对比模型的最终嵌入向量维度与本文提出的GCNRN模型维度相同.
本模型中的参数大多取多个模型的经验数据设定如表2所示, 只有其中的图卷积迭代次数la会对计算复杂度和分类性能产生一定影响. 本文对la做了取值变化测试, 在4个数据集上分别从1到6展开实验, 性能变化趋势如图2所示, 对每个数据库都可以看出, la取值为5时为性能较优的设置. 尤其对于ogbn-arxiv数据集, 卷积次数从la=1到la=2变化时, 分类准确率波动很大, 由于其数据量巨大, 导致了图卷积次数过少就会造成欠拟合, 而图卷积次数的数量对另外3个数据集影响波动较小, 经过实验结果的细微对比和宏观验证, 确定模型中的图卷积次数为la=5.
4.3 评价指标
本文的模型分类指标采用准确率 (accuracy)、验证集准确率 (valid)、宏平均 (macro_avg)和权重平均(weighted_avg) 4种来评价模型性能. 准确率如式(10)所示, 是针对测试数据集模型正确分类的样本数与总样本数的比值, 反映了模型对整个样本的判定能力. 其中, TP代表把正样本成功预测为正, TN代表把负样本成功预测为负, FP代表把负样本错误预测为正, FN代表把正样本错误预测为负.
$ accuracy = \frac{{TP + TN}}{{TP + TN + FP + FN}} $ | (10) |
$ precision = \frac{{TP}}{{TP + FP}} $ | (11) |
$ recall = \frac{{TP}}{{TP + FN}} $ | (12) |
$ F1=\frac{2 \times precision \times recall}{precision+recall} $ | (13) |
验证集准确率是对给定的验证数据集, 分类器正确分类的样本数与总样本数的比值.
宏平均如式(14)所示, 是指所有类别的每一个指标值的算数平均值, 也就是宏精确率precision、宏召回率recall和宏F1值的算数平均值, 并且给他们赋予相等的权重, 这个方法平等看待每个类别.
$ macro\_avg = \frac{precision + recall + F1}{{3}} $ | (14) |
权重平均如式(15)所示, 是用每一个类别样本数量在所有类别的样本总数的占比作为W权重, 再做加权平均计算. 该方法考虑了类别不平衡的情况, 相比于宏平均方法更具有可解释性.
$ weighted\_avg = \frac{{W_{{p}}} \times precision + {W_{{r}}} \times recall + {W_{{F}}} \times F1}{3} $ | (15) |
在完成数据准备、参数设定和评价指标确定之后, 本文所提出的方法将与以下几个经典模型进行对比, 已验证模型性能. 相关模型包括多层感知机MLP[20]、GCN、DeeperGCN、JKNet和GraphSAGE, 具体介绍如下.
(1)多层感知机MLP. 这是一种前向结构的人工神经网络, 映射一组输入向量到一组输出向量, MLP是由多个节点层组成, 每一层都全连接到下一层. 将MLP应用于图数据, 不需考虑边的结构信息, 实现简单.
(2)图卷积神经网络GCN. 是能够直接作用于图并且利用其结构信息的图卷积神经网络, 对于每个节点都需要考虑所有邻居节点与自身的特征信息, 从而得到一个可以传入神经网络的结果向量.
(3)深度图卷积神经网络DeeperGCN. 此方法在堆叠多层图卷积神经网络的基础上, 对于通过加深图卷积层以获得更大的信息传播范围, 采用恒等映射与残差结构进行缓解过平滑问题.
(4) JKNet. 在堆叠多层图卷积神经网络的基础上加入了聚合层, 在加深传播范围的同时做整体的聚合, 并且在多层聚合时提出concatenation聚合方式, 将所有节点表针做串联后进行线性转换与最大池化操作, 以选择信息最丰富的表征层方法.
(5) GraphSAGE. 此算法的核心思想是如何聚合节点邻居特征信息, 它是通过采用随机采样的方法对邻居节点进行聚合以此降低计算复杂度, 得到各节点的表征以供下游任务使用.
(6) GCNRN. 本文采用了残差连接结构与层自注意力, 在残差结构中对嵌入向量以确定最优的超参数, 采用层自注意力机制计算多层图卷积神经网络的各层表征权重系数, 以期解决过平滑现象.
以上多个模型分别在ogbn-arxiv、Cora、Citseer和PubMed四个数据集开展了对比实验, 从表3中可以看出GCNRN模型在ogbn-arxiv、Citseer和PubMed数据集中accuracy、valid、macro_avg和weight_avg指标均优于其他模型, 有着明显的提升. 说明本文提出的模型是有效的, 并且能够很好地缓解过平滑问题, 从而最终得到更好的节点表征.
但是存在对于Cora数据集出现GraphSAGE模型的部分指标优于GCNRN的问题. 主要是因为Cora数据集的样本量较少, 只有2708个节点, 而GraphSAGE在进行邻居聚合的时候是选取少量数量的节点. 对于GCNRN相比GraphSAGE聚合所有邻居节点, 对于小数据集会出现过拟合现象, 但部分指标只是略低于GraphSAGE, 且仍然优于其他模型. 对于出现小数据集过拟合的现象, 本文在后面章节使用模糊积分融合的方法将GraphSAGE模型优点与GCNRN模型融合, 并且取得最终分类准确率的提升.
如图3所示, 本文提出的GCNRN模型在所有数据集上都是在100轮次之内就开始收敛, 速度较快, 尤其是在ogbn-arxiv密集型数据集上收敛速度最快, 而对于Cora、Citeseer和PubMed这3个相对稀疏的数据集, GCNRN模型在PubMed数据集上的收敛速度依然高于其他2个数据集, 这也证明了本文提出的模型在密集的数据集收敛比稀疏数据集收敛更快.
本文使用GCNRN模型对ogbn-arxiv数据集做节点分类实验, 并且将节点预测的类别清晰的区分开并且进行可视化, 如图4所示, 可以看出GCNRN模型的分类可视化效果相比于其他模型图更平滑, 并且形成一种聚集的状态.
除此之外, 在提出的分类框架中, 有效的模型融合可以取长补短各模型的优点, 本文采用了模糊积分融合机制, GCNRN的基础上融合了多个分类模型, 以提高分类框架整体分类性能. 本文采用融合模块的节点分类模型分别为GraphSAGE和JKNet. 并且使用模糊积分对比常用的平均法、最大值法和投票法这3种融合方法, 并且使用分类的准确率作为衡量指标.
在上述中出现GCNRN模型在Cora小数据集中部分指标略差与GraphSAGE模型. 为了解决这个问题, 在模型融合中, 本文需要将GraphSAGE模型对于小数据集缓解过平滑的优点迁移到GCNRN模型, 因此本文使用模型融合对分别使用GCNRN、GraphSAGE和JKNet模型进行两两融合与3个模型整体融合.
在表4模型融合结果中, 对于ogbn-arxiv数据集, 模型融合结果中可以看出, 在GCNRN、GraphSAGE和JKNet中无论是两两融合还是3个模型一起融合, 使用模糊积分进行融合的方法, 其分类准确率都是优于其他3种方法的. 从两两融合模型中来看, GCNRN模型与GraphSAGE模型融合是比GCNRN模型与JKNet模型融合的分类准确率更高的, 因为GCNRN模型融合了GraphSAGE随机采样的优点, 从而使得最终的融合结果更优.
另外, 在Cora数据集中使用融合后性能提升幅度很大, 主要原因是这个数据集较小, 那么模型融合后就会取得更优的模型融合效果. 与Cora数据集大小相近的数据集Citeseer, 同样发现使用模型融合后分类准确率提升幅度很大.
所以, 从上述的分析与表的模型融合结果可以得出以下结论, 对于数量级相对大的ogbn-arxiv、PubMed数据集, 经过模糊积分融合后都是有提升的, 但是Cora、Citeseer小数据量的数据集来看, 它们经过模型融合后提升的效果是更高的, 因为对于小数据集来说, 模型的划分的测试数据集是比较小的, 那么每个模型预测对这个结果的影响是更大的.
其次, 本文使用模糊积分融合相比于其他融合方法取得更好的效果, 使用模糊积分的优点是能使分类器的准确性、描述的质量和可区分性具有可解释性, 通过式(8)确定模糊测度后, 将分类精度作为确定模糊测度的基础, 从分类器的多个方面对其进行了检验. 这使得基于模糊积分融合技术进行多分类器融合相比于传统融合方法具有更优的效果.
如图5所示, 以数据集ogbn-arxiv为例, 将不同融合方法作用的结果进行了可视化分析, 可以清晰看出使用模糊积分的模型融合机制的分类框架准确率明显优于其他方法, 这体现了模糊积分做多分类融合的优势, 相比于其他常见的方法能有更好的融合能力. 蓝色标识的3种模型融合的效果优于融合2种模型.
5 总结
目前大部分基于图卷积神经网络的分类算法使用各种数据增强手段提升最终分类准确度, 本文研究并总结了现阶段已经存在的基于GCN的常见模型与常见数据增强方法并用于分类任务. 受JKNet和DeeperGCN等模型的启发, 我们提出了基于残差连接结构同时结合层自注意力方案的GCNRN模型, 使用自注意力优化了图卷积部分嵌入向量的最终表达, GCNRN模型比其他以GCN为核的模型取得了更好的效果.
为了进一步提取深层次的信息, 本文采用模糊集成的方法进行多分类模型融合, 并在实验结果表明, 模糊积分融合比常用的模型融合能更有效地融合分类器的互补信息. 在4个基准数据集上进行实验验证, 结果表明, 本文提出的方法对提升分类效果有一定的作用. 未来将在节点表征上采用更先进的框架, 采用不同的特征融合机制, 探究不同的特征融合机制对分类效果的影响.
[1] |
Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks. arXiv:1609.02907, 2016.
|
[2] |
Veličković P, Cucurull G, Casanova A, et al. Graph attention networks. arXiv:1710.10903, 2017.
|
[3] |
Hamilton WL, Ying R, Leskovec J. Inductive representation learning on large graphs. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 1025–1035.
|
[4] |
Xu KL, Li CT, Tian YL, et al. Representation learning on graphs with jumping knowledge networks. Proceedings of the 35th International Conference on Machine Learning. Stockholmsmässan: PMLR, 2018. 5453–5462.
|
[5] |
Chen M, Wei Z, Huang Z, et al. Simple and deep graph convolutional networks. Proceedings of the 2020 International Conference on Machine Learning. PMLR, 2020. 1725–1735.
|
[6] |
Li G, Xiong C, Thabet A, et al. DeeperGCN: All you need to train deeper GCNS. arXiv:2006.07739, 2020.
|
[7] |
胡毅, 瞿博阳, 梁静, 等. 进化集成学习算法综述. 智能科学与技术学报, 2021, 3(1): 18-33. DOI:10.11959/j.issn.2096-6652.02103 |
[8] |
Wang WY, Tran D, Feiszli M. What makes training multi-modal classification networks hard. Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020. 12692–12702.
|
[9] |
Izmailov P, Podoprikhin D, Garipov T, et al. Averaging weights leads to wider optima and better generalization. Proceedings of the 34th Conference on Uncertainty in Artificial Intelligence. Monterey: AUAI Press, 2018. 876–885.
|
[10] |
Micheli A. Neural network for graphs: A contextual constructive approach. IEEE Transactions on Neural Networks, 2009, 20(3): 498-511. DOI:10.1109/TNN.2008.2010350 |
[11] |
Bruna J, Zaremba W, Szlam A, et al. Spectral networks and locally connected networks on graphs. arXiv:1312.6203, 2013.
|
[12] |
Lou SH, Feng YX, Li ZW, et al. Two-additive fuzzy measure-based information integration approach to product design alternative evaluation. Journal of Industrial Information Integration, 2022, 25: 100247. DOI:10.1016/j.jii.2021.100247 |
[13] |
Wu YX, He KM. Group normalization. arXiv:1803.08494. 2018. 3–19.
|
[14] |
Shen ZW, Yang HZ, Zhang SJ. Optimal approximation rate of ReLU networks in terms of width and depth. Journal de Mathématiques Pures et Appliquées, 2022, 157: 101-135. |
[15] |
Kong XT, Liu XN, Gu JJ, et al. Reflash dropout in image super-resolution. Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022. 5992–6002.
|
[16] |
Grabisch M, Labreuche C. Bi-capacities—II: The Choquet integral. Fuzzy Sets and Systems, 2005, 151(2): 237-259. DOI:10.1016/j.fss.2004.08.013 |
[17] |
王晓君. 基于模糊积分的多分类器融合研究[硕士学位论文]. 保定: 河北大学, 2005.
|
[18] |
王业琳, 宁新宝, 尹义龙. 指纹图像细化算法的研究. 南京大学学报(自然科学), 2003, 39(4): 468-475. |
[19] |
Hu W, Fey M, Zitnik M, et al. Open graph benchmark: Datasets for machine learning on graphs. Advances in Neural Information Processing Systems, 2020, 33: 22118–22133.
|
[20] |
Rumelhart DE, Hinton GE, Williams RJ. Learning internal representations by error propagation. Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Volume 1: Foundations. Cambridge: MIT Press, 1987.
|