Administrator
发布于 2022-10-23 / 3 阅读
0

Graph-Coupled Oscillator Networks (ICML 2022) 图耦合振荡器网络

摘要

本文提出了一种新的图的深度学习框架--图耦合振荡器网络(GraphCON)。它基于二阶常微分方程组(ODE)的离散化,该常微分方程组(ODE)通过基础图的邻接结构耦合到由非线性受控和阻尼振子组成的网络。该框架的灵活性允许任何基本的GNN层(例如卷积或注意)作为耦合函数,从该耦合函数通过所提出的常微分方程组的动力学来构建多层深度神经网络。我们将GNN中常见的过光滑问题与常微分方程组的稳态稳定性联系起来,并证明了零狄里克莱特能量稳态对于我们所提出的常微分方程组是不稳定的。这表明所提出的框架缓解了过平滑问题。此外,我们还证明了GraphCON缓解了梯度的爆炸和消失问题,从而有利于深层多层GNN的训练。最后,我们表明,我们的方法在各种基于图形的学习任务中提供了与最先进的性能相比具有竞争力的性能。

GraphCON(基础表示公式)

设G=(V,E⊆V×V)是一个无向图,有|V|=v个结点,|E|=e条边由无序结点对{i,j}组成,记为I∼j。我们用索引I∈V={1,2,.。。、v}。对于任意I∈V,我们表示其1-邻域为Ni={j∈V:I∼j}。进一步,设X∈RV×m为X={xi}∈V,表示每个结点i的m维特征向量。 我们的框架主要是由以下非线性常微分方程组表示的图动力系统: 这里,X(T)表示结点特征的依赖于时间的v×m矩阵,σ是激活函数,Fθ是形式的一般可学习(可能依赖于时间)的1邻域耦合函数

实验 (MINIST 75 Superpixel)

通过狄利克雷能量证明 GraphCON 缓减了过平滑问题,过平滑会使图中的所有节点的特征以指数速度迅速收敛到一个常量特征,从而降低准确率,如下图: 下表就是证明该方法加深图神经网络的层数后准确率不会下降,文中还指出所有层是共享参数,层数加深但是参数量不会增加: