图谱论学习 |
您所在的位置:网站首页 › 拉普拉斯变换对称性公式 › 图谱论学习 |
目录
一、为什么学习拉普拉斯矩阵二、拉普拉斯矩阵的定义与性质三、拉普拉斯矩阵的推导与意义3.1 梯度、散度与拉普拉斯算子3.2 从拉普拉斯算子到拉普拉斯矩阵
一、为什么学习拉普拉斯矩阵
早期,很多图神经网络的概念是基于图信号分析或图扩散的,而这些都需要与图谱论相关的知识。并且在图网络深度学习中(graph deep learning)中,拉普拉斯矩阵是很常用的概念,深入理解其物理含义非常有助于加深对GNN模型的理解。博主最近在学习GCN,想要在拉普拉斯矩阵方面有个更加深入的了解,看了不少文献资料与网上的解读,受益匪浅。 对于一个有n个顶点的图G,它的拉普拉斯矩阵(Laplacian Matrix)定义为:
L
=
D
−
A
L=D-A
L=D−A 其中,D是图G的度矩阵,A是图G的邻接矩阵。L中的元素可定义为:
L
i
j
=
{
d
(
v
i
)
如
果
i
=
j
−
A
i
j
如
果
i
≠
j
并
且
v
i
与
v
j
之
间
有
边
0
其
他
L_{ij}= \begin{cases} d(v_i)& 如果i=j \\ -A_{ij}& 如果i\ {\neq}\ j并且v_i与v_j之间有边 \\ 0& 其他 \end{cases}
Lij=⎩⎪⎨⎪⎧d(vi)−Aij0如果i=j如果i = j并且vi与vj之间有边其他 通常, 我们需要将拉普拉斯矩阵进行归一化。常用的有两种方式。 (1) 对称归一化的拉普拉斯矩阵(Symmetric Normalized Laplacian Matrix)
L
s
y
m
=
D
−
1
2
L
D
−
1
2
=
I
−
D
−
1
2
A
D
−
1
2
L^{sym}=D^{-\frac{1}{2}}LD^{-\frac{1}{2}}=I-D^{-\frac{1}{2}}AD^{-\frac{1}{2}}
Lsym=D−21LD−21=I−D−21AD−21 (2) 随机游走归一化的拉普拉斯矩阵(Random Walk Normalized Laplacian Matrix)
L
r
w
=
D
−
1
L
=
I
−
D
−
1
A
L^{rw}=D^{-{1}}L=I-D^{-{1}}A
Lrw=D−1L=I−D−1A 以下面这个图为例,假设每条边权重为1,得到这个图的邻接矩阵、度矩阵和拉普拉斯矩阵。 图拉普拉斯矩阵,如果把它看作线性变换的话,它起的作用与分析中的拉普拉斯算子是一样的。我们将在下面详细讨论,这里需要补充一些基础知识: 梯度定义 梯度 “ ∇ \nabla ∇ ” 是一个矢量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该方向处沿着此梯度方向变化最快,变化率最大(梯度的模)。 假设一个三元函数 u = f ( x , y , z ) u=f(x,y,z) u=f(x,y,z)在空间区域 G G G内具有一阶连续偏导数,点 P ( x , y , z ) ∈ G P(x,y,z){\in}G P(x,y,z)∈G,则称以下向量表示为点 P P P处的梯度: { ∂ f ∂ x , ∂ f ∂ y , ∂ f ∂ z } = ∂ f ∂ x i ⃗ + ∂ f ∂ y j ⃗ + ∂ f ∂ z k ⃗ \{\frac{{\partial}f}{{\partial}x},\frac{{\partial}f}{{\partial}y},\frac{{\partial}f}{{\partial}z}\}=\frac{{\partial}f}{{\partial}x}\vec{i}+\frac{{\partial}f}{{\partial}y}\vec{j}+\frac{{\partial}f}{{\partial}z}\vec{k} {∂x∂f,∂y∂f,∂z∂f}=∂x∂fi +∂y∂fj +∂z∂fk 该式可记为 g r a d f ( x , y , z ) gradf(x,y,z) gradf(x,y,z)或 ∇ f ( x , y , z ) {\nabla}f(x,y,z) ∇f(x,y,z),其中: ∇ = ∂ ∂ x i ⃗ + ∂ ∂ y j ⃗ + ∂ ∂ z k ⃗ \nabla=\frac{{\partial}}{{\partial}x}\vec{i}+\frac{{\partial}}{{\partial}y}\vec{j}+\frac{{\partial}}{{\partial}z}\vec{k} ∇=∂x∂i +∂y∂j +∂z∂k 称为向量的微分算子或者Nabla算子 散度定义 散度 “ ∇ ⋅ {\nabla}{\cdot} ∇⋅” (divergence)是一个标量,用于表示空间中各点矢量场发散的强弱程度,物理上,散度的意义是场的有源性。当 d i v ( F ) > 0 div(F)>0 div(F)>0,表示该点有散发通量的正源(发散源);当 d i v ( F ) < 0 div(F){\partial}v_1}{{\partial}x}+\frac{{\partial}v_2}{{\partial}y}+\frac{{\partial}v_3}{{\partial}z} {\partial}V_x}{{\partial}x}+\frac{{\partial}V_y}{{\partial}y}+\frac{{\partial}V_z}{{\partial}z} {\partial}^2f}{{\partial}x^2}+\frac{{\partial}^2f}{{\partial}y^2}+\frac{{\partial}^2f}{{\partial}z^2} {\partial}x_i^2} {\partial}f}{{\partial}x}=f(x+1)-f(x)\\ \frac{{\partial}^2f}{{\partial}x^2}=f''(x)=f'(x)-f'(x-1)=f(x+1)+f(x-1)-2f(x) {\partial}^2f}{{\partial}x^2}+\frac{{\partial}^2f}{{\partial}y^2}\\=f(x+1,y)+f(x-1,y)-2f(x,y)+f(x,y+1)+f(x,y-1)-2f(x,y)\\=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y) 0 △f>0时,表示该点为发散源,是散发通量的正源,比如下图中的点 q 1 , q 2 , q 4 q_1,q_2,q_4 q1,q2,q4。 2. △ f < 0 {\triangle}f0 △f>0时表示他会被拉跑, △ f < 0 {\triangle}f |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |