图谱论学习

您所在的位置:网站首页 拉普拉斯变换对称性公式 图谱论学习

图谱论学习

2024-07-13 03:00| 来源: 网络整理| 查看: 265

目录 一、为什么学习拉普拉斯矩阵二、拉普拉斯矩阵的定义与性质三、拉普拉斯矩阵的推导与意义3.1 梯度、散度与拉普拉斯算子3.2 从拉普拉斯算子到拉普拉斯矩阵

一、为什么学习拉普拉斯矩阵

    早期,很多图神经网络的概念是基于图信号分析或图扩散的,而这些都需要与图谱论相关的知识。并且在图网络深度学习中(graph deep learning)中,拉普拉斯矩阵是很常用的概念,深入理解其物理含义非常有助于加深对GNN模型的理解。博主最近在学习GCN,想要在拉普拉斯矩阵方面有个更加深入的了解,看了不少文献资料与网上的解读,受益匪浅。 在这里插入图片描述 在这里插入图片描述

二、拉普拉斯矩阵的定义与性质

    对于一个有n个顶点的图G,它的拉普拉斯矩阵(Laplacian Matrix)定义为: L = D − A L=D-A L=D−A    其中,D是图G的度矩阵,A是图G的邻接矩阵。L中的元素可定义为: L i j = { d ( v i ) 如 果 i = j − A i j 如 果 i   ≠   j 并 且 v i 与 v j 之 间 有 边 0 其 他 L_{ij}= \begin{cases} d(v_i)& 如果i=j \\ -A_{ij}& 如果i\ {\neq}\ j并且v_i与v_j之间有边 \\ 0& 其他 \end{cases} Lij​=⎩⎪⎨⎪⎧​d(vi​)−Aij​0​如果i=j如果i ​= j并且vi​与vj​之间有边其他​    通常, 我们需要将拉普拉斯矩阵进行归一化。常用的有两种方式。     (1) 对称归一化的拉普拉斯矩阵(Symmetric Normalized Laplacian Matrix) L s y m = D − 1 2 L D − 1 2 = I − D − 1 2 A D − 1 2 L^{sym}=D^{-\frac{1}{2}}LD^{-\frac{1}{2}}=I-D^{-\frac{1}{2}}AD^{-\frac{1}{2}} Lsym=D−21​LD−21​=I−D−21​AD−21​    (2) 随机游走归一化的拉普拉斯矩阵(Random Walk Normalized Laplacian Matrix) L r w = D − 1 L = I − D − 1 A L^{rw}=D^{-{1}}L=I-D^{-{1}}A Lrw=D−1L=I−D−1A    以下面这个图为例,假设每条边权重为1,得到这个图的邻接矩阵、度矩阵和拉普拉斯矩阵。 在这里插入图片描述     从这个L矩阵中可以观察到拉普拉斯矩阵的以下几条性质。     ○ L是对称的     ○ L是半正定矩阵(每个特征值 λ i ≥ 0 \lambda_i{\geq}0 λi​≥0)     ○ L的每一行每一列的和为0     ○ L的最小特征值为0。给定一个特征向量 v 0 = ( 1 , 1 , ⋯   , 1 ) T v_0=(1,1,\cdots,1)^T v0​=(1,1,⋯,1)T,根据上一条性质,L的每一行之和为0,所以 L v 0 = 0 Lv_0=0 Lv0​=0

三、拉普拉斯矩阵的推导与意义 3.1 梯度、散度与拉普拉斯算子

    图拉普拉斯矩阵,如果把它看作线性变换的话,它起的作用与分析中的拉普拉斯算子是一样的。我们将在下面详细讨论,这里需要补充一些基础知识:

梯度定义 梯度 “ ∇ \nabla ∇ ” 是一个矢量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该方向处沿着此梯度方向变化最快,变化率最大(梯度的模)。

    假设一个三元函数 u = f ( x , y , z ) u=f(x,y,z) u=f(x,y,z)在空间区域 G G G内具有一阶连续偏导数,点 P ( x , y , z ) ∈ G P(x,y,z){\in}G P(x,y,z)∈G,则称以下向量表示为点 P P P处的梯度: { ∂ f ∂ x , ∂ f ∂ y , ∂ f ∂ z } = ∂ f ∂ x i ⃗ + ∂ f ∂ y j ⃗ + ∂ f ∂ z k ⃗ \{\frac{{\partial}f}{{\partial}x},\frac{{\partial}f}{{\partial}y},\frac{{\partial}f}{{\partial}z}\}=\frac{{\partial}f}{{\partial}x}\vec{i}+\frac{{\partial}f}{{\partial}y}\vec{j}+\frac{{\partial}f}{{\partial}z}\vec{k} {∂x∂f​,∂y∂f​,∂z∂f​}=∂x∂f​i +∂y∂f​j ​+∂z∂f​k     该式可记为 g r a d f ( x , y , z ) gradf(x,y,z) gradf(x,y,z)或 ∇ f ( x , y , z ) {\nabla}f(x,y,z) ∇f(x,y,z),其中: ∇ = ∂ ∂ x i ⃗ + ∂ ∂ y j ⃗ + ∂ ∂ z k ⃗ \nabla=\frac{{\partial}}{{\partial}x}\vec{i}+\frac{{\partial}}{{\partial}y}\vec{j}+\frac{{\partial}}{{\partial}z}\vec{k} ∇=∂x∂​i +∂y∂​j ​+∂z∂​k     称为向量的微分算子或者Nabla算子

散度定义 散度 “ ∇ ⋅ {\nabla}{\cdot} ∇⋅” (divergence)是一个标量,用于表示空间中各点矢量场发散的强弱程度,物理上,散度的意义是场的有源性。当 d i v ( F ) > 0 div(F)>0 div(F)>0,表示该点有散发通量的正源(发散源);当 d i v ( F ) < 0 div(F){\partial}v_1}{{\partial}x}+\frac{{\partial}v_2}{{\partial}y}+\frac{{\partial}v_3}{{\partial}z} {\partial}V_x}{{\partial}x}+\frac{{\partial}V_y}{{\partial}y}+\frac{{\partial}V_z}{{\partial}z} {\partial}^2f}{{\partial}x^2}+\frac{{\partial}^2f}{{\partial}y^2}+\frac{{\partial}^2f}{{\partial}z^2} {\partial}x_i^2} {\partial}f}{{\partial}x}=f(x+1)-f(x)\\ \frac{{\partial}^2f}{{\partial}x^2}=f''(x)=f'(x)-f'(x-1)=f(x+1)+f(x-1)-2f(x) {\partial}^2f}{{\partial}x^2}+\frac{{\partial}^2f}{{\partial}y^2}\\=f(x+1,y)+f(x-1,y)-2f(x,y)+f(x,y+1)+f(x,y-1)-2f(x,y)\\=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y) 0 △f>0时,表示该点为发散源,是散发通量的正源,比如下图中的点 q 1 , q 2 , q 4 q_1,q_2,q_4 q1​,q2​,q4​。     2. △ f < 0 {\triangle}f0 △f>0时表示他会被拉跑, △ f < 0 {\triangle}f



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3