【交通流预测】《Graph WaveNet for Deep Spatial |
您所在的位置:网站首页 › 门控卷积输入因果卷积 › 【交通流预测】《Graph WaveNet for Deep Spatial |
文章目录
文章总结一、Abstract二、Introduction三、Methodology1. Problem Definition2. Graph Convolution Layer3. Temporal Convolution Layer4. Framework of Graph WaveNet
四、Experiments1. 数据集2. Experimental Setups3. Experimental Results
五、 Conclusion
点击论文下载链接 点击代码下载链接 文章总结- 现存问题: ① 捕获空间关系: 现有的方法大多捕捉对固定图结构的空间依赖性。然而,这种固定图结构不一定反应真实站点间的空间依赖关系,并且由于数据中不完整的连接,可能会丢失真正的关系。 ② 捕获时间关系:现存方法不能很好的捕获较长的时间序列(>30min)。 - 文章贡献点: ① 构建自适应的邻接矩阵: 本文提出的自适应邻接矩阵能够在没有任何先验知识的指导下从数据中自动发现未见过的图形结构。 ② 提出新的模型框架:GCN+扩散因果卷积。 一、Abstract时空图建模是分析系统中组件的空间关系和时间趋势的重要任务。假设实体之间的潜在关系是预先确定的,现有的方法大多捕捉对固定图结构的空间依赖性。然而,显式图结构(关系)不一定选择依赖关系,并且由于数据中不完整的连接,可能会丢失真正的关系。此外,现有方法对于捕捉时间趋势是无效的,因为这些方法中使用的CNN或RNN不能很好地捕捉长程时间序列。为了克服这些限制,我们在本文中提出了一种新的用于时空图建模的图神经网络结构——Graph WaveNet。通过开发一种新的自适应依赖矩阵并通过节点嵌入来学习它,我们的模型可以精确地捕获数据中隐藏的空间依赖。由于叠加的扩张1D卷积成分的感受野随着层数的增加呈指数增长,Graph WaveNet能够处理非常长的序列。这两个组件无缝集成在一个统一的框架中,整个框架是以端到端的方式学习的。在METR-LA 和 PEMS-BAY两个公共交通网络数据集上的实验结果证明了该算法的优越性能。 二、Introduction 随着图神经网络的发展,时空图建模越来越受到重视。它旨在通过假设连接节点之间的相互依赖性来建模动态节点级输入,如图所示。时空图建模在解决交通速度预测等复杂系统问题中有着广泛的应用。 时空图建模背后的一个基本假设是,节点的未来信息取决于其历史信息以及其邻居的历史信息。因此,如何同时捕捉空间和时间相关性成为一个主要挑战。时空图建模的最新研究主要遵循两个方向: 将图卷积网络(GCN)集成到递归神经网络(RNN)中或集成到卷积神经网络(CNN)。虽然已经展示了将数据的图结构引入模型的有效性,但是这些方法面临两个主要缺点。 ① 这些研究是假设数据的图结构反映了节点之间真正的依赖关系。然而,当一个连接不需要两个节点之间的相互依赖关系时,以及当两个节点之间的相互依赖关系缺失时,就会出现这种情况。举一个例子,让我们考虑一个推荐系统。在第一种情况下,两个用户是有联系的,但是他们可能对产品有不同的偏好。第二种情况就是两个用户可能有同样的偏好,但是却没有联系。Zhang et al.使用注意机制来解决第一种情况,即调整两个连接节点之间的依赖权重。但他们没有考虑到第二种情况。 ② 目前对空间-时间图形建模的研究对学习时间依赖性是无效的。基于RNN的方法在捕捉长距离序列时存在耗时的迭代传播和梯度爆炸/消失问题。相反,基于CNN的方法享有并行计算、稳定梯度和低内存要求的优势。然而,这些工作需要使用许多层,以便捕捉很长的序列,因为它们采用标准的一维卷积,其感受野的大小随着隐藏层数量的增加而线性增长。 本文提出了一个基于CNN的方法,名为Graph WaveNet,它解决了我们前面提到的两个缺点。我们提出了一个图卷积层,其中自适应邻接矩阵可以通过端到端监督训练从数据中学习。通过这种方式,自适应邻接矩阵保留了隐藏的空间依赖关系。受到WaveNet的启发,我们采用了堆叠扩张的随机卷积来捕捉时间依赖性。随着隐藏层数量的增加,堆叠扩张随意卷积网络的感受野大小呈指数级增长。有了堆叠扩张随意卷积的支持,Graph WaveNet能够高效地处理具有长距离时间序列的空间-时间图数据。 三、Methodology 1. Problem Definition 图表示: G = ( V , E ) G=(V, E) G=(V,E),节点为V,边为E,邻接矩阵: A ∈ R N × N \mathbf{A} \in \mathbf{R}^{N \times N} A∈RN×N(N个节点);输入矩阵: X ( t ) ∈ R N × D \mathbf{X}^{(\mathbf{t})} \in \mathbf{R}^{N \times D} X(t)∈RN×D(时间步为t);预测映射:给定一个图G及其历史S步图信号,学习映射关系f,它能够预测下一个T步图信号: [ X ( t − S ) : t , G ] → f X ( t + 1 ) : ( t + T ) \left[\mathbf{X}^{(t-S): t}, G\right] \stackrel{f}{\rightarrow} \mathbf{X}^{(t+1):(t+T)} [X(t−S):t,G]→fX(t+1):(t+T) 2. Graph Convolution Layer图卷积是在给定节点结构信息的情况下提取节点特征的基本操作,从基于空间的角度来看,它通过聚集和转换节点的邻域信息来平滑节点的信号。他们的方法的优点是它是一个合成层,它的过滤器在空间中定位,并且它支持多维输入。 [1] Graph convolution layer:
Z
=
A
~
X
W
\mathbf{Z}=\tilde{\mathbf{A}} \mathbf{X} \mathbf{W}
Z=A~XW
[6] Graph convolution layer (图卷积层:当图形结构不可用时,我们建议仅使用自适应邻接矩阵来捕获隐藏的空间依赖): Z = ∑ k = 0 K A ~ a p t k X W k \mathbf{Z}=\sum_{k=0}^{K} \tilde{\mathbf{A}}_{a p t}^{k} \mathbf{X} \mathbf{W}_{k} Z=k=0∑KA~aptkXWk 3. Temporal Convolution Layer时间卷积层使用的是扩张的因果卷积文章 因果卷积简介:要处理序列问题(即要考虑时间问题)就不能使用普通的CNN卷积,必须使用新的CNN模型,这个就是因果卷积的作用。![]() ![]()
WaveNet的框架:它由堆叠的时空层和输出层组成。时空层由图卷积层(GCN)和门控时域卷积层(TCN)构成,该层由两个并行时域卷积层(TCN- a和TCN-b)组成。通过叠加多个时空层,Graph WaveNet能够处理不同时间层次的空间依赖关系。例如,底层的GCN接收短期的时间信息,而顶层的GCN处理长期的时间信息。 ① METR-LA:记录了洛杉矶县高速公路上207个传感器四个月的交通速度统计数据; ② PEMS-BAY: 包含了加州海湾地区高速公路上325个传感器六个月的交通速度信息。 传感器的读数被汇总成5分钟的窗口;节点的邻接矩阵由路网距离和阈值高斯核(thresholded Gaussian kernel)构造;70%用于训练集,10%用于验证集,20%用于测试集。![]() 对比结果:Graph WaveNet在两个数据集上都得到了较好的结果。它优于包括ARIMA、FCLSTM和WaveNet在内的时间模型。与其他时空模型相比,Graph WaveNet显著优于以往基于卷积的方法STGCN,同时也优于基于递归的方法DCRNN和GGRU。对于Table 2 所示的第二最佳模型GGRU, Graph WaveNet在15分钟的视界上较GGRU有小幅改进。然而,在60分钟的范围内实现更大的增强。我们认为这是因为我们的体系结构在每个时间阶段都更有能力检测空间依赖关系。GGRU使用循环架构,其中GCN层的参数在所有循环单元之间共享。而Graph WaveNet则采用堆叠的时空层,其中包含具有不同参数的独立GCN层。因此,Graph WaveNet中的每一个GCN层都能够聚焦于它自己的时间输入范围。 Computation Time:WaveNet的运行速度比DCRNN快5倍,但比STGCN慢2倍。为了进行推断,我们在验证数据上测量每个模型的总时间成本。在推理阶段,Graph WaveNet是最有效的。 本文提出了一种新的时空图建模模型。我们的模型通过结合图卷积和扩展的偶然卷积来有效地捕捉时空相关性。我们提出了一种从数据中自动学习隐藏空间相关性的有效方法。这为时空图建模开辟了一个新的方向,在这个领域中,系统的依赖结构是未知的,但需要发现。在两个公共交通网络数据集上,Graph WaveNet实现了最先进的结果。在未来的工作中,我们将研究在大规模数据集上应用Graph WaveNet的可扩展方法,并探索学习动态空间相关性的方法。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |