【FLOW学习笔记】流模型(Flow |
您所在的位置:网站首页 › 函数的可逆性 › 【FLOW学习笔记】流模型(Flow |
完整笔记:http://www.gwylab.com/note-flow_based_model.html 李宏毅老师的视频教程:/www.bilibili.com/video/av46561029/?p=59 —————————————————————————————————— 前言· Flow-based模型的不同之处 从去年GLOW提出之后,我就一直对基于流(flow)的生成模型是如何实现的充满好奇,但一直没有彻底弄明白,直到最近观看了李宏毅老师的教程之后,很多细节都讲解地比较清楚,就想好好写篇笔记来梳理一下流模型的运作原理。 首先来简单介绍一下流模型,它是一种比较独特的生成模型——它选择直接直面生成模型的概率计算,也就是把分布转换的积分式( 流模型有一个非常与众不同的特点是,它的转换通常是可逆的。也就是说,流模型不仅能找到从A分布变化到B分布的网络通路,并且该通路也能让B变化到A,简言之流模型找到的是一条A、B分布间的双工通路。当然,这样的可逆性是具有代价的——A、B的数据维度必须是一致的。 A、B分布间的转换并不是轻易能做到的,流模型为实现这一点经历了三个步骤:最初的NICE实现了从A分布到高斯分布的可逆求解;后来RealNVP实现了从A分布到条件非高斯分布的可逆求解;而最新的GLOW,实现了从A分布到B分布的可逆求解,其中B分布可以是与A分布同样复杂的分布,这意味着给定两堆图片,GLOW能够实现这两堆图片间的任意转换。 下面就是流模型学习笔记的正文,尽可能较简明地讲解清楚流模型的运行机制。 ——————————————————————————————————————————————————————
1. Flow-based Model的建模思维 首先来回顾一下生成模型要解决的问题: 如上图所示,给定两组数据z和x,其中z服从已知的简单先验分布π(z)(通常是高斯分布),x服从复杂的分布p(x)(即训练数据代表的分布),现在我们想要找到一个变换函数f,它能建立一种z到x的映射 如果这个变换函数能找到的话,那么我们就实现了一个生成模型的构造。因为,p(x)中的每一个样本点都代表一张具体的图片,如果我们希望机器画出新图片的话,只需要从π(z)中随机采样一个点,然后通过 所以,接下来的关键在于,这个变换函数f如何找呢?我们先来看一个最简单的例子。 如上图所示,假设z和x都是一维分布,其中z满足简单的均匀分布: 那么构建z与x之间的变换关系只需要构造一个线性函数即可:x=f(z)=2z+1。 下面再考虑非均匀分布的更复杂的情况: 如上图所示,π(z)与p(x)都是较为复杂的分布,为了实现二者的转化,我们可以考虑在很短的间隔上将二者视为简单均匀分布,然后应用前边方法计算小段上的 如上图所示,假设在[?′,?′+∆?]上π(z)近似服从均匀分布,在[x′,x′+∆x]上p(x)也近似服从均匀分布,于是有?(?′ )∆?=?(?′ )∆?(因为变换前后的面积/即采样概率是一致的),当∆x与∆?极小时,有: 又考虑到 下面进一步地做推广,我们考虑z与x都是二维分布的情形。 如上图所示,z与x都是二维分布,左图中浅蓝色区域表示初始点 因为蓝色区域与绿色区域具有相同的体积,所以有: 其中 即: 在 即: 其中 其中 至此,我们得到了一个比较重要的结论:如果z与x分别满足两种分布,并且z通过函数f能够转变为x,那么z与x中的任意一组对应采样点 那么基于这一结论,再带回到生成模型要解决的问题当中,我们就得到了Flow-based Model(流模型)的初步建模思维。 如上图所示,为了实现 基于前面推导,我们有 其中 所以,如果
2. Flow-based Model的理论推导&架构设计 我们关注一下上一章中引出的式子:
将其取log,得到: 现在,如果想直接求解这个式子有两方面的困难。第一个困难是, 下面我们来逐步设计G的结构,首先从最基本的架构开始构思。考虑到 如上图所示,在训练时我们从真实分布 接下来开始具体考虑G的内部设计,为了让 如上图所示,z和x都会被拆分成两个部分,分别是前1~d维和后d+1~D维。从z变化为x的计算式为:z的1~d维直接复制(copy)给x的1~d维;z的d+1~D维分别通过F和H两个函数变换为 其逆运算的计算式,即由x传给z的计算式,可以非常方便地推导出来为: 上面我们说明了,这样设计的耦合层能快速计算出 上图展示了G的Jacobian行列式的计算矩阵。首先由于 最终,该G的Jacobian的行列式计算式就表示为: 这确实是一个易于计算的简单表达式。接下来可以考虑,由于上述措施对G做了诸多限制,导致G的变换能力有限,所以我们可以堆叠多个G,去增强模型的变换拟合能力。 如上图所示,我们将多个耦合层堆叠在一起,从而形成一个更完整的生成器。但是这样会有一个新问题,就是最终生成数据的前d维与初始数据的前d维是一致的,这会导致生成数据中总有一片区域看起来像是固定的图样(实际上它代表着来自初始高斯噪音的一个部分),我们可以通过将复制模块(copy)与仿射模块(affine)交换顺序的方式去解决这一问题。 如上图所示,通过将某些耦合层的copy与affine模块进行位置上的互换,使得每一部分数据都能走向copy->affine->copy->affine的交替变换通道,这样最终的生成图像就不会包含完全copy自初始图像的部分。值得说明的是,在图像生成当中,这种copy与affine模块互换的方式有很多种,下面举两个例子来说明: 上图展示了两种按照不同的数据划分方式做copy与affine的交替变换。左图代表的是在像素维度上做划分,即将横纵坐标之和为偶数的划分为一类,和为奇数的划分为另外一类,然后两类分别交替做copy和affine变换(两两交替);右图代表的是在通道维度上做划分,通常图像会有三通道,那么在每一次耦合变换中按顺序选择一个通道做copy,其他通道做affine(三个轮换交替),从而最终变换出我们需要的生成图形出来。 更进一步地,如何进行copy和affine的变换能够让生成模型学习地更好,这是一个可以由机器来学习的部分,所以我们引入W矩阵,帮我们决定按什么样的顺序做copy和affine变换,这种方法叫做1×1 convolution(被用于知名的GLOW当中)。1×1 convolution只需要让机器决定在每次仿射计算前对图片哪些区域实行像素对调,而保持copy和affine模块的顺序不变,这实际上和对调copy和affine模块顺序产生的效果是一致的。 这种对调的原理非常简单,如上图所示举例,假设我们需要将(3,1,2)向量替换成(1,2,3)向量,只需要将w矩阵定义为图中所示矩阵即可。下面我们看一下,将w引入flow模型之后,对于原始的Jacobian行列式的计算是否会有影响。 对于每一个3*3维划分上的仿射操作来说,由 代入到整个含有d个3*3维的仿射变换矩阵当中,得到最终的Jacobian行列式的计算结果就为: 因此,引入1×1 convolution后的G的Jacobian行列式计算依然非常简单,所以引入1×1 convolution是可取的,这也是GLOW这篇Paper最有突破和创意的地方。 综上,关于Flow-based Model的理论讲解和架构分析就全部结束了,它通过巧妙地构造仿射变换的方式实现不同分布间的拟合,并实现了可逆计算和简化雅各比行列式计算的功能和优点,最终我们可以通过堆叠多个这样的耦合层去拟合更复杂的分布变化(如上图所示),从而达到生成模型需要的效果。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |