VGG |
您所在的位置:网站首页 › vgg16论文 › VGG |
这是卷积神经⽹络发展的⼀些主要⽹络
LeNet(3个卷积层+2个降采样层+1个全连接层)CNN雏形 AlexNet (5个卷积层+3个全连接层+1个softmax层 本⽂所讨论的VGG就是基于LeNet、AlexNet提出的更深的卷积神经⽹络 VGG主要采⽤增加卷积层的⽅法来加深⽹络,结果发现深度越深,⽹络学习能⼒越好,分类能⼒越强。当深度增加到16-19层时,识别效 果有较⼤提升,即VGG-16,VGG-19。 在ILSVRC2014竞赛中定位第⼀,分类第⼆(第⼀是GoogleNet)。 将卷积层的概念提升到了卷积group概念上,每个卷积group中含有⼏层卷积层,不再像AlexNet中5个卷积层,⽽是5个卷积group组合, 将AlexNet的8层深度推到了16-19层。 正⽂ 1. 摘要 ⽂章主要研究了深度对卷积神经⽹络分类精度的影响。 在AlexNet的基础上主要做了两⽅⾯的改进: 1.使⽤了最⼩的3*3卷积核尺⼨和最⼩间隔。 2. 在整个图⽚和multi-scale上训练和测试图⽚。 论⽂原句:1. Use smaller receptive window size and smaller stride of the first convolutional layer.
2.Training and testing the networks densely over the whole image and over multiple scales. 2. 配置 采⽤较⼩的Filter尺⼨-3*3,卷积的间隔s=1: 1:3*3是最⼩的能够捕获上下左右和中⼼概念的尺⼨。 2:两个3*3的卷基层的有限感受野是5*5;三个3*3的感受野是7*7,可以替代⼤的filter尺⼨。 3:多个3*3的卷基层⽐⼀个⼤尺⼨filter卷基层有更多的⾮线性,使得判决函数更加具有判决性。 4:多个3*3的卷积层⽐⼀个⼤尺⼨的filter有更少的参数,假设卷基层的输⼊和输出的特征图⼤⼩相同为C,那么三个3*3的卷积层参数个数 3*(3*3*C*C)=27CC;⼀个7*7的卷积层参数为49CC;所以可以把三个3*3的filter看成是⼀个7*7filter的分解(中间层有⾮线性的分 解)。 也使⽤过1*1 filter: 作⽤是在不影响输⼊输出维数的情况下,对输⼊进⾏线性形变,然后通过Relu进⾏⾮线性处理,增加⽹络的⾮线性表达能⼒。 Max-Pooling:2*2,间隔s=2; 3. 分类 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |