**深度学习 BN 、LeakyReLU算法原理

您所在的位置:网站首页 leakyrelu怎么读 **深度学习 BN 、LeakyReLU算法原理

**深度学习 BN 、LeakyReLU算法原理

#**深度学习 BN 、LeakyReLU算法原理| 来源: 网络整理| 查看: 265

BN和LeakyReLU def DarknetConv2D_BN_Leaky(*args, **kwargs): # 归一化 # DarkNet中用到的卷积块,卷积块中包含了归一化和激活函数 """Darknet Convolution2D followed by BatchNormalization and LeakyReLU.""" no_bias_kwargs = { 'use_bias': False} no_bias_kwargs.update(kwargs) return compose( DarknetConv2D(*args, **no_bias_kwargs), BatchNormalization(), LeakyReLU(alpha=0.1))

以yolov3中DarkNet网络的这段代码为例,细说网络中的具体结构 该卷积块中包含三个内容:二维卷积操作(DarknetConv2D)、归一化(BatchNormalization)、非线性激活函数(LeakyReLU)。

背景(为什么会提出这种方法) 原理(理解的基础上说明大概步骤) 举例(简单介绍主流的方法)

就以上三个方面对BN的理解

1、BN算法产生的背景

https://blog.csdn.net/qq_37100442/article/details/81776191



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3