深度篇

您所在的位置:网站首页 常用的神经元激活函数包括哪些 深度篇

深度篇

2024-07-14 22:02| 来源: 网络整理| 查看: 265

返回主目录

返回神经网络目录

上一章:深度篇——神经网络(一)  神经元与感知机

下一章:深度篇——神经网络(三)  网络拓扑与训练神经网络

 

本小节,细说 ANN与DNN 和常用激活函数,下一小节细说 网络拓扑与训练神经网络

 

二. ANN 与 DNN 1. ANN 与 DNN 结构

当神经网络只有一个隐藏层时,成为 ANN

当神经网络的隐藏层为两个或两个以上时,称为 DNN

(1). 激活函数

       将神经元的净输入信号转换成单一的输出信号,以便进一步在网络中传播

(2). 网络拓扑

      描述了模型中神经元的数量以及层数和它们连接的方式:

   

(3). 训练算法

      指定如何设置连接权重,以便抑制或增加神经元在输入信号中的比重

(4). 调优神经网络

 

2. 神经网络的激活函数

(1). 激活函数的理解

     神经网络激活函数决定在神经网络中是否传递信号,或决定传递什么信号(如正例信号或负例信号)

 

(2). 激活函数的类型

   ①. 线性激活函数

      这是一种简单的线性函数,公司为:

            f(x) = x

      基本上,输入到输出过程中不经过修改

        

   ②. 非线性激活函数

      用于分离非线性可分的数据,是最常用的激活函数。非线性方程控制输入到输出的映射。常用的非线性激活函数有:

       Tanh、Sigmoid、ReLU、LReLU、PReLU、Softmax。。。。。

 

(3). 人工神经网络使用非线性激活函数的原因

   ①. 神经网络用于实现复杂的函数,非线性激活函数可以使神经网络随意地逼近任意复杂函数

   ②. 而如果使用线性激活函数,网络每一层的输入都是上一层的线性输出,因此,无论该神经网络有多少层,最终输出都是输入的线性组合,与没有隐藏层的效果相当,这种情况就是最原始的感知机。并且还降低了效率。

   ③.  因此,才需要引入非线性函数作为激活函数,这样深层神经网络才有意义,输出不再是输入的线性组合,才可以逼近任意函数。

 

(4). 神经网络常用的非线性激活函数

   ①. Sigmoid

      Sigmoid又叫作Logistic激活函数,它将实数值压缩进 0 ~ 1 的区间内,还可以在预测概率的输出层中使用。该函数将大的负数换成0,将大的正数换成1. 数学公式及图形:

      



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3