BP神经网络原理和算法推导流程(吴恩达机器学习)

您所在的位置:网站首页 bp算法和神经网络 BP神经网络原理和算法推导流程(吴恩达机器学习)

BP神经网络原理和算法推导流程(吴恩达机器学习)

2023-08-25 10:21| 来源: 网络整理| 查看: 265

1  反向传播算法和BP网络简介

    误差反向传播算法简称反向传播算法(即BP算法)。使用反向传播算法的多层感知器又称为BP神经网络。BP算法是一个迭代算法,它的基本思想为:(1)先计算每一层的状态和激活值,直到最后一层(即信号是前向传播的);(2)计算每一层的误差,误差的计算过程是从最后一层向前推进的(这就是反向传播算法名字的由来);(3)更新参数(目标是误差变小)。迭代前面两个步骤,直到满足停止准则(比如相邻两次迭代的误差的差别很小)。 本文的记号说明:

下面以三层感知器(即只含有一个隐藏层的多层感知器)为例介绍“反向传播算法(BP 算法)”。

2 信息前向传播

3 误差反向传播

  我个人的理解神经网络中引入BP算法主要原因是当样本太多和隐藏层太多时,参数w就会变得会多,如果用梯度下降算法一层层的更新十分麻烦,所以就引入BP算法来从下一层得到上一层的误差,方便进行参数迭代。

 

 

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------在这里说明下,上面用到的最小二乘式的损失函数是因为它简单,实际上用的时候效果不咋滴。

因为激活函数作用时,所用的激活函数应具备“非饱和性”。如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数。 交叉熵做为代价函数能解决上述问题,是因为它在计算误差对输入的梯度时,抵消掉了激活函数的导数项,从而避免了因为激活函数的“饱和性”给系统带来的负面影响。如果项了解更详细的证明可以点https://blog.csdn.net/lanchunhui/article/details/50086025

神经网络中的损失函数和激活函数集合:https://blog.csdn.net/qq_27248897/article/details/77071027

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------补充BP神经网络作业OCTAVE代码

1.Loading and Visualizing Data

2.Compute Cost

3.Sigmoid Gradient

4.computeNumericalGradient

5.debugInitializeWeights

6.checkNNGradients

7.predict

8.脚本ex4



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3