浅谈神经网络中的bias

您所在的位置:网站首页 卷积神经网络中的bias 浅谈神经网络中的bias

浅谈神经网络中的bias

2024-01-19 13:32| 来源: 网络整理| 查看: 265

1、什么是bias?

偏置单元(bias unit),在有些资料里也称为偏置项(bias term)或者截距项(intercept term),它其实就是函数的截距,与线性方程 y=wx+b 中的 b 的意义是一致的。在 y=wx+b中,b表示函数在y轴上的截距,控制着函数偏离原点的距离,其实在神经网络中的偏置单元也是类似的作用。 因此,神经网络的参数也可以表示为:(W, b),其中W表示参数矩阵,b表示偏置项或截距项。

2、bias的计算方式?

神经网络结构中对偏置单元的计算处理方式有两种,  (1)设置偏置单元=1,并在参数矩阵 Θ 中设置第 0 列对应偏置单元的参数,对应的神经网络如下:  在这里插入图片描述

神经网络架构  其中,x0 是第一层的偏置单元(设置为1),Θ(1)10 是对应该偏置单元 x0 的参数;a(2)0 是第二层的偏置单元,Θ(2)10 是对应的参数。  在计算激活值时按照(以a(2)1为例):

在这里插入图片描述  激活值计算公式 相当于bias本身值为1,但它连接各个神经元的权重不为1,即—整个神经网络只有1个bias,对应有多个不同的权重(权重个数等于hide层和out层神经元的个数)

(2)设置偏置单元,不在参数矩阵中设置对应偏置单元的参数,对应的神经网络如下:  神经网络架构  在这里插入图片描述

其中,b(1) 是 W(1) 对应的偏置单元向量,b(2) 是 W(2) 对应的偏置单元向量,b(1)1 是对应 a(2)1 的偏置单元。注意,此时神经网络的参数表示更改为:(W, b)  在计算激活值时按照: 激活值计算公式

相当于bias连接各个神经元的所有权重都为1,但bias本身不为1,即—有多个bias,但所有的bias对应的权重都为1(bias的个数等于hide层和out层神经元的个数)

综上,  两者的原理是一致的,只是具体的实现方式不同。  其实在大部分资料和论文中看到的神经网络的参数都是表示为:(W, b),其中W代表weight,b代表bias。包括在UFLDL Tutorial中也是采用 (W, b) 表示,只是在Coursera上Andrew Ng老师的在线教程中看到将神经网络参数表示为 Θ,个人还是更喜欢 (W, b) 这种表示,很清晰。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3