Sigmoid函数解析 |
您所在的位置:网站首页 › 反函数关于x的取值要写成区间的形式吗为什么 › Sigmoid函数解析 |
Sigmoid函数,即 神经网络的学习是基于一组样本进行的,它包括输入和输出(这里用期望输出表示),输入和输出有多少个分量就有多少个输入和输出神经元与之对应。最初神经网络的权值(Weight)和阈值(Threshold)是任意给定的,学习就是逐渐调整权值和阈值使得网络的实际输出和期望输出一致。 给定以下的总输入,我们可以基于sigmoid函数得到连续的输出,其中sigmoid函数的定义如下
该函数具有如下的特性:当x趋近于负无穷时,y趋近于0;当x趋近于正无穷时,y趋近于1;当x=0时,y=1/2. 阈值化或者阶梯化: 增加该连接的权值,也就是增加总输入,可以使sigmoid函数越来越趋近于阈值函数,或者叫阶梯函数。将总输入变为原来的5倍,则sigmoid函数变为如下的形式:
线性化: 只要w为非零值,即使w非常小,ς(wx)最终都会趋近于y=0和y=1. 下图为w=0.1,-7 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |