逻辑回归中的损失函数和代价函数 |
您所在的位置:网站首页 › 损失函数和代价函数一样吗对吗 › 逻辑回归中的损失函数和代价函数 |
文章目录
逻辑回归损失函数代价函数
按照任务的种类,将任务分为
回归任务和
分类任务。区别:输入变量与输出变量均为连续变量的预测问题是回归问题,输出变量为有限个离散变量的预测问题成为分类问题
逻辑回归
逻辑回归是一个用于二分类(binary classification)的算法,是用回归的办法来做分类。 用y^表示实际值等于1的机率的话, 应该在0到1之间。在逻辑回归中,我们的输出应该是等于线性函数式子(wx+b)作为自变量的sigmoid函数中,公式如上图最下面所示,将线性函数转换为非线性函数。 逻辑回归的输出函数: 损失函数(又叫做误差函数,loss function),用来衡量算法的运行情况(输出值和实际值有多接近)。 一般我们用预测值和实际值的平方差或者它们平方差的一半,但是通常在逻辑回归中我们不这么做,因为当我们在学习逻辑回归参数的时候,会发现我们的优化目标不是凸优化,只能找到多个局部最优值,梯度下降法很可能找不到全局最优值,虽然平方差是一个不错的损失函数,但是我们在逻辑回归模型中会定义另外一个损失函数。 为了训练逻辑回归模型的参数w和参数b,我们需要一个代价函数(也叫成本函数,cost function),通过训练代价函数来得到参数w和参数b。 损失函数是在单个训练样本中定义的,它衡量的是算法在单个训练样本中表现如何,为了衡量算法在全部训练样本上的表现如何,我们需要定义一个算法的代价函数,算法的代价函数是对m个样本的损失函数求和然后除以m: 损失函数只适用于像这样的单个训练样本,而代价函数是参数的总代价,所以在训练逻辑回归模型时候,我们需要找到合适的w和b,来让代价函数J的总代价降到最低。 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |