机器学习笔记【二】逻辑回归与分类(2):感知机学习算法与逻辑回归的区别,牛顿方法

您所在的位置:网站首页 概率与几率的区别和联系是什么 机器学习笔记【二】逻辑回归与分类(2):感知机学习算法与逻辑回归的区别,牛顿方法

机器学习笔记【二】逻辑回归与分类(2):感知机学习算法与逻辑回归的区别,牛顿方法

2024-07-13 15:01| 来源: 网络整理| 查看: 265

本节为吴恩达教授机器学习笔记第二部分:逻辑回归与分类(2)-感知机学习算法与逻辑回归的区别,牛顿方法。

2. 感知机学习算法与逻辑回归的区别

  区别1:这两位都是线性分类器,但是逻辑回归使用对数损失函数,而感知机使用的是均方损失函数(即错误点到分离平面的距离,最小化该值)。   区别2:逻辑回归的激活函数也与感知机不同,前者是sigmoid函数,后者是一个阶跃函数: 在这里插入图片描述   这就导致逻辑回归连续可导,使得最终结果有了概率解释的能力。而阶跃函数是一个分段函数非0即1,分类粗糙。   那问题又来了,针对第一个区别,为什么逻辑回归不能用均方损失左损失函数呢?   我们设想可以,则优化的目标函数为: 在这里插入图片描述   这个目标函数是非凸的,不容易求解,会得到局部最优。而用极大似然,对数似然函数是高阶连续可导凸函数,方便用梯度下降或者牛顿方法等凸优化方法来进行优化。   此外,综合线性回归,逻辑回归和感知机学习。

感知机算法仅在线性可分条件下有效,非线性则需要pocket算法线性回归容易优化,在0/1错误下对于|ys|有比较宽松的VC维界逻辑回归同样容易优化,在0/1错误下对于 y s < < 0 ys


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3