交叉熵(cross |
您所在的位置:网站首页 › 对勾函数的推导过程怎么写 › 交叉熵(cross |
交叉熵(cross-entropy)损失函数求导过程推导
1. 什么是交叉熵?1.1 熵1.2 KL散度1.3 交叉熵
2. 关于softmax函数3. 推导过程3.1 关于softmax的求导3.2 关于cross-entropy的求导
今天,师兄突然问我关于交叉熵求导的问题,分分钟被难住了,感慨自己读研一年多了,连这种基本问题都不懂。在师兄的帮助下,从头到尾推导了一遍, 决定写篇博客记录一下自己的收获。 1. 什么是交叉熵? 1.1 熵 首先,我们要知道什么是熵(entropy), 熵的物理意义是对体系混乱程度的一种度量方式。后来,香农将熵的概念引入到信息论中,提出了所谓的“信息熵”概念,从概率论的角度来看,就是说某个事件发生的不确定性越大,信息熵就越大。下文中提到的熵都是指“信息熵”。信息熵的公式如下: 在说交叉熵之前,还要提一下KL散度(Kullback-Leibler divergence),大家平时说的KL散度(其实也是一种熵,我们称之为相对熵。KL散度可以用来度量两个分布的相似度,比如在机器学习中,我们就可以用KL散度来衡量样本真实分布与预测分布之间的差异。KL散度的公式如下: 我们对KL散度进行如下变换: 在深度学习中,softmax函数是分类任务中常用的激活函数。softmax的公式如下: 在开始正式的推导之前,我再讲一下容易被大家遗忘的基础知识。 商函数的求导法则: 首先,我们对softmax进行求导: 为了保证符号上的统一,我们在这定义神经网络优化过程中的交叉熵形式为 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |