熵、联合熵、条件熵、交叉熵与相对熵意义

您所在的位置:网站首页 联合分布的公式是什么原因 熵、联合熵、条件熵、交叉熵与相对熵意义

熵、联合熵、条件熵、交叉熵与相对熵意义

2024-07-17 19:15| 来源: 网络整理| 查看: 265

   条件熵:在随机变量X发生的前提下,随机变量Y发生所新带来的熵定义为Y的条件熵,用H(Y|X)表示,用来衡量在已知随机变量X的条件下随机变量Y的不确定性。     且有此式子成立:H(Y|X) = H(X,Y) – H(X),整个式子表示(X,Y)发生所包含的熵减去X单独发生包含的熵。至于怎么得来的请看推导:

---------------------------------------------------------------

相对熵可以用来衡量两个概率分布之间的差异 相对熵(Relative entropy),也称KL散度 (Kullback–Leibler divergence) 设p(x)、q(x)是离散随机变量X中取值的两个概率分布,则p对q的相对熵是: 性质: 1、如果p(x)和q(x)两个分布相同,那么相对熵等于0 2、DKL(p||q)≠DKL(q||p),相对熵具有不对称性。大家可以举个简单例子算一下。 3、DKL(p||q)≥0证明如下(利用Jensen不等式https://en.wikipedia.org/wiki/Jensen%27s_inequality):

 因为:

∑xp(x)=1

所以:

DKL(p||q)≥0

总结:相对熵可以用来衡量两个概率分布之间的差异,上面公式的意义就是求p与q之间的对数差在p上的期望值。

----------------------------------------------------------------------------------------------

----------------------------------------------------------------------------------------------

交叉熵和相对熵之间的关系

----------------------------------------------------------------------------------------------

互信息:两个随机变量X,Y的互信息定义为X,Y的联合分布和各自独立分布乘积的相对熵,用I(X,Y)表示:

    且有I(X,Y)=D(P(X,Y) || P(X)P(Y))。下面,咱们来计算下H(Y)-I(X,Y)的结果,如下:

    通过上面的计算过程,我们发现竟然有H(Y)-I(X,Y) = H(Y|X)。故通过条件熵的定义,有:H(Y|X) = H(X,Y) - H(X),而根据互信息定义展开得到H(Y|X) = H(Y) - I(X,Y),把前者跟后者结合起来,便有I(X,Y)= H(X) + H(Y) - H(X,Y),此结论被多数文献作为互信息的定义。更多请查看《最大熵模型中的数学推导》(链接:http://blog.csdn.net/v_july_v/article/details/40508465)

---------------------------------------------------------------------- 总结 信息熵是衡量随机变量分布的混乱程度,是随机分布各事件发生的信息量的期望值,随机变量的取值个数越多,状态数也就越多,信息熵就越大,混乱程度就越大。当随机分布为均匀分布时,熵最大;信息熵推广到多维领域,则可得到联合信息熵;条件熵表示的是在 XX 给定条件下,YY 的条件概率分布的熵对 XX的期望。相对熵可以用来衡量两个概率分布之间的差异。交叉熵可以来衡量在给定的真实分布下,使用非真实分布所指定的策略消除系统的不确定性所需要付出的努力的大小。

或者:

信息熵是传输一个随机变量状态值所需的比特位下界(最短平均编码长度)。相对熵是指用 qq 来表示分布 pp  额外需要的编码长度。交叉熵是指用分布 qq 来表示本来表示分布 pp 的平均编码长度。

转自:

http://blog.csdn.net/u013713117/article/details/55099060

https://blog.csdn.net/diligent_321/article/details/53115369

https://www.cnblogs.com/kyrieng/p/8694705.html#name3

 



【本文地址】


今日新闻


推荐新闻


    CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3