信息论基础学习笔记(一)

您所在的位置:网站首页 随机变量如何表示 信息论基础学习笔记(一)

信息论基础学习笔记(一)

2024-06-22 17:17| 来源: 网络整理| 查看: 265

1.1自信息

  信源,指的是消息的来源。若信源输出的消息是以取值离散的符号形式出现,其不同符号数是有限个,或为可列无限个,则此信源称为离散信源。若输出的消息的取值是连续的,则称其为连续信源。按输出符号之间的依赖关系,也可将信源分为无记忆信源和有记忆信源。

  离散信源通常用随机变量 X X X表示, X X X的可能取值,即信源的可能输出的不同符号用集合 χ \chi χ表示。如若将抛硬币这一随机试验看做一个信源的话,其取值集合即为 χ = { 正 , 反 } \chi=\{正,反\} χ={正,反}。

  要解决信息的度量问题,我们将信源发出某个信号 x 0 ∈ χ x_0\in\chi x0​∈χ后所提供的信息量的多少定义为 x 0 x_0 x0​的自信息,记为 I ( x 0 ) I(x_0) I(x0​)。自信息度量的是信号 x 0 x_0 x0​的不确定性(发生的可能性)。如果用概率 p ( x 0 ) p(x_0) p(x0​)表示 x 0 x_0 x0​发生的概率,则 I ( x 0 ) I(x_0) I(x0​)应该为 p ( x 0 ) p(x_0) p(x0​)的一个函数,且满足如下公理:

非负: I ( x 0 ) ≥ 0. I(x_0)\ge0. I(x0​)≥0.如 p ( x ) = 0 p(x)=0 p(x)=0,则 I ( x ) → ∞ . I(x)→∞. I(x)→∞.如 p ( x ) = 1 p(x)=1 p(x)=1,则 I ( x ) = 0. I(x)=0. I(x)=0.严格单调性:如果 p ( x ) > p ( y ) p(x)>p(y) p(x)>p(y),则 I ( x ) < I ( y ) . I(x)


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3