Description

熵(Entropy)是接受的每条信息中包含的信息的平均量。 熵最好理解为不确定性的度量,而不是确定性的度量,因为越随机的信源,熵越大。

例一 如果有一枚理想的硬币,其出现正面和反面的机会相等,则抛硬币事件的熵等于其能够达到的最大值。 使用一枚硬币进行 1 次抛投,这个事件的熵是 1 比特( ),因为结果不外乎两个——正面或者反面, 可以表示为 0,1 编码,而且两个结果之间相互独立。 若进行 n 次独立实验,则熵为 n。

例二 另一个稍微复杂的例子是假设一个随机变量 ,取三种可能值 ,概率分别是 , 那么编码平均比特长度为 ,其熵为 , 如果 3 个随机变量,第一个随机变量只需要一个比特就可以表示,后两个变量都需要两个比特才能表示。

香农把随机变量 的熵值 定义如下,

其中, 的概率函数, 为期望, 的信息量。

当取自有限样本时,熵的公式可以表示为:

当取自无限样本时,即非连续分布,熵的公式可以表示为:

\begin{equation*} H(X) = \int_{P(x_i)} I(x_i) \end{equation*}

为什么可以使用 来表示信息量呢? 我有一个直观未证明的解释。如上 例二