散度

KL 散度

定义

KL 散度(Kullback–Leibler Divergence),又称相对熵(Relative Entropy),是描述两个概率分布 的差异的一种方法。

离散概率分布的 KL 散度:

连续概率分布的 KL 散度:

两个分布越接近,KL 散度越小,当 时,;两个分布越远,KL 散度越大。

信息论中的意义

在信息论中,KL 散度的意义为:

其中:

  • :用概率分布为 的信息的最优编码方式,去编码概率分布为 的信息,需要的平均编码长度(交叉熵)

  • :对概率分布为 的信息进行最优编码,需要的平均编码长度(熵)

性质

  • 非负性,且 当且仅当

  • 非对称性

    因此 KL 散度并不是严格意义上的距离或度量(严格的度量需要满足的条件

  • 仿射变换不变性:若 ,则:

  • KL 散度可能趋于无穷

参考