散度
KL 散度
定义
KL 散度(Kullback–Leibler Divergence),又称相对熵(Relative Entropy),是描述两个概率分布 和 的差异的一种方法。
离散概率分布的 KL 散度:
连续概率分布的 KL 散度:
两个分布越接近,KL 散度越小,当 时,;两个分布越远,KL 散度越大。
信息论中的意义
在信息论中,KL 散度的意义为:
其中:
:用概率分布为 的信息的最优编码方式,去编码概率分布为 的信息,需要的平均编码长度(交叉熵)
:对概率分布为 的信息进行最优编码,需要的平均编码长度(熵)
性质
非负性:,且 当且仅当
非对称性:
因此 KL 散度并不是严格意义上的距离或度量(严格的度量需要满足的条件)
仿射变换不变性:若 ,则:
KL 散度可能趋于无穷