KL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy).它衡量的是相同事件空间里的两个概率分布的差异情况.其物理意义是:在相同事件空间里,概率分布P(x)对应的每个事件,若用概率分布 Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特.我们用D(P||Q)表示KL距离,计算公式如下: 当两个概率分布完全相同时,即P(X)=Q(X),其相对熵为0 .我们知道,概率分布P(X)的信…