|
给定两个离散随机变量X和Y,它们之间的互信息定义为:IS(X,Y)=Xy∈YXx∈Xp(x,y)logp(x,y)p(x)p(y),(7)其中p(x,y)是x和y的联合概率分布函数,p(x)和p(y)是边际概率分布。为了完整性,我们还对连续随机变量进行了相同的定义:IS(X,Y)=ZYZXp(X,Y)logp(X,Y)p(X)p(Y)dx dy,(8)其中p(X,Y)是X和Y的联合概率密度函数,p(X)和p(Y)是边际概率密度函数。互信息可以通过熵来等效定义:IS(X,Y)=H(X)+H(Y)- H(X,Y),(9),其中H(X)和H(Y)是边际熵,H(X,Y)是X和Y的联合熵。互信息衡量X和Y共享的信息量,换句话说,一个随机过程的信息减少了另一个随机过程的不确定性。互信息是非负的,andIS(X,X)=H(X)。互信息率(MIR)也是香农[64]首次引入的实际传播率[79],因此其他研究人员对其进行了更严格的定义[80,81]。正如熵率代表单位时间的熵一样,互信息率代表单位时间内两个动态变量之间交换的互信息。为了简化MIR的计算,如果我们有两个连续的动态变量,我们将它们转换为两个离散符号序列X和Y(无论如何,我们需要离散变量来计算Lempel-Ziv复杂性)。
|