|
此外,当偏差较大时,变化更广泛地分散,但仍然围绕零(见图9)。除了对称或明智网络的特殊情况外,关于一致值的分析结果是难以处理的,因为它依赖于in向量的整体和初始信号的完全分布。关于信息向量的元素如何响应网络中的变化而变化,我们知之甚少。图9:一致性变化(a)、第一集(b)、第二集证明我们从设定一些符号开始。λki是Markov链T的第k个特征值,特征值被排序为λ>λ>...>λn。类似地,λ*ki是Markov链T*的第k个特征值。Vki是与特征值λk相对应的马氏链T的右边特征向量。E(f,T)是T的Dirichlet能泛函。s是对应于特征值λ1的左手本征向量,以i为元素Si。它也被称为In事件向量,si,即agent I的In事件向量。f是长度为nb.1的任意向量,学习速度为b.1。[Souzi,2019,定义4.1]网络的Dirichlet能函数T isE(f,T)=xi,j(fi-fj)siTij(b.1)定理B.1。[Souzi,2019,定理4.6]1-λj=minf{E(f,T):f=1,fV,...,VJ-1}对于所有j∈1,...,n}(b.2),本文指出1减去j的最大特征值等于Dirichlet能量的最小值(最小化的w.r.T为自变量f),但条件是自变量f是矩阵的第1,2,...(j-1)个自变量的正交矩阵。引理B.1。[Souzi,2019,引理3.5]Tt(i,·)-s)=NXK=2vk(i)λ2TK(b.3)为了避免混淆,我们用vk(i)表示特征向量vk(它本身是矩阵的第K个特征向量)的第1个元素,用Tt(i,·)表示矩阵(T)T的第1行。消歧:在这个证明中,我们用下标表示两个事物。下标T,s和f(即。Tij,si,fi)表示向量/矩阵的第i个(或第ij个)元素。vk,λk)表示第k个有序特征向量/特征值。所以VK指的是一个全向量(一个n×1向量),而不是它的一个元素。定理1的证明。使用第B.1条,我们有;E(f,t*)=pi,j(fi-fj)s*it*ij。由于T是不对称的,那么S*i=sifor所有i,so;E(f,t*)=pi,j(fi-fj)sit*ij。第1条;对于所有i,j,i6=j的t*ij≤tij.其中i=j从求和中退出的项,如(fi-fj)=(fi-fi)=0。因此,对于所有f和任何对称T及相关的T*,E(f,T*)≤E(f,T)。由于E(f,T*)≤E(f,T)对于所有f,那么minf{E(f,T*)}≤minf{E(f,T)}受f的任何约束。因此,从定理B.1可以得出,对于所有J来说,1-λ\\j<1-λj。引理B.1的简单处理结果为Snpitt(i,·)-s)=npnk=2pivk(i)λ2tk。在归一化中,每个特征向量的平方元素和为1;对于所有K(Pivk(i))=1,因此pitt(i,·)-s)=npnk=2λ2tk。因此,我们可以把我们的收敛度量τ写成;τ=min(t>0:nnxk=2λ2tk<)(b.4)对于所有k∈{2,...,n},显然npnk=2λ2tk,在t中减小而在λk,在λk,增加。因此q>q=yenNPNK=2(λK)2T≥NPNK=2λ2TK。这是由所有特征值都是弱正的事实得出的。要看到这一点,请注意,如果对于所有i来说tii≥,那么存在另一个Markov链t,这样t=(i+~t),其中i是单位矩阵。I的所有特征值都等于1,且由于~T是aMarkov链,其所有特征值都弱大于-1。因此,对于任意filterfed>0的情况,达到enpnk=2λ2tk<所需的最小时间在q中弱单调增加。注意,这个证明只依赖于矩阵的一些O型对角线元素减少,一些相应的对角线元素增加(没有其他变化)。
|