楼主: kedemingshi
1501 28

[经济学] 社交网络、确认偏见与冲击选举 [推广有奖]

21
kedemingshi 在职认证  发表于 2022-4-16 11:09:28
[Golub and Jackson,2010]网络T的一致时间为:ct()=supx∈[0,1]nmin{T:ttx-t∞xs(i)<}其中,s(i)是`范数的加权形式。一致时间是初始信号最坏情况分布中所有主体对彼此有信念的最小时间T。各主体在共识上所具有的In itrience,si加权。我们可以刻划对称网络在一致时间上的一致偏差。定理A.1。如果所有i和T的tii≥对称,则T*的收敛时间随偏差量q弱单调增加。在证明这一结果之前,先说明一个已有的将一致时间与T的第二大特征值模(SLEM)联系起来的结果是有帮助的。我们使用Golub和Jackson[2008]的一个结果,尽管存在其他结果。引理a.1。[Golub和Jackson,2008]假定T是连通的,设λ是T的第二大特征值,设s是In的向量。若λ6=0,则对于任意0<≤1:log(1/4)-log(1/s)2log(1/λ)≤CT()≤±log(1/)2log(1/λ)定理A.1的证明。定理1的证明表明,网络的所有特征值都是弱正的,并且在偏置强度上是弱增长的(特别地,注释2是例外。这是因为它考虑了只有一个agent被偏置的情况,所以q和α中的异质性并不重要--因为它没有e-ect。证明的第1段)。因此,第二大特征值也一定是SLEM。因此,λ的弱增加意味着SLEM的弱增加。引理a.1以λ(SLEM)为一致时间提供了紧的界限,因此表明λ的增加弱地增加了一致时间。综合起来,更强的con偏差(弱地)增加了λ,进而(弱地)增加了一致时间。注意,这直接使用了定理1的证明,因此依赖于网络变化的相同结构。因此,它在A.1中的广义模型下也成立。马氏链收敛受特征值谱的控制,并且常被第二大特征值模很好地逼近。在定理1中,我们使用了全谱的特征值,但使用了一个不包括初始信号的度量。这一替代结果仅使用第二特征值作为近似值,但包含了初始信号。然而,它只使用最坏情况的信号集。这有两个缺点。首先,我们想知道给定初始信号分配x的收敛时间,而不是只知道最坏情况分配。其次,构成T的最坏情况的分配可能不是T*的最坏情况。因此,这个结果并不能保证,对于给定的x,在T下比在T*下更快地达成共识。a.3最优网络。本节给出了一个基准案例,在这个案例中,社会规划者能够观察到信号的初始分配x和控制偏差的水平q。然后介绍了最优马尔可夫链的最优启发式和Metropolity-Hastings启发式,并证明了这两种启发式都是快速收敛马尔可夫链的理想选择。我们集中讨论收敛到一个共识是可能的情况。也就是说,存在T∈T,使得T*是强连通的。这就排除了群组a的存在,在群组a的存在中,没有一个agent i∈X愿意听取任何j∈AC的意见。因为社会规划者观察到了X,q,所以她可以直接控制网络T*--因为她确切地知道,如果创建了哪些链接,会由于confirermation偏见而被切断。在这里,最优网络的特征是直接的。它是“长臂”星形网络的一个版本,我们称之为章鱼网络。

22
可人4 在职认证  发表于 2022-4-16 11:09:34
它保证在最多(最大{xi0}-最小{xi0})周期内收敛于真值。构造章鱼网络时,需要识别一个初始意见与此相同的代理。将此代理表示为a,并设置taa=1。如果不存在这样一个代理,则识别代理对,a和b,其中;(1)xa0-xb0<1-q(它们愿意互相倾听),(2)γxa0+(1-γ)xb0=xi0,对于某些γ∈(0,1)(它们初始信号的某种线性组合等于真值)。然后选择Taa、Tab、Tba、tbb,使xa1,xb1完全等于真值,并且Taa+Tab=Tba+tbb=1。其次,识别所有代理i,使0≤xi0-xa0<(1-q),并设置tia=1。表示这组代理A。接下来,识别所有代理j,使(1-q)≤xj0-xa0<2(1-q)。表示该代理集A。选择Tjisuch thatpi∈ATJI=1和pi/∈ATJI=0。重复此步骤Utitla→KSK=1AK=N,显然K≤q(xmax0-xmin0)。因此,在INQ(xmax0-xmin0)周期内保证收敛到真值。注意,这个过程并不会导致一个唯一的网络--任何由这个过程构造的章鱼网络类中的网络都是最优的。链接权重的启发式。分配链接权重以使到达aconsensus所需的时间最小化是数学文献中研究得很好的问题。[2004]给出了针对单个网络的计算求解方法,但在没有普遍结果的情况下,我们转而使用启发式来建议最优网络的链路权重。最大程度启发式对网络中所有Agent之间的链路分配相等的权重,选择最大可行链路权重。所有剩余的重量都放在自连杆上。这意味着具有最高度的agent没有自链接。第A.3(最大度启发式)。最大度转移概率矩阵tmdij=1/dmaxif(i,j)∈E和i6=j1-di/dmaxif i=j0如果(i,j)/∈E,其中E是链集,dmax=maxi{di}。Metropolity-Hastings启发式略有细微差别。对于任一对智能体i和j,在不丧失一般性的情况下,假定i具有弱高的度。然后i和jis之间的链接分配一个等于i度数倒数的权重。所有agent之间的链接都会发生这种情况,然后分配自链接以确保所有i.definition A.4(Metropolity-Hastings启发式)的PJTIJ=1。对于对称马尔可夫链,给出的MetropolisHastings转移概率矩阵Tmhis被称为最快混合马尔可夫链问题,其术语是非常精确的。Tmhij=min{di,dj}如果(i,j)∈E和i6=jP(i,k)∈emax{0,di-dk}如果i=j0如果(i,j)/∈EIt。然而,核心问题是相同的,其中E是链接集。这两个定义都取自Boyd等人。[2004]。由于命题3的限制,我们只考虑规则网络--这意味着对ALLI来说di=dj=dmax.因此,在最大度和Metropolis-Hastings启发式下,网络中的所有链接都被赋予相同的权重,并且没有自链接。A.4在本节中,我们发现对于每个M≤5的值,以及对于所有q∈[0,1]的值,M=1:μfr(q,M=1)∈[min(q,1-q),max(q,1-q)]的边缘媒体组织的确切思想。在有垄断媒体组织的情况下,它选择任何能抓住尽可能多受众的意识形态(当q≤0.5时,这包括所有代理人)。M=2:μfr(q≤0.5,M=2)=0.5和μfr(q>0.5,M=2)=1-q。当q≤0.5时,所有参与者仍然愿意听取μ=0.5的意识形态,因此双寡头均衡在这个范围内是由偏差所决定的(见Eaton and Lipsey[1975]关于均衡的证明)。当Q>0.5时,边缘媒体组织愿意选择一种极端的意识形态来吸引最极端的代理人作为听众,但不会更多。

23
能者818 在职认证  发表于 2022-4-16 11:09:41
显然,更极端的意识形态不是最佳的,因为媒体组织可以选择更中间派的意识形态,不会失去边缘的任何听众,但会获得中心的一些听众。M=3:当q≤0.75并且有三个媒体组织时,均衡不存在。因此μFR(q≤0.75,M=3)不存在。μFR(q>0.75,M=3)=1-q。在三个媒体组织和低控制偏差的情况下,不存在均衡--边缘组织希望向内(向中心)倾斜,这增加了他们的受众,但这导致中间组织希望不连续地改变其意识形态,成为边缘组织。这个循环永远不会结束;阻止平衡存在。然而,当q>0.75时,外围组织不再希望向内移动超过μ=1-q(或μ=q),因为这样做会从他们的受众中失去非常极端的代理。有鉴于此,处于中间位置的组织希望改变其意识形态,成为一个外围组织。M=4和M=5:μFR(q≤0.75,M=4)=0.25和μFR(q>0.75,M=5)=1-q。μfr(q≤,M=5)=和μfr(q>,M=5)=1-q这里的逻辑与上面的两个组织的情况相同。我们可以从这里看出,命题5和6对于两个或更多的媒体组织成立(除了在M=3时存在的问题外),但对于M=1两者都不成立。至少需要一些比赛来维持我们的结果。A.5模拟第5节我们进行了两组模拟。在这组中,初始信号是从均匀分布u[0,1]中提取的,并且预测偏差相对较低(在0.05到0.15之间)。这被用来检验定理1和命题2的稳健性。第二组模拟使用了信号的离散分布和一个明显更高的con偏差值,用于测试命题4的稳健性。本节使用第二组模拟进一步测试定理1和命题2的稳健性--表明它们在更高的con偏差水平下更加明显。请注意,不可能使用这组模拟来进一步测试命题4,因为命题4要求对这组模拟中不存在的初始信号的分布进行限制。图7显示了有和无约束偏差的收敛时间。它类似于图5中的eleft面板。再一次,从目测可以清楚地看出,偏差使分布显著地向右移动;与定理1相一致,在有偏差的情况下,平均收敛时间为6.9个周期({min,max}=[6,8]),而在有偏差的情况下,平均收敛时间为139.3个周期({min,max}=[49,365])。然后,图8显示了带有和不带有CONFIRRMATIONBIAS的偏振。这类似于图5的右面板。图7:无偏差的收敛速度(a),有偏差的收敛速度(b),尽管定理1假设每个环节都是对称的,而(通过构造)模拟网络中没有一个环节是对称的--尽管选择了对理论中所做假设的最具挑战性的测试,结果仍然成立。图8:极化这些结论表明定理1和命题2分别对放松网络对称性要求和均值假设是稳健的。此外,模拟显示了一致性值变化的一个有趣的特征,一致性值的变化(由于一致性偏差)似乎是关于零的对称分布,并呈近似钟形曲线。

24
nandehutu2022 在职认证  发表于 2022-4-16 11:09:47
此外,当偏差较大时,变化更广泛地分散,但仍然围绕零(见图9)。除了对称或明智网络的特殊情况外,关于一致值的分析结果是难以处理的,因为它依赖于in向量的整体和初始信号的完全分布。关于信息向量的元素如何响应网络中的变化而变化,我们知之甚少。图9:一致性变化(a)、第一集(b)、第二集证明我们从设定一些符号开始。λki是Markov链T的第k个特征值,特征值被排序为λ>λ>...>λn。类似地,λ*ki是Markov链T*的第k个特征值。Vki是与特征值λk相对应的马氏链T的右边特征向量。E(f,T)是T的Dirichlet能泛函。s是对应于特征值λ1的左手本征向量,以i为元素Si。它也被称为In事件向量,si,即agent I的In事件向量。f是长度为nb.1的任意向量,学习速度为b.1。[Souzi,2019,定义4.1]网络的Dirichlet能函数T isE(f,T)=xi,j(fi-fj)siTij(b.1)定理B.1。[Souzi,2019,定理4.6]1-λj=minf{E(f,T):f=1,fV,...,VJ-1}对于所有j∈1,...,n}(b.2),本文指出1减去j的最大特征值等于Dirichlet能量的最小值(最小化的w.r.T为自变量f),但条件是自变量f是矩阵的第1,2,...(j-1)个自变量的正交矩阵。引理B.1。[Souzi,2019,引理3.5]Tt(i,·)-s)=NXK=2vk(i)λ2TK(b.3)为了避免混淆,我们用vk(i)表示特征向量vk(它本身是矩阵的第K个特征向量)的第1个元素,用Tt(i,·)表示矩阵(T)T的第1行。消歧:在这个证明中,我们用下标表示两个事物。下标T,s和f(即。Tij,si,fi)表示向量/矩阵的第i个(或第ij个)元素。vk,λk)表示第k个有序特征向量/特征值。所以VK指的是一个全向量(一个n×1向量),而不是它的一个元素。定理1的证明。使用第B.1条,我们有;E(f,t*)=pi,j(fi-fj)s*it*ij。由于T是不对称的,那么S*i=sifor所有i,so;E(f,t*)=pi,j(fi-fj)sit*ij。第1条;对于所有i,j,i6=j的t*ij≤tij.其中i=j从求和中退出的项,如(fi-fj)=(fi-fi)=0。因此,对于所有f和任何对称T及相关的T*,E(f,T*)≤E(f,T)。由于E(f,T*)≤E(f,T)对于所有f,那么minf{E(f,T*)}≤minf{E(f,T)}受f的任何约束。因此,从定理B.1可以得出,对于所有J来说,1-λ\\j<1-λj。引理B.1的简单处理结果为Snpitt(i,·)-s)=npnk=2pivk(i)λ2tk。在归一化中,每个特征向量的平方元素和为1;对于所有K(Pivk(i))=1,因此pitt(i,·)-s)=npnk=2λ2tk。因此,我们可以把我们的收敛度量τ写成;τ=min(t>0:nnxk=2λ2tk<)(b.4)对于所有k∈{2,...,n},显然npnk=2λ2tk,在t中减小而在λk,在λk,增加。因此q>q=yenNPNK=2(λK)2T≥NPNK=2λ2TK。这是由所有特征值都是弱正的事实得出的。要看到这一点,请注意,如果对于所有i来说tii≥,那么存在另一个Markov链t,这样t=(i+~t),其中i是单位矩阵。I的所有特征值都等于1,且由于~T是aMarkov链,其所有特征值都弱大于-1。因此,对于任意filterfed>0的情况,达到enpnk=2λ2tk<所需的最小时间在q中弱单调增加。注意,这个证明只依赖于矩阵的一些O型对角线元素减少,一些相应的对角线元素增加(没有其他变化)。

25
mingdashike22 在职认证  发表于 2022-4-16 11:09:54
因此,这一证明在概括模型下显然成立(在第A.1项规定中)。B.2在注释1的证明中。首先,请注意,如果一个n×n马氏链T是对称的,那么它是双随机的。这意味着所有行和所有列的总和为1。因此,n·1·T=n·1,其中1是1的1×n向量。其次,由于xi0-xj0xj0-xi0,在对称网络T中,i与j割链当且仅当j与i割链。这是由于q的同质性。因此,如果T是对称的,那么T*也是对称的。把这两个观测结果放在一起意味着N·1也是T*的左手本征向量。显然,在某些方面保持不变。备注2的证明。[Schweitzer,1968,第3节,方程8]给出了一个关于在单行扰动后一个agent变化的方程:S*I=si(1+uii1-uii,其中Eu=(T*-T)Z,Z=(i-t-1s)-1是Markov链T的基本矩阵。当只有agent I切断链时,则T*只在第1行从T中分离出来,因此我们可以应用这个公式。此外,当T*di只通过第ith行中的条目从T中分离出来时,则uii=(T*ii-tii)pj6=i(T*ijtij)zji。通过构造,对于所有的J6=i,PJ(t*ij-tij)=-(t*ii-tiii)和(t*ij-tij)≤0。[Conlisk,1985,第2节,等式8]表明对于所有的J6=i,zii>zji。这意味着,pj6=i(t*ijtij)zji>0。因此,uii>0和s*i>si.或者,我们可以通过重复应用[Conlisk,1985,Section 4]中的初等微扰结果来看到同样的结果。命题1的证明。我们为一个inteluencer证明了这个结果。表示In的集合θ和In的集合听Bθ的代理集合。对代理I取In的识别;(1-Tii)Si=pj∈n(i)Tjisj,对于代理j;(1-Tjj)Sj=pk∈n(j)\\{i}tkjsk+Tijsi,并将第二个代入firest,yields;(1-Tii)Si=xj∈n(i)tji xk∈n(j)\\i}tkjsk(1-Tjj)-1重排yields;(1-tii-[xj∈n(i)tjitijj(1-Tjj)-1])Si=xj∈n(i)xk∈n(j)\\i}TjiTkjsk(1-Tjj)-1和通过相同的逻辑,我们可以得到S*i的一个等价方程。通过承认;(a)i∈θ,Tji=T_jifor所有j6=i∈N(i),和(b)j∈bθ,Tkj=T_kjfor所有k6=j,i∈N(j)\\i。现在设(c)téii=tii+i,i>0,和(d)téjj=tjj+j,j>0。将(a)-(d)代入Sutields的等价方程,然后减去Siyelds的等式;1-tii-i-xj∈n(i)tjit:/ij(1-tjj-j)-1sèi-1-tii-xj∈n(i)xk∈n(j)\\{i}RHS=xj∈n(i)xk∈n(j)\\{i}TjiTkj(sutk-sk)1-tjj-j+xj∈n(i)xk∈n(j)\\{i}jtjitkjsk(1-Tjj)(1-Tjj)(1-Tjj)-j)我们假定第三轮e值较小;TjiTkj(S*K-SK)≈0。根据对an的认识,这个结果是srhs=xj∈n(i)xk∈n(j)\\{i}jtjitkjsk(1-Tjj)(1-Tjj)(1-tjj-j),如果i与j(téij<Tij)断开一个链接,那么j不能听i(tji=0)。否则,j将切断她与i的联系--由于con偏见的同质性--这是an的认知所不允许的。因此,tijtji=t*ijji,我们知道,在tij6=t*ij,tji=0的情况下,求和的分量为零。因此,将t*ijto Tijin等同为这一求和是合适的,因为它们所在的任何实例都将是不相关的(求和组件将为零)。利用这个结果,我们可以将左手边(LHS)重新排列为:LHS=1-tii-xj∈N(i)tjitij1-tjj-j(Suti-si)-i-xj∈N(i)si(TjiTij)j(1-Tjj)(1-Tjj)j):表明对于i∈θ;1-tii-pj∈n(i)tjitij1-tjj-j>0。首先,注意tjj+@j+pit*jk=1,对于所有j6=i∈N(i),注意t*ji=tji。这意味着;1-tjj-j-pk6=i∈n(j)t*jk=tji。sincepk6=i∈n(j)t=jk≥0,然后;1–TJJ–J≥TJI。这重新排列为;tjitij 1-tjj-j≤tij。如果tjitij 1-tjj-j=tij,则1-tii-pj∈n(i)tjitij 1-tjj-j=0。

26
mingdashike22 在职认证  发表于 2022-4-16 11:10:00
然而,必须至少存在一个j∈niwhereTji=0,因为在meluencer中对an的认识要求i切断与某些j的链接,而没有j切断与i的链接。这反过来要求有一些j不听i的,而是被i听的。因此,1-tii-xj∈N(i)tjitij1-tjj-j>0现在将LHS和RHS(从上面)等同起来,并重新排列;1-tii-xj∈N(i)tjitij1-tjj-j(Suti-si)=i+xj∈N(i)tjiàj(1-Tjj)(1-Tjj)(1-Tjj)(1-Tjj)-j)sitij+xk∈N(j)\\{i}tkjsk所有右手边项都弱大于零,我们已经建立了1-tii-pj∈N(i)tjitij1-j>0。因此,(S*I-Si)≥0,对于一个听者的证明遵循与对于一个Indeluencer的证明相同的逻辑,并且不提供任何额外的洞察力。它可根据作者的要求获得。B.3极化引理B.2。在假设1下,一个智能体i的学习规则可以表示为xit=(1-Ttii)μ+ttiixi0,其中对于所有J,μ=dipjxj0.引理B.2的证明。归纳法证明。首先,显示t=1。通过对协方差的认识,Cov(xj0,Tij)=dipj∈n(i)\\{i}(xj0-xj0)(tij-tij)。它重排为;Dicov(xj0,Tij)=xj∈N(i)\\{i}xj0tij-xj0xj∈N(i)\\{i}tij-tijxj∈N(i)\\{i}xj0+dixj0tij,其中di=#[Tij>0]=#[n(i)\\{i}]。根据假设1,我们有xj0≈μ,cov(xj0,Tij)≈0。根据规定,Tij=di(1-Tii)。因此,上述等式重新排列为;pj∈N(i)\\{i}xj,0 tij-μ(1-Tii)-di(1-Tii)di(R)+di(R)di(1-Tii)≈0,从而得到pj∈N(i)\\{i}xj 0 tij≈μ(1-Tii).第1节中的学习规则可分解为xi1=pj∈N(i)\\{i}tijxj0+tiixi0。将我们的结果直接代入学习规则产生;XI1≈μ(1-TII)+TIIXI,0(如需要)。现在我们假设对于t=k;XIK=(1-Tkii)μ+Tkiixi0,并证明t=k+1。t=k+1的学习公式为;xik+1=pj∈n(i)\\{i}tijxjk+tiixik。在我们的假设中代入t=k,并将项相乘重排;xi,k+1=μxj∈N(i)\\{i}tij+xj∈N(i)\\{i}(xj,0-μ)·TijTkjj+tiiμ-tk+1iμ+tk+1iixi,0回想协方差方程重排为N cov(a,b)=pnab-nab,对于一般的a,b。设a=(xj0-μ),b=TijTkjj,N=di。假设1a=0,则so di·cov((xj0-μ),TijTkjj)=p(xj0-μ)TijTkjj。加/减一个常数不会改变协方差,而一个乘法常数的作用是线性的,所以;diTkjjcov(xj0,Tij)=p(XJ 0-微处理器)TiJTKJJ。根据假设1,协方差近似等于零,soP(XJ0-μ)TiJTKJJ≈0。利用这个观测结果,上面的公式简单地定义为toxi,k+1=μxj∈N(i)\\{i}tij+tiiμ-tk+1iiμ+tk+1iixi,0和简单重排产生xik+1=μ(1-tk+1ii)+tk+1iixi0。这就完成了命题2的证明。从第7条中回想一下,var(xt)=NPI(xit-μ)。在引理B.2的简单学习规则中代入并重排项产生;var(xt)=NPIT 2 TII·(XI 0-微安)。我们现在证明,在有con firemmation bias的情况下,在时间t的信度总是离平均值更远。通过归纳法证明。对于t=1;xéi1=pjxj0téij+téiixi0,其重新排列为;x*i 1=(1-t*ii)μ+t*iixi 0+Cov(xj0,t*ij)。假设1;Cov(xj0,Tij)=0,加上xiàu[0,1]意味着atCoV(xj0,téij)与xi0yen具有相同的符号。如果xi0>0.5,那么在由于conformationbias而切断链接后,我会不成比例地监听xj0>0.5的其他代理。相反,对于xi0<0.5。因此,当t=k时,x*i1yen-xi1yen=Cov(xj0,t*ij)>0;假设x*ik=(1-t*kii)μ+t*kiixi 0+ik,其中ik=t*ii ik-1+Cov(xjk-1,t*ij)取与(x*ik-τ)相同的符号,对于t=k+1;X*IK+1=Pt*IJX*JK+T*IIX*IK。首先,我们使用协方差展开,然后用我们的假设代替x*ik。接下来,我们使用协方差展开式和假定PXJ0=μ,进行乘法运算。最后,我们注意到;(1)Cov(t*jj,xj0)=0,这是由于平均假设和初始信号的均匀分布;(2)P jk=0,这是由于有限信号的均匀分布,因此是问题的对称性。请注意,对于给定的代理i,x*it-yen对于所有T具有相同的符号。

27
可人4 在职认证  发表于 2022-4-16 11:10:06
因此,Cov(xjt,t*ij)的符号与x*it-yen相同,其逻辑与t=0的情况相同。通过对jk+1=t*ii jk+Cov(xjk,T*ij),我们得到了方程式,完成归纳。x*ik+1=xt*ijxx*jk+t*iix*ik+Cov(xjk,T://ij)x://ik+1=xt://ijx[(1-t://kjj)(R)+t://kjjxj0+jk]+t://ii[(1-t://kii)(R)+t://kiixi0+ik]+Cov(xjk,T:/ij)x:/ik+1=(1-T:/II)μx(1-T:/KJJ)+μxT:/KJJ+Cov(Tjj,xj0)+xjk++T:/IITMT:/K+1II+T:/K+1III0+T:/II JK+Cov(xjk,T:/IJ)x:/IK+1=(1-TTMK+1III0+T:/II JK+Cov(xjk,T:/IJ)+(1-T:/II)Cov(T:/JJ,xj0)+xjk:/XK+IK+1=)μ+T*K+1IIXI0+JK+1因此,x*IK-Ω-XIK-Ω=JK>0。较高的q增加了Cov(xj0,T*IJ)的幅度,当XI0>0.5时,它微弱地增加了持续听取的平均意见(而当XI0<0.5时,则降低了平均意见)。在xi0=0.5的特殊情况下,那么我继续听的平均意见是由q得到的。在这种情况下,问题的对称性意味着如果xi0=0.5,则Cov(xj0,t*ij)=0。通过类似的逻辑,它还增加了所有t的Cov(xjt,t*ij)的大小。方差在q中的增加是从这个观察到的。B.4最优网络模型B.3。给定一个网络T和未分配信念的向量X。如果期望超过了(分配的)初始信念的实现,那么在T链中随机选择一个的概率;(1)所有链环均相同;(2)在Q中弱单调递增。引理B.3的证明。考虑一个任意的链接,tij。切断该链接的概率是距离比(1-q)更远的信念对的数目,作为信念对总数的分数。fi(q)=pr(rerouteq)=#{xk,xl:xk-xl>(1-q),k6=l}#{xk,xl:k6=l}这并不取决于我们对链接Tij的选择,因此对于所有链接都是一样的。因此fi(q)=f(q)对于所有i。{xk,xl:xk-xl>(1-q),k6=l}在q中是弱单调递增的,而{xk,xl:k6=l}在q中是弱单调递增的,因此f(q)在q中是弱单调递增的。信息损失L是由于控制偏差而停止在巨型组件中具有可信性的代理的数量。L=#{i:s*巨,i=0,sgiant,i>0}其中sgiant,ii存在于giant分量中的agent i。定义B.3(顶点传递性)。网络T是顶点传递的,如果对于任意一对主体i,j存在图自同构π:N→N,使得π(i)=j,命题3的证明。首先是一些机械。布景。设gk,Z表示k∈{1,2,...,n}主体的ZTH群。设gck,ZB为它的补数。注意gck,zgn-k,z。设GK表示大小为K的所有代理群的集合。Gk=Zk;GKD含有ZKDI和Erent基团。让AKT表示任意一个或多个大小为k的组由于conformationbias而与网络断开连接的事件。概率。设P r(Ak)是事件发生的概率,设P r(gk,z)是大小为k的zthgroup断开的概率。设P r(L>0)表示网络中存在某种信息丢失的概率。学位。设dgk,Z表示群gk,Z和群gck,Z之间的链路数。如果T是对称的且不存在信息丢失,则T*·xi0=xi0(注1)。因此,最优网络是一个使P r(L>0)最小的对称网络。由引理B.3,随机选择的链路的截割概率等于f(q)。在假设2下,我们将此应用于所有链接,而忽略切割概率之间的相关性。a groupgk,zbones断开连接的概率是他们与网络其余部分的所有链接中断的概率。也就是;P r(gk,z)=fdgk,z。那么,一个或多个大小为k的群断开的概率是1减去没有大小为k的群断开的概率。即,pr(Ak)=1-zkyz=1[1-pr(gk)]=1-zkyz=1[1-fdgk],由于取指数的凸性,对于k的任意值,通过设置dgk,z=dkfor allgk,z∈gk来使该项最小化。

28
nandehutu2022 在职认证  发表于 2022-4-16 11:10:13
信息丢失的总概率P r(L>0)在P r(Ak)中增加。因此,一个给定规模的所有代理组具有相同数量的链路的图使信息丢失的概率最小。这要求所有节点在未加权的等价TS中都是相同的。通过识别,这就相当于网络TSS通过识别是垂直传递的。正则性来自于顶点传递性,并且对于命题4的所有gk.B.5冲击选择证明,自联系的缺失增加了P r(gk)。首先,根据假设回忆一下μ<0.5和#[xi0<0.5]>#[xi0>0.5]。通过引理B.2,当q=0时,我们有一个简单的学习规则;XIT=(1-Ttii)μ+TTIIXI0,适用于所有I。对于t≥1,设Δxit=xit-xit-1。在简单学习规则中进行替换并重新排列收益率;xit=TT-1 II(1-Tii)(Ω-xi0)。t只作为弱正数上的指数进入,因此,对于所有i,t,Δxi的符号都是一样的。因此,对于所有i,(xit-Ω)在t中弱单调递减。这意味着,任何投票给左翼候选人的代理人都不能改变他们的投票(所有投票给右翼候选人的代理人必须在某个时候将他们的投票转向左翼候选人)。因此,左翼候选人会在任何t中获胜,因此不可能有任何挥发。为了证明在q>0时挥发是可能的,我们给出了在t=1时右翼候选人获胜的条件。由于假设左赢的候选人在t=0和t=∞时获胜,这是证明波动是可能的,选择q∈(1-max{km+1-km},1-min{km+2-km})。那么我们有:XEL 1≈FCLXCL0+(1-fCL)XEL 0 xCL1≈FLXEL0+FSXS0+(1-FEL-FS)XCL 0 xS1≈FCLXCL0+FCRXCR0+(1-FCL-FCR)XS0 xCR1≈FSXS0+FERXER0+(1-FS-FER)XCR 0 xER1≈FCRXCR0+(1-FS-FER)XCR0 xER1≈FCRXCR0+(1-fCR)XER0现在假设FEL+fCL<0.5(左派不能自己形成多数)且FCRXCR0+FCLXCL0>0.5(中间偏右比中间偏左更能说服摇摆选民)。然后xs1>0.5,右翼候选人在=1B.6中值证明6中获胜。从伊顿和利普西[1975]我们有;μFR(q=0,M)=2 M-4。当(1-q)>2m-4时,边缘媒体组织不会因偏见而失去任何(潜在)代理。对于q∈[0,2m-52m-4],边缘媒体组织受到Confirermationbias的影响,其意识形态在此范围内受到Confirermationbias的影响。在Tii=0的特殊情况下,代理人i只需经过一段时间的学习,就会达到长期的社会共识。这是因为,根据假设,他们的邻居代表了整个社会。此外,μfr(q,M)=(1-q)当q∈[2m-52m-4,1]时。μFR(q,M)>(1-q)是不可能的。边缘媒体组织可以向左转移,并至少向左吸引同样多的听众,因为它会失去向右的听众,这意味着它更倾向于向左转移。由于这种左移不会减少任何其他媒体组织的受众,所以它仍然是一个均衡。这种逻辑(隐含地)要求代理人的初始意见分布是一致的(或接近一致的)。μfr(q,M)<(1-q)也是不可能的。首先,如果另一个媒体组织也做出了同样的选择,一个媒体组织只能选择μ<(1-q)(否则它会选择向内转移)。假设一对媒体组织选择μ=μ=χ<(1-q),那么一定有另一个组织选择μ=3χ-否则其中一个边缘媒体组织会偏离μ=χ+,对于一些>0的媒体组织来说。媒体组织m=3必须选择这种意识形态,以防止m=1,2偏离。反过来,这要求μ=5χ-以防止m=3偏离。

29
可人4 在职认证  发表于 2022-4-16 11:10:13
这种情况在整个媒体组织中继续存在;μm=(2m-3)χfor m∈3,...,m-2}。请注意,若要使μfr(q,m)<(1-q)作为一个平衡可持续,还必须有一对媒体组织选择μ=1-χ(secpectrum的另一端是一种同样极端的意识形态)-否则,边缘媒体组织可能会适时地偏离μ=1-χ+,如果有些>0。根据与上面相同的逻辑,我们要求μM-2=1-3χ,在上面我们发现了μM-2=1-3χ,但在上面的段落中发现了μM-2=(2M-7)χ。要使这些等同,我们必须有χ=2m-4。但这是一个矛盾--因为我们假定χ<2m-4。现在还需要注意的是,对于y∈{2,...,m-1},∑=1-q,∑y=1-2qm-1是一个平衡。因此,边缘媒体意识形态是μfr(q,M)=(1-q),这样的均衡存在。我们通过在第三段中设置χ<(1-q)≤2m-4来实现这一点。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-3-6 11:00