楼主: mingdashike22
1941 73

[量化金融] 声誉学习与网络动态 [推广有奖]

21
kedemingshi 在职认证  发表于 2022-5-8 13:07:24
因此,为了使流量效用最大化,一旦代理j的声誉低于链接成本c,代理i将切断其与代理j的链接。由于我们假设所有代理都有相同的链接成本,并且所有邻居都有相同的信念,与代理j链接的任何其他代理也将决定切断其链接。从这一刻起,agentj实际上被排斥在网络之外;由于它不再有任何链接,因此无法发送任何可能提高其声誉的进一步信息。虽然在基本模型中,失序代理无法返回网络,但我们在扩展部分放宽了这一假设。四、 网络动力学和稳定性。网络动态模型的动态演化如下:根据网络约束,所有相邻的代理对Ohm 将选择在时间零点链接,因为我们假设所有代理的初始声誉都高于成本c(任何初始声誉低于cis的代理立即被排除在网络之外,无需考虑)。因此,时间0的初始网络将与网络约束相同,G=Ohm. 随着时间的推移,发送坏信号的代理商的声誉会下降,一旦代理商的声誉受到影响,其邻居将不再希望与之联系。它的所有邻居都将切断他们的链接,该代理实际上被排斥在网络之外。我们将证明,这总是发生在anAs提到的整个历史的一个充分的统计数据是Bi(t),所以邻居只需要知道Bi(t)就可以计算这个后验概率。虽然被排斥似乎很严厉,但正如我们之前所指出的,被排斥是一种普遍存在的现象,在社会心理学文献中,从在线互动到办公室工作场所,都有广泛的研究。

22
何人来此 在职认证  发表于 2022-5-8 13:07:27
此外,在流动性危机期间,金融网络中声誉较低的机构可能会完全被拒之门外。具有真正品质的经纪人≤ c、 对于质量qi>c的代理,仍然会以正概率发生。代理的排斥也会影响其以前的邻居。因为他们现在每个人的链接都少了一次,所以他们产生关于自己的信息的速度会比以前慢,所以他们的声誉更新的速度也会变慢。网络中其余的代理将继续链接和发送信号,直到其他人的声誉下降太低,并且该代理也被排斥。这一过程将持续下去,直到以非常高的精确度了解所有剩余代理人的素质,并且在一定程度上不再改变他们的声誉。由于代理的质量是固定的,根据大数定律,任何留在网络中的代理都将在有限的时间内完美地学习其质量→ ∞, 网络将趋向于一种极限结构,我们称之为稳定网络。下一节将明确描述这些稳定网络的特征,但我们注意到,根据试剂的真实质量及其产生的信号,可能会出现许多不同的稳定网络。图1显示了不同的网络动态,即使代理的初始声誉是固定的,也可能合并,这是因为代理的真实质量以及它们发送的信号的随机性存在不确定性。B.稳定网络如前所述,我们称之为极限网络结构,因为t到单位,用G表示∞, 不稳定网络。正式地说,让G∞≡ 极限→∞Gt。这种限制结构总是存在的,因为代理资格是固定的,所以根据大数定律,任何留在网络中的代理都会随着时间的推移以任意精度学习其质量。

23
可人4 在职认证  发表于 2022-5-8 13:07:31
因此,在t时刻仍在网络中的代理被排斥的概率必须趋向于零→ ∞(我们将在下面分析这一点)。哪个特定的稳定网络最终出现是随机的,取决于每个代理的信号实现。我们模型的可处理性使我们能够明确地描述在给定一组代理和网络约束的情况下可能出现的一组稳定网络Ohm, 以及学习速率对过稳定网络概率分布的影响。了解哪些稳定网络∞如果出现这种情况,我们将研究在t=∞. 如果两个代理i和j不是邻居(即ωij=0),那么可以确定g∞ij=0。如果两个代理i和j是邻居(即ωij=1),则此链接的存在性lijat=∞ 要求i和j的声誉在所有细节中都不会达到c。1.可能的网络动态说明:从红色和蓝色代理相同的初始声誉来看,许多不同的网络动态和稳定的网络是可能的。在上图中,红色(较大的圆圈和粗体线)代理的真实质量低于c,因此在某个时候会被排除在网络之外,而蓝色(较小的圆圈和细线)代理的真实质量高于c,因此可能会被排除在网络之外,这取决于它发送的信号。每一个事件都会导致一个不同的稳定网络,有蓝色代理的和没有蓝色代理的。在下图中,蓝色代理的真实质量低于c,因此肯定会被排斥,而红色代理可能会不确定地留在网络中。t、 这意味着两个特工都不会被排斥。

24
可人4 在职认证  发表于 2022-5-8 13:07:34
因此G∞将始终是初始网络G的一个子集,并且仅由声誉始终未达到c的代理组成。我们说,如果代理的声誉始终未达到c,则该代理将包括在稳定网络中,这样他们就不会被排斥在网络之外。请注意,被包括在稳定网络中并不意味着代理具有任何链接。在技术说明中,当我们进行排斥分类时,我们假设所有邻居都被排斥的代理继续以其信号精度级别发送关于自己的信息,信号通过基于其真实质量的相同概率分布发送。因此,我们仍然认为,如果代理的声誉通过此信息过程下降到c,即使其所有邻居都被排斥,也会被“排斥”。这种假设仅用于技术目的,对模型的动态或福利没有影响,因为在这种情况下,代理没有联系。稳定的网络,也可能是该代理的所有邻居都被排斥,尽管该代理本身并非如此。我们可以计算稳定网络中包含agent i的事前概率,我们用P(Si)表示,同时注意agent i包含在稳定网络中的事件。这可以通过使用关于布朗运动命中概率的标准结果来实现,因为P(Si)等于代理人的声誉在所有有限时间内都不会命中c的概率。下面的命题给出了这种概率。提议1。P(Si)仅取决于初始质量分布和链路成本,可由P(Si)=Z计算∞c(1)- 经验(-σi(ui)- c) (齐)- c) )φ(齐)- ui)σidqi/σi(2)证明。见附录。命题1有几个重要的含义。

25
大多数88 在职认证  发表于 2022-5-8 13:07:37
注意,由于P(Si)是正的,并且对于所有i都小于1,因此没有任何代理肯定会包含在稳定网络中或从稳定网络中排除。此外,代理成为稳定网络一部分的概率与该代理的信号精度τi无关。因此,代理发送信息的速率不会影响其在稳定网络中的概率。这是因为代理发送信息的速率只会在它被网络排斥时产生影响,而不会在它被排斥时产生影响。此外,请注意,一个代理i被包括在稳定网络中的概率与它与其他代理的链接以及这些代理的属性无关。与其他代理的连接会影响代理发送信息的速度,但不会影响代理的真实质量,因此不会影响它是否最终被排除在网络之外。使用上面的显式表达式,我们还可以描述P(Si)如何依赖于一个主体的正弦均值和方差ui和σi。为了直观地理解这一点,回想一下声誉是通过布朗运动的贝叶斯更新来演化的。高精度会增加每时每刻发送的信息量,但在所有时间发送的信息的总体概率分布保持不变。要严格地理解这一点,请注意,在附录中命题1的证明中,一个代理的生存概率依赖于τ,通过tτi项。因此,增加τi和减少所考虑的时间t成比例地保持总体生存概率不变。推论1。对于每个试剂i,P(Si)在其初始质量ui的平均值中增加,在其初始质量σi的方差中减少,并且在链路成本c中减少。此外,limui→∞P(Si)=1,limσi→0P(Si)=1,极限→-∞P(Si)=1。证据

26
nandehutu2022 在职认证  发表于 2022-5-8 13:07:40
见附录。这些属性是直观的,因为平均质量较高且方差较小的代理不太可能将其声誉降至c以下,因此不太可能被排斥。此外,降低链接成本也会降低命中概率,因为代理的声誉现在必须降低才能被排除在网络之外。如前所述,G∞必须是G的子集。此外,它只能包含稳定网络中包含且在初始网络中链接的成对代理之间的链接。等价地,稳定网络集可以被认为是从Gby顺序排斥代理中分离出来的网络集。让I{Si}表示事件的指示变量,在该事件中,代理I被包括在稳定网络中。形式上,对于{Si,,-Si}I的某些实现,一个网络只有当它是一个由gij=I{Si}I{Sj}I{gij=1}给出的项的矩阵时才是稳定的∈V.链接只能存在于从未被排斥且在原始网络中链接的代理之间。注意,{Si,,-Si}i的不同实现∈Vcould可能对应于相同的稳定网络。根据命题1,我们知道学习率并不影响每个事件发生的概率。由于学习速度在个人层面上没有影响,因此也不能在总体层面上产生影响。这在下面的定理中被形式化。我们还可以使用命题1中的等式推导出任何特定网络出现的概率的解析表达式,如下推论所示。附录中的图7显示了如何将推论应用于由三个代理组成的简单网络的示例。定理1。agent的信号精度,{τi}i∈五、 不要影响可能出现的稳定网络集或任何稳定网络出现的概率。证据

27
能者818 在职认证  发表于 2022-5-8 13:07:43
很明显,网络G必须是Gand的子集,当且仅当存在至少一个事件组合{Si,,-Si}i时,网络G才是稳定的∈Vsuch表示gij=I{Si}I{Sj}I{gij=1}。例如,假设网络只包含两个代理i和j。那么,Sibut not sj发生的事件和sian和sj都发生的事件会导致相同的稳定网络结构:空网络。因此,稳定网络的集合不依赖于学习速度。此外,根据位置1,P(Si)独立于不同的代理,不依赖于学习速度。因此,稳定网络中存在任何特定链路的概率也取决于学习速度,因此任何稳定网络出现的概率也取决于学习速度。推论2。网络G是稳定网络的概率由p{Si}QiP(Si)给出,其中求和是{Si,,-Si}i的所有实现∈我们已经证明,学习的速度对网络稳定的概率没有影响。这是直观的,因为学习只会影响链接的持续时间,而不会影响链接的最终状态。然而,学习对网络的社会福利有着至关重要的作用,这直接取决于代理之间的连接时间。我们将在下一节讨论学习对社会福利的影响。V.福利计算考虑到网络约束,我们将从事前的角度分析整体社会福利Ohm 以及先验代理质量分布。重要的是,事前福利是在学习代理人素质和发送任何信号之前计算出来的。这种福利对于我们稍后将考虑的设计设置类型来说是最合适的,因为它需要网络设计师最少的知识。

28
大多数88 在职认证  发表于 2022-5-8 13:07:46
设P(Ltij | q,G)表示在时间t时,元素i和j之间的链接仍然存在的概率。同时,设参数ρ表示网络设计者的折扣率。我们可以将总体事前社会福利W正式定义为:W=Z∞q=-∞...Z∞qN=-∞Xi,jZ∞E-ρt(qj)-c) P(Ltij | q,G)dtφ(qN)- uNσN)dqN/σN。。。φ(q)- *σ)dq/σ(3)我们将展示,这种社会福利表达式可以用某种间接的方法以易于处理的方式进行计算。这种方法利用了这样一个事实,即事前社会福利是对所有可能的事后信号实现的预期。我们可以计算事前福利,我们假设设计师本身比近视的经纪人更有耐心。例如,这可以被认为是一位比在互动中表现短视的员工更有耐心的公司经理,或者一位比拥有短视激励的经理的金融机构更有耐心的金融监管机构。通过整合所有可能实现的离职后福利,将等式3简化为更易于处理的形式。A.事后福利考虑代理命中次数ε={εtii}i的事后实现∈五、 式中,εTiide表示代理i的声誉在Tigive发出所有代理信号时达到c的事件(注意ti=∞ 意味着特工i的名声永远不会达到c)。

29
可人4 在职认证  发表于 2022-5-8 13:07:51
如果ti<∞, 由于当时的信念是正确的,因此代理人i的质量预期值取决于该事件εtiiis E[qi |εti<∞i] =c.如果ti=∞, 因为初始信念在期望值ui=E[qi]=P(εti)中是准确的<∞i) E[qi |εti<∞i] +P(εti)=∞i) E[qi |εti=∞i] (4)=(1)- P(Si))c+P(Si)E[qi |εti=∞i] (5)我们有[qi |εti=∞i] =ui- (1 - P(Si))cP(Si)(6),其中P(Si)由命题1给出,与网络和学习速度无关。根据上述讨论,给定事后实现ε,代理i从其具有有限命中次数的邻居处获得0剩余,并从那些置换从未命中c的邻居处获得正剩余(因此包括在稳定网络中)。在第二种情况下,我得到的确切好处取决于它自己的命中时间ti,它决定了与其他代理的链路中断时间。我们可以通过以下公式计算代理人i收到的事后盈余:Wi(ε)=Eq |εXj:gij=1Zmin{ti,tj}e-ρt(qj)- c) dt公司(7) =Xj:gij=1,tj=∞中兴-ρtuj- (1 - P(Sj))cP(Sj)- Cdt(8)=1- E-ρtiρXj:gij=1,tj=∞uj- cP(Sj)(9)注意,这款Wii是从设计师的角度考虑的,因为它包含了贴现率ρ的期货收益。这个等式表明,在其他代理的每次事后实现中,如果代理数量增加,那么代理i将受益,并且在以后从网络中被排斥。综上所述,实现后的社会福利ε为(ε)=Xi1.- E-ρtiρXj:gij=1,tj=∞uj- cP(Sj)(10) 通过对事件ε的期望,可以发现事前社会福利为W=Eε[W(ε)]。为了计算事前社会福利,我们仍然需要知道ti的分布,它与初始网络和学习过程以复杂的方式耦合。

30
能者818 在职认证  发表于 2022-5-8 13:07:55
例如,如果代理i的邻居命中时间较短,并且很快被排斥,则代理i以较慢的速率发送信息,其自身的命中时间将增加。因此,使用上述方程式直接计算社会福利仍然很困难。在下一节中,我们开发了一种间接方法来计算ti的分布。B.命中时间映射回想一下,与在τi的基本水平上保持不变时,代理发送信息的速率相比,代理的链接将放大其发送信息的速率。因此,每个链接也会缩小代理声誉命中c的时间。因此,计算代理何时被排斥,我们可以首先通过在信号精度级别发送信号来确定代理的声誉何时会达到c,然后根据网络效应按比例向下扩展。考虑命中时间^ε={^εtii}i的事后实现∈如果其精度始终固定在τiat,Vin whichagent i的声誉将在时间Ti达到c。请注意,事件^εt在不同的代理之间相互独立,并且由于精度是固定的,因此它们也不依赖于网络结构。^εt的概率可以在下面的引理中明确计算。引理1。概率密度函数f(εtii),ti<∞ 可计算为asf(εtii)=Z∞-∞ui- cσi√τit-3/2φ√tτi(qi)- c) +σi(ui)- c)√tτi!φ(齐)- uiσ)dqi/σi(11)概率质量点函数f(^εti)=∞i) =P(Si)。证据见附录。关于这种比例的调整,请参阅脚注12。利用引理1,我们可以很容易地得到联合事件f(^ε)=Qif(^εtii)的分布,因为单个事件是独立的。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 05:02