楼主: 大多数88
2280 71

[量化金融] Berk-Nash均衡:一个具有错误指定的代理建模框架 [推广有奖]

21
何人来此 在职认证  发表于 2022-5-7 03:00:04
唯一的伯克-纳什均衡是σ*= (35/36,1/36),以及它的支持信念,θσ*= (40,10/3),由虚线和段DC的交点给出,如图1的右面板所示。然而,这并不是说关于Y的平均值的平衡信念是正确的。因此,专注于拟合平均值而不是最小化K的方法可能会得出错误的结论。可以证明K(σ,θ)=θ -θMσθ -θ, 其中Mσ是一个依赖于σ的加权矩阵。特别地,K(σ,·)的等高线是椭圆。这个例子还说明了混合策略对于存在伯克-纳什均衡的重要性,即使是在单代理环境中。作为先例,Esponda和Pouzo(2011)认为这就是为什么不能在投票应用程序中纯化混合策略均衡的原因。例2.2,接第7页。非线性税收。对于任何纯策略x和参数值θ∈ ΘA=R(模型A)或θ∈ ΘB=R(模型B),模型j的wKLD函数Kj(x,θ)∈ {A,B}equalsEhlnQ(T|Z)p(Z)- x) Qjθ(T | Z)p(Z)- x) |x=xi=-嗯τ(Z)/Z- θA| X=xi+CA(A型)-嗯τ(Z)-θB- θBZ| X=xi+CB(模型B),其中E表示真实的条件期望,Ca和CB是常数。对于模型A,θA(x)=E[τ(x+W)/(x+W)]是使KA(x,·)最小化的唯一参数。直觉上,代理人认为预期边际税率等于真实预期平均税率。对于模型B,θB(x)=Cov(τ(x+W),x+W)/V ar(x+W)=E[τ(x+W)],其中第二个等式来自Stein引理(Stein(1972)),前提是τ是可微分的。

22
大多数88 在职认证  发表于 2022-5-7 03:00:08
根据直觉,边际税率是真实的边际税率。现在,我们将这两种模型下的均衡与Agent有正确信念并选择使x最大化的最优策略XOPT的情况进行比较-E[τ(x+W)]-c(x)。相比之下,xj的战略*是模型jif的Berk-Nash均衡,且仅当x=xj时*最大化x- θj(xj)*)十、- c(x)。例如,假设出口成本和真正的税收计划都是平滑函数、递增函数和凸函数(例如,税收是累进函数),并且X R是一个紧密的间隔。那么一阶条件对最优性是足够的,Xopti是1的唯一解- E[τ(xopt+W)]=c(xopt)。此外,唯一的伯克纳什均衡解为1- Eτ(xA)*+ W)/(xA*+ W)= c(xA)*) A型和1型- E[τ(xB)*+ W)]=c(xB*) 对于模型B,尤其是模型B中的效果是最佳的,xB*= xopt。直觉上,代理人对其均衡选择的边际税率的真实预期有正确的信念,因此她对边际税率有正确的激励,尽管她错误地认为边际税率是恒定的。相反,在模型A,xA中,效率高于最佳值*> xopt。直观地说,agentWe使用W来表示实现ω的随机变量。通过线性和正态性,KB(x,·)的极小值与OLS估计值一致。Weassume normality表示可处理性,尽管该框架允许一般分布假设。还有其他易于处理的分布;例如,拉普拉斯分布下wKLD的最小值对应于中值(而非线性)回归的估计值。认为预期边际税率等于真实预期平均税率,低于累进制下的真实预期边际税率。例2.3,接第7页。回归均值。

23
大多数88 在职认证  发表于 2022-5-7 03:00:12
由于最优策略的特点是一种削减效应,我们让σ∈ R代表一种策略,如果初始绩效高于σ,则讲师会对其进行表扬,并对其进行批评。任意θ的wKLD函数∈ Θ=风险(σ,θ)=^σ-∞Elnа(S)а(S)- (θC+s))~n(s)ds+^∞σElnа(S)а(S)- (θP+s))ν(s)ds,式中Ф是N(0,1)的密度,E表示真实期望值。对于每个σ,使K(σ,·)最小的唯一参数向量是θC(σ)=E[S- S | S<σ]=-E[S|S<σ]>0,同样,θP(σ)=-E[S | S>σ]<0。直觉上,讲师对低于阈值的表现至关重要,因此,被批评学生的平均表现低于无条件平均表现;因此,受到批评的学生下一次的表现会更好。同样,受到表扬的学生下一次的表现也比预期的差。遵循策略cuto offσ的讲师在观察初始绩效s>0后认为,她的预期回报是s+θC(σ)-κsif她批评,s+θP(σ)如果她赞扬。通过优化,这种削减使她在赞扬和批评之间变得不一样。因此,σ*= (1/κ)(θC(σ)*) - θP(σ)*)) > 0是唯一的平衡。忽视回归均值的教师对其反馈对学生成绩的影响有错误的看法:她在平衡中过于挑剔,因为她错误地认为批评学生会提高成绩,而表扬学生会使成绩恶化。此外,由于声誉成本κ→ 0,这意味着讲师只关心表现,而不关心撒谎,σ*→ ∞: 教师只会批评(就像特沃斯基和卡尼曼(1973)的故事)。

24
何人来此 在职认证  发表于 2022-5-7 03:00:15
3.与其他解概念的关系我们表明,伯克-纳什均衡包括几个解概念(标准和有界理性)作为特例。3.1游戏的属性直接指定游戏。在贝叶斯统计中,如果先验知识的支持包括真实的数据生成过程,则模型是正确的。单代理决策问题的扩展非常简单。然而,在游戏中,我们必须考虑这样一个事实,即后果的客观分布(即truemodel)取决于策略属性。定义2。一个游戏被正确地定义为σif,尽管我∈ 一、 存在θI∈ Θisuch,Qiθi(·| si,xi)=Qiσ(·| si,xi)代表所有人(si,xi)∈ Si×Xi;否则,在给定σ的情况下,该游戏是错误的。如果一个游戏对所有σ都有正确的定义,那么它就是正确的定义;否则,这就是误认。从玩家的角度来看,重要的是确定Qiθ的分布,而不是参数θ。如果模型被正确指定,那么真正的Qiσ就被微不足道地识别出来。当然,如果模型被错误指定,这就不是真的,因为真正的分布永远不会被了解。但我们希望定义能抓住同样的精神:如果两个分布被判定为同等最佳(给定真实的分布),那么我们希望这两个分布是相互矛盾的;否则,我们无法确定哪个发行版是最佳发行版。玩家采取行动这一事实给身份的定义带来了额外的细微差别。我们可以要求确定玩家采取的行动(即在游戏路径上)或所有行动(即在游戏路径上和离开游戏路径)的后果分布。定义3。

25
大多数88 在职认证  发表于 2022-5-7 03:00:18
在给定σif的情况下,一个博弈是弱识别的∈ I:如果θI,θI∈ Θi(σ),然后Qiθi(·si,xi)=所有(si,xi)的Qiθi(·si,xi)∈ Si×Xisuch表示σi(xi | Si)>0(回想一下,Psi有充分的支持)。如果所有人都满足条件(si,xi)∈ Si×Xi,那么我们说,在给定σ的情况下,博弈是强识别的。如果一个游戏[弱或强]识别所有σ,则该游戏[弱或强]识别。一个正确定义的游戏是弱识别的。另外,两个接受反馈的游戏在正确定义或识别方面可能会有所不同。更准确地说,游戏是在稳定状态下正确定义的。3.2与纳什均衡和自我确认均衡的关系下一个结果表明,当博弈既被正确定义又被强烈识别时,伯克纳什均衡与纳什均衡是等价的。(i) 假设在给定σ的情况下,博弈是正确的,且σ是其目标博弈的纳什均衡。σ是(客观和主观)博弈的伯克-纳什均衡;(ii)假设σ是一个博弈的Berk-Nash均衡,该均衡在给定σ的情况下得到了正确定义和强烈识别。σ是相应目标博弈的纳什均衡。证据(i) 设σ为纳什均衡,并乘以任何i∈ I.然后σI,给定qiσ。由于博弈是在给定σ的情况下正确定义的,所以存在θi*∈ Θisuch thatQiθi*= 因此,由引理1,θi*∈ Θi(σ)。因此,在给定qiθi的情况下,σi2也是最优的*θi*∈ Θi(σ),所以σ是Berk-Nash均衡。(ii)设σ为Berk-Nash均衡,并乘以任何i∈ I.然后给出“QiuI”,对于某些uI∈ (Θi(σ))。由于博弈是在给定σ的情况下正确定义的,所以存在θi*∈ Θisuch the Qiθi*= 因此,由引理1,θi*∈ Θi(σ)。此外,由于该博弈在给定σ的情况下具有很强的识别性,因此任何^θi∈ Θi(σ)满足Qi^θi=Qiθi*= 齐σ。那么σi2也是给定的Qiσ。

26
nandehutu2022 在职认证  发表于 2022-5-7 03:00:21
因此,σ是纳什均衡。例2.4,接第8页。货币政策。修正策略xP*为了公众。注意,U=U*- λ(xG)- xP*+ εe)+εU,而政府认为U=θ- θ(xG+εe)+εU。因此,通过选择θ*∈ Θ=Rsuchθ*= U*+λxP*θ*= λ、 因此,Y=(U,e)上的分布由θ参数化*与给定的目标分布一致*. 因此,尽管有外观,但考虑到xP,这款游戏的规格是正确的*. 此外,由于V ar(εe)>0,θ*wKLD函数的唯一极小值是否给定*. 因为有一个唯一的极小值,所以在给定xP的情况下,游戏是强烈识别的*. 因为这些属性适用于所有xP*,命题1暗示伯克-纳什均衡等价于纳什均衡。因此,无论政府是否意识到失业是由意外而非实际的通货膨胀驱动的,均衡政策都是相同的。Sargent(1999)得出了政府进行基于OLS的学习的这一结果(当错误是正常的时,这是我们示例的一个特例)。为了简单起见,我们假设了线性,但对于真实失业U=fU(xG,xP,ω)和主观模型fUθ(xG,xP,ω)的更一般情况,结果是正确的,如果对于所有xP,存在θ,使得fU(xG,xP,ω)=fUθ(xG,xP,ω)对于所有(xP,ω)。下一个结果表明,伯克-纳什均衡是博弈中的一个自我确认均衡(SCE),它是正确定义的,但不一定是强识别的。假设在给定σ的情况下,博弈是正确的,且σ是aBerk-Nash均衡。那么σ也是一个自我确认的平衡。证据我能解决任何问题吗∈ I并让^θibe支持uI,其中uI参与者I相信支持Berk-Nash均衡策略σI。由于游戏正确指定给定σ,因此存在θI*∈ Θisuch the Qiθi*= 因此,由引理1,Ki(σ,θi*) = 因此,它也必须是Ki(σ,^θi)=0。

27
mingdashike22 在职认证  发表于 2022-5-7 03:00:24
通过引理1,可以得出所有(si,xi)的Qi^θi(·| si,xi)=Qiσ(·| si,xi),使得σi(xi | si)>0。特别是,给定Qi^θi,σii最优,且Qi^θi满足所需的自我确认限制。对于没有正确定义的博弈,均衡路径上的信念可能不正确,因此伯克-纳什均衡不一定是纳什或SCE。3.3与基于完全诅咒和阿贝尔类比的游戏的关系满足以下四个属性:(i)状态和信息结构:状态空间Ohm 与分布p有关吗Ohm∈ (Ohm). 此外,对于每个i,都有一个分区SiofOhm, 包含ω的Sithat元素(即处于ω状态的游戏者i的信号)用si(ω)表示;(ii)完美反馈:Foreach i,fi(x,ω)=(x-i、 ω)表示所有(x,ω);(iii)类比划分:对于每个i,都存在一个Ohm, 用Ai表示,包含ω的元素用αi(ω)表示;(iv)条件独立性:(Qiθi)θi∈Θ是X上所有联合概率分布的集合-我Ohm 这让我很满意十、-i、 ω| si(ω),xi= 气Ohm,θi(ω| si(ω))QiX-i、 θi(x)-i |αi(ω))。战略文件σ是一个SCE如果,对于所有参与者∈ 一、 给定^Qiσ,其中^Qiσ(·| si,xi)=所有(si,xi)的Qiσ(·| si,xi),使得σI(xi | si)>0。这种定义比典型的定义(如Dekel等人(2004))更为普遍,因为它并不限制参与者相信后果是由其他参与者的策略驱动的。逆向不一定适用于固定的游戏。原因是SCE的定义不会对有效均衡信念施加任何限制,而特定的主观游戏可能会对信念施加事前限制。

28
kedemingshi 在职认证  发表于 2022-5-7 03:00:27
然而,以下相反的说法确实成立:对于任何属于SCE的σ,都存在一个正确定义的博弈,其中σ是Berk-Nash均衡。这个假设是为了便于与Jehiel和Koessler(2008)的ABEE进行比较。换句话说,每个我相信的球员-iandω独立于类比划分的条件。例如,如果Ai=Sifor all i,那么每个玩家都认为其他玩家的行为独立于国家,取决于他们自己的私人信息。定义4。(Jehiel和Koessler,2008)战略规划σ是一种基于类比的预期均衡(ABEE),如果所有的∈ 一、 ω∈ Ohm, σi(xi | si(ω))>0,xi∈ arg最大值xi∈XiPω∈OhmPOhm|Si(ω| Si(ω))Px-我∈十、-我‘∑-i(x)-i |ω)πi((R)xi,x-i、 ω),其中‘σ-i(x)-i |ω)=Pω∈OhmPOhm|Ai(ω|αi(ω))Qj6=iσj(xj | sj(ω))。提议3。在基于类比的博弈中,σ是Berk-Nash均衡当且仅当它是ABEE。证据见附录。如Jehiel和Koessler(2008)所述,在Ai=SIF的特殊情况下,ABEE相当于Eyster and Rabin(2005)的完全诅咒均衡。特别是,命题3为这两个解决方案概念提供了一个错误的学习基础。Jehiel和Koessler(2008)讨论了forABEE的另一个基础,玩家在过去的比赛中会收到粗略的反馈,并且多个反馈与此一致。在这种不同的反馈结构下,ABEE可以被视为SCE集合的自然选择。例2.5,接第8页。与逆向选择交易。在附录A中,我们展示了x*当且仅当x=x时,是否为伯克-纳什均衡价格*使平衡信念函数∏(x,x)最大化*) 这代表了在稳定状态下选择任何价格x的预期收益*.

29
大多数88 在职认证  发表于 2022-5-7 03:00:29
平衡信念函数取决于反馈/误判假设,我们讨论以下四种情况:∏NE(x)=Pr(A≤ x) (E[V|A≤ x]- x) πCE(x)=Pr(A)≤ x) (E[V]- x) πBE(x,x)*) = 公共关系(A)≤ x) (E[V|A≤ 十、*] - x) πABEE(x)=kXj=1Pr(V)∈ Vj){Pr(A)≤ x | V∈ Vj)(E[V | V∈ [Vj]- x) 哦。第一种情况是∏NE,是信念正确的基准情况。第二种情况∏CE对应于完美反馈和主观模型Θ=(A) ×(五) ,如第8页所述。这是一个以类比为基础的游戏的例子,该游戏采用单一类比类V。买方了解A和V的真实边际分布,并相信联合分布等于边际分布的乘积。伯克纳什恰逢充满诅咒的均衡。第三种情况,即∏BE,与第二种情况具有相同的特定模型,但假设存在部分反馈,即始终观察到要价a,但只有在存在交易的情况下才观察到估值v。均衡价格x*影响买家观察到的估值样本,因此影响她的信念。伯克·纳什符合天真的行为均衡。最后一种情况∏ABEE对应于完美反馈和以下错误描述:考虑将V划分为k个“类比类”(Vj)j=1,。。。,k、 买方认为(A,V)是独立的,以V为条件∈ Vi,对于每个i=1。。。,k、 参数集为ΘA=×j(A) ×(五) ,其中,对于值θ=(θ,…,θk,θV)∈ ΘA,θV参数化V上的边缘分布,对于每个j=1。。。,k、 θj∈ (A) 参数化V上的条件分布∈ Vj。伯克·纳什(Berk Nash)与类比类(Vj)j=1的游戏的ABEE一致,。。。,K4平衡基础我们为平衡提供学习基础。

30
nandehutu2022 在职认证  发表于 2022-5-7 03:00:32
我们遵循Fudenberg和Kreps(1993)的观点来考虑(轻微)收益扰动的博弈,因为正如他们在为混合策略纳什均衡提供学习基础的背景下强调的那样,行为不需要在没有扰动的情况下在信念中是连续的。因此,即使信仰趋于一致,行为也不必在平静的游戏中安定下来。扰动保证,如果信念收敛,那么行为也会收敛。4.1扰动game扰动结构是一个元组P=hΞ,Pξi,其中:Ξ=×i∈IΞlandΞI R#xi是一组参与者i的每个动作的支付扰动;Pξ=(Pξi)i∈一、 式中pξI∈ (Ξi)是关于勒贝格测度,满足Ξi|124; i|124; Pξ(dξi)<∞,在在线附录A中,我们还考虑了部分反馈的ABEE情况。并且不受其他玩家的干扰。扰动对策gp=hG,Pi由对策G和扰动结构P组成。扰动对策gp的计时与G的计时一致,但有两种不同。首先,在采取行动之前,每个玩家不仅观察自己的信号SIB,还主动观察自己的支付扰动ξi的向量∈ Ξi,其中ξi(xi)表示作用于xi的扰动。第二,她给出的结果是πi(xi,yi)+ξi(xi)。在给定μi的扰动博弈中,玩家i的策略σi是最优的∈ (Θi)如果,为了所有人(si,xi)∈ Si×Xi,σi(Xi | Si)=Pξ(ξi:Xi∈ ψi(ui,si,ξi)),其中ψi(ui,si,ξi)≡ arg maxxi∈谢琪ui(·四、十一)πi(xi,Yi)+ ξi(xi)。换句话说,如果σi是一个最优策略,那么σi(xi | si)是当状态为si且扰动为ξi时,xi是最优的概率,接管了ξi的所有可能实现。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-29 14:40