楼主: nandehutu2022
3081 79

[经济学] 平均场对策在金融工程和经济分析中的应用 [推广有奖]

61
何人来此 在职认证  发表于 2022-4-26 13:16:18
Cvitanic和Zhang关于反向随机微分方程(BSDE)使用的书就是一个很好的例子,Cvitanic、Possama"i和Touzi[40]最近的工作强调了Sannikov技巧的真实本质,这将有助于我们在本节中介绍的发展。注:2016年,Bengt Holmstr"om和Oliver Hart因其在合同理论方面的工作获得了诺贝尔经济学奖。6.1. 合同理论问题的标准数据。在一个经典的合同理论模型中,存在两个当事人:(1)设计合同的委托人,根据该合同给予激励和/或处罚;(2)可以接受合同并为委托人工作的代理人。以下是合同理论模型中通常隐含或明确做出的主要假设假设所有代理人都是理性的,因为他们会以最佳方式实现自身效用的最大化,控制他们收到的奖惩和付出的努力之间的权衡委托人设计合同o在审查合同条款后,代理人可以离开。我们假设代理有一个阈值水平(例如,最低报酬…)他们认为这份合同不值得这么做。我们将此阈值称为代理的保留效用委托人仅部分观察代理人的行为。这就是问题中信息不对称和道德风险的根源。从数学的角度来看,委托人事实上没有看到所有的代理人行为,这一事实迫使委托人对所面临的优化问题有一个特殊的表述。据我们所知,桑尼科夫是第一个意识到这种情况并没有被随机博弈和随机控制的通常数学强公式恰当地解决的人。

62
大多数88 在职认证  发表于 2022-4-26 13:16:24
他建议使用随机控制的弱公式(也称为随机控制的鞅方法)来设置主要的优化问题。我们现在解释一下我们所说的适应道德风险的弱公式。6.2. 控制和两人游戏的弱公式。我们用时间t表示系统的状态。我们将在下面考虑的每个应用中详细解释系统的状态。我们假设系统由一个控制器控制,该控制器采取行动实现其控制。控制者的行为会影响系统的状态和成本/回报的水平。这描述了一个经典控制问题的建立。博弈和随机博弈在意义上不同,几个控制器可以作用于同一个系统,即几个控制器(玩家、代理)采取行动。在这种情况下,每个玩家都有一个需要担心的成本/回报,整个系统都会受到个人行为及其交互的影响。这些优化问题的弱公式40 REN'Ecarmona,也称为鞅方法,非常适合信息不对称和道德风险。在这个设置中,轨迹t→ Xt(ω)不受控制器采取的措施的影响。只有轨迹给出的情景的可能性可以通过控制来改变。换句话说,只有进程X=(Xt)0的分布≤T≤受对照组影响。换句话说,人们可以推测,控制权的选择相当于为国家进程选择法律。尽管如此,道德风险的存在和信息缺乏对称性表明使用弱公式的原因可能还不完全清楚。根据合同条款,代理人选择影响其自身报酬以及委托人报酬的控制权。

63
nandehutu2022 在职认证  发表于 2022-4-26 13:16:30
让我们用αt表示代理在时间t的控制(努力水平)。代理将状态视为受控制的影响,并根据合同条款优化其成本/报酬。另一方面,委托人通过合同条款选择代理人的报酬条件。但他或她这样做时,并没有直接观察代理人的努力水平α,只观察部分Xt状态,只通过他或她获得的预期回报,事实上通过预期数量的值粗略地说,委托人通过代理人产出的分配来猜测其收益的预期值。这正是弱公式方法试图捕捉的。有关此方法的数学细节,请参见下文。在快速而非正式地回顾了道德风险和经典契约理论之后,我们现在介绍一下我们在本章中考虑的应用。6.3. 一个委托人和多个代理人之间的合同。

64
何人来此 在职认证  发表于 2022-4-26 13:16:36
新框架的主要特点可以概括如下:(1)一个委托人设计一个单一合同,根据该合同给予激励和/或处罚;(2)多个代理人看到同一合同,可以接受该合同并为委托人工作。与之前一样,主要假设可以在少量的小牛点中捕捉到:o委托人设计合同,希望最大化自己的效用;o代理人是理性的,因此他们也会尝试最大化自己的效用代理人有他们的预订工具,因此他们可能决定离开代理人的合同在统计学上是相同的他们行事谨慎,并最大限度地发挥其效用我们假设他们达到了纳什均衡委托人设计合同时预期代理人将达到纳什均衡。从某种意义上说,我们可以说,我们正在考虑代理领域的一个主要收缩问题。和以前一样,委托人看不到(也无法控制)代理人采取的个人行动。委托人只感觉到他或她从代理人的行为中获得的报酬的总体预期价值。这种信息不对称产生了口头风险,模型通过优化问题的弱公式捕捉到了这种风险。下面,我们给出了状态空间为欧几里德空间Rd(最初由Elie、Mastrolia和Possama"i在[45]中处理)时的数学细节,以及由Carmona和Wang在[29,28]中处理的有限状态的情况。金融工程与经济416.4。连续州案件。

65
能者818 在职认证  发表于 2022-4-26 13:16:42
弱公式最好使用状态过程的规范表示,假设Ohm 是从[0,T]到E(通常为E=R或E=Rd)的连续函数空间,对于T,Wt(ω)=ω(T)≥ 0给出协调过程,F:=(Ft)t∈[0,T]是过程W=(Wt)T产生的自然过滤≥0,u是E上的固定概率度量,它作为状态的初始分布,即X~ u,F:=FTif我们在有限的时间范围内工作[0,T]。P是Wiener的度量值(Ohm, F、 F)因此W是一个维纳过程,Xt=ξ+Rtσ(s,X·)dWsforsome-Lipschitz函数(s,X)7→ σ(s,x),假设在s和x中从上到下一致地远离0。为了与关于该主题的现有文献一致,我们允许系数取决于这些状态的过去历史。我们用符号X和X来表示整个状态的轨迹。还要注意的是:(6.1)dXt=σ(t,X·)dWt,在这两种情况下,由代理选择控制。接下来,我们介绍A,容许控制策略的空间(代表代理的努力水平)。A的元素是α=(αt)0≤T≤t其可满足后续规定的进一步属性。接下来,我们介绍漂移函数B(由代理控制的状态动力学的唯一部分)。我们假设dRift(t,x,α)7→ b(t,x·,α)∈ RDI是有界的,可以逐步测量。对于每个容许的控制策略α,我们用Pα表示当agent的努力水平为α时的状态分布。它是由其密度定义的,关于测量值P,由以下公式给出:dPαdP=EhZTσ(t,X·)-1b(t,X·,αt)dwt,其中E(M)=exp[Mt-< M、 M>t]表示连续平方可积鞅M=(Mt)0的Doleans指数≤T≤T

66
何人来此 在职认证  发表于 2022-4-26 13:16:49
Girsanov定理暗示:dXt=b(t,X·,αt)dt+σ(t,X·)dWαt,在Pα下,wαt=Wt-Ztσ(s,X·)b(s,X·,αs)是测度Pα下的布朗运动。因此,在(6.1)中独立于控制α构造的同一状态过程X,现在,如果我们在概率测度Pα下观察其演化,它将显示为由α控制的过程的状态。下面是关于这一点的更多信息。现在,我们通过描述该设置中代理的行为来确定问题的弱公式。委托人提供了一份合同(r,ξ),其中or=(rt)0≤T≤这是一个经过调整的流程,代表了支付流ξ是代表终端支付的随机变量。代理人决定是否接受合同并为委托人工作,如果他或她确实接受,则选择努力水平α=(αt)0≤T≤最大化他们期望的总体回报:Jr,ξ(α,u)=EPαhUA(ξ)+ZT[uA(rt)- c(t,X·,αt)]t其中ua是代理运行效用,ua是代理终端效用,c(t,X·,α)是在状态历史为X[0,t]的时间t应用努力水平α的成本。42勒内卡莫纳考虑到代理的这种理性预期行为,可以用以下方式来描述主体的优化问题:,假设知道代理的效用和成本函数,并假设代理是理性的,委托人计算出一个最优努力水平α*= (α*t) 0≤T≤Tα*∈ arg-infα∈AJr,ξ(α,u),代理人应选择哪个,然后搜索最优契约(r*, ξ*)(r)*, ξ*) ∈ arg-inf(r,ξ)EPα*哈普XT- ξ -ZRTDT这里是委托人的(终端)效用。这是委托人和代理人之间斯塔克伯格博弈的典型例子。随着大量代理的出现,情况发生了变化。

67
能者818 在职认证  发表于 2022-4-26 13:16:55
我们假设,在相互竞争时,代理的行为相似(这是平均场博弈模型中对称假设力的形式),并且由于其数量庞大,其个体对总量的影响可以忽略。在这些条件下,主体的优化问题可以像以前一样表述出来。在了解代理的效用和成本函数后,委托人假设对于每个契约(r,ξ),代理在平均场纳什均衡中解决,因此对于每个(r,ξ),委托人o解决代理的制造o计算努力水平α*= (α*t) 0≤T≤对于纳什均衡,他或她可以计算o然后搜索最优契约(r*, ξ*)(r)*, ξ*) ∈ arg-inf(r,ξ)EPα*哈普XT- ξ -ZRTDT这里是委托人的(终端)效用。和以前一样,这是一种斯塔克伯格博弈的形式,首先是委托人,然后是代理人。但现在,状态的动态和成本/回报函数取决于状态的分布,即:b(t,Xt,αt,ut)和c(t,Xt,αt,ut),其中u是状态在时间t的分布。有关问题公式和可解模型示例(基本上来自线性二次族)的详细信息,请参见[45]。备注6.1。上述方法的一个主要缺点是代理只能控制其状态的漂移。这是由于对onGirsanov的测量变更的依赖。要控制波动率,需要用所谓的2BSDE来表示优化问题的值函数,而不是正则倒向随机微分方程(BSDE)。分析变得更加技术化。

68
kedemingshi 在职认证  发表于 2022-4-26 13:17:01
感兴趣的读者可能想看看Elie、Hubert、Mastrolia和Possama"i最近的作品[43],以尝试这一方向。接下来,当状态空间是有限的时,我们考虑相同的契约理论模型。我们详细讨论了一个数值应用,用一些静力学来说明,当我们能够实际计算平衡时,它的信息含量。6.5. 离散状态案例。上述讨论的框架是基于连续时间扩散过程理论及其在随机控制问题中的应用。这些状态生活在欧几里德空间中,它们的动力学由随机微分方程建模,从吉尔萨诺夫的测度变化理论开始,随机分析中的复杂工具被用来形成信息不对称和适用于优化主体的弱公式。采用有限状态空间值的随机动力系统通常用于数值实现至关重要的应用中。奇怪的是,一开始看似简单的东西,毕竟单元空间应该比连续空间更容易处理,但这并不总是让理论分析更容易。在这里,我们回顾了最近的工作,试图将上一节概述的策略移植到这个案例中。特别是,我们解释了如何为具有有限多个状态的平均场博弈建立弱公式,并在有限值状态过程的框架中实现了之前在扩散案例中概述的步骤。备注6.2。在过去十年中,与许多州的平均场比赛吸引了MFG观众的注意。

69
可人4 在职认证  发表于 2022-4-26 13:17:07
[21,第7.2节]对2017年之前的所有作品进行了全面审查,并从历史角度进行了评论。另见[22,第7.1.9节]中关于主要参与者和次要参与者模型的讨论,其分析与陈述和解决大量代理人的合同理论问题所采取的一些步骤非常相似。为了完整起见,我们提到了一些关于有限状态空间平均场博弈的工作,这些工作从那时起就出现了,我们知道。Cecchin和Fischer在[33]中提出了有限状态平均场配子的概率方法,Bayraktar和Cohen在[10]中推导了主方程的等价性,Doncel、Gast和Gaujal在[42]中研究了收敛问题,Cecchin和Pelino在[34]中研究了收敛问题。最后,我们注意到,这些模型可以展示各种行为,如[35]中所示,其中Cecchin、Dai Pra、Fischer和Pelino确定了一个没有唯一性的两态模型。以下是对卡莫纳和王借鉴[29,28]的研究结果的回顾。离散情形的规范过程。在本节中,我们假设状态空间是有限集E={E,…,em},为了数学上的方便,我们假设ei是Rm规范基的单位向量。状态进程X=(Xt)0≤T≤它是一个具有m个状态的连续时间马尔可夫链,这些状态的样本路径为t→ XT是cádlág,即右连续带左极限,以及连续atT(即XT-= XT)。

70
mingdashike22 在职认证  发表于 2022-4-26 13:17:14
与欧几里德状态空间的情况类似,我们引入了以下正则表示:oOhm 是从[0,T]到E的cádlág函数的空间,在T连续Xt(ω):=ω是坐标过程;oF:=(英尺)t∈[0,T]是由X产生的自然过滤Po是E上的固定概率F:=英尺P是上的唯一概率(Ohm, F、 F)其中Xis是具有初始分布p的连续时间马尔可夫链o任何两个州之间的转换率等于1。所以如果我6=jt>0,P[Xt+t=ej | Ft]=P[Xt+t=ej | Xt]和P[Xt+t=ej | Xt=ei]=t+o(t) 使用[38,37]的结果,我们可以看到过程Xhas的表示:Xt=X+Z(0,t]Q·Xt-dt+Mt,其中Qi是平方矩阵,其条目由以下公式给出:oQi,i=-(m)- 1) ,i=1,moQi,j=1,如果i6=jand m=(Mt)t≥0是一个Rm值P-鞅。我们有时用符号来强调矩阵乘法。鞅Munder P的可预测二次变化由以下公式给出:(6.2)hM,Mit=Ztψtdt,其中ψt由:(6.3)ψt:=diag(Q·Xt)给出-) - Q·diag(Xt)-) - 诊断(Xt)-) · 问:球员的控制。我们假设所有代理都可以采取行动,这些行动是欧氏空间Rk的闭凸子集a的元素α。对于任何agent,可容许(控制)策略集A是A值、F-可预测过程α=(αt)0的集合≤T≤T.状态空间上的概率测度空间为simplexP(E)=S:={p∈ Rm;mXi=1pi=1,pi≥ 0},受控状态过程将具有由Q-矩阵Q(t,α,p,ν)=[Q(t,i,j,α,p,ν)]1确定的动力学≤i、 j≤这里q是一个函数[0,T]×{1。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-25 15:11