楼主: 大多数88
1395 59

[量化金融] 模型不确定性下的时间一致性投资:稳健远期 [推广有奖]

11
可人4 在职认证  发表于 2022-5-5 04:48:26
满足Inada条件的严格凹且严格递增的C(R)-函数→-A.xU(ω,x,t)=∞, 利克斯→∞xU(ω,x,t)=0,ii)对于所有x∈ (-A.∞), 地图→ U(ω,x,t)是[0]上的c`adl`ag,∞),iii)每x∈ (-A.∞) 和T∈ [0, ∞), U(·,x,T)∈ L(英尺)。对于给定的效用随机场,如果对所有π,则一组策略a是可行的∈ A和t>0,Xπt∈ (-A.∞), a、 接下来,我们从符号中去掉ω,只写U(x,t)。定义2.2。对于给定的t≤ T<∞, a映射γt,t:Ohm ×{Q~ P | FT}→ R+∪ {∞}, 被称为a)γt,它是可测量的,ii)Q→ γt,t(Q)对于κ是凸的∈ L∞+(英国《金融时报》,Q→ E[κγt,t(Q)]在{Q上是弱下半连续的~ P | FT}。此外,对于给定的效用随机场U(x,t)和可行策略集a,我们说(γt,t),0≤ T≤ T<∞, 是一个可容许的罚函数族,如果对于所有T>0和π∈ A、 等式[U(XπT,T)]在R中有很好的定义∪ {∞} 尽管如此,Q∈ Qt,T,T≤ T,其中Qt,是由Qt,T:={Q~ P|FTandγt,t(Q)<∞ a、 美国。(1) 在上述定义中,Qt是在时间t进行投资[t,t]时考虑的一组可行措施。它可能依赖于t和t,但不是随机的。可以使用较大的集合和较小的集合,例如带有γt,t(Q)(ω)的(随机)测度集Q<∞ 或者是一组测量值Q和Eγt,t(Q)< ∞. 然而,对于许多自然惩罚函数,这些不同的选择会导致相同的值函数,见下文第3.4节。最后,请注意,我们没有对时间变量中的γt,t(Q)施加任何规律性或一致性假设。对于第3节中的抽象结果来说,这些是不必要的,当它们自然出现时,将在后面介绍,请参见假设2。我们现在准备引入稳健的远期标准。

12
可人4 在职认证  发表于 2022-5-5 04:48:29
如上所述,这些是耦合(U,γ),它们表现出类似于动态规划原理的动态一致性。定义2.3。设U是一个效用随机场,一个可行的策略集,γ是一个可容许的函数族。然后,与U,A和γ相关的值场是一系列映射{U(·;t,t):0≤ T≤ T<∞}, 与u(·;t,t):L∞(英国《金融时报》)→ L(Ft;R)∪ {∞}) 给定byu(ξ;t,t):=ess supπ∈Aess infQ∈Qt,T情商Uξ+ZTtπsdSs,T英尺+ γt,t(Q), 对于ξ∈ L∞(英国《金融时报》)。(2) 对于给定的可行策略集,我们认为效用随机场和罚函数族的组合是一个稳健的正向准则ifU(ξ,t)=u(ξ;t,t)a.s.,(3)对于所有0≤ T≤ T<∞ 以及所有ξ∈ L∞(英国《金融时报》)。我们注意到上述定义是适定的。事实上,考虑到U和γ的假设,(2)中的条件期望是定义良好的(扩展值)随机变量(关于准可积随机变量的条件期望的定义,参见[75]中的Prop18.1.5或[38]中的第113页)。正如所有的Q∈ Qt,皮重相当于P,它也适用于每个π∈ A.关于参考度量P,专业内界定义明确(扩展值)。在稳健的EUM范式中优化(2)项。在固定的时间范围内,它被用来做出投资决策∈ [0,T],在[71]中。它基于风险和模糊厌恶偏好的公理化特征,以及Maccheroni等人[57]中作为凹形货币效用函数的数值表示,以及F¨ollmer和Schied[32]中推导的稳健表示。等式(3)直接扩展了[79]中研究的自生公用事业领域的概念,以及导言中讨论的远期性能标准的概念,另见第4节。

13
kedemingshi 在职认证  发表于 2022-5-5 04:48:32
因此,我们有时将稳健正向准则(U,γ)称为自生成或动态一致。为了将(3)与更经典的动态编程原理联系起来,请注意,当与定义(2)一起应用时,它将使(ξ,t,t)=U(ξ,t)=U(ξ,t,r)=ess supπ∈Aess infQ∈Qt,r情商Uξ+ZrtπsdSs,r英尺+ γt,r(Q)= ess supπ∈Aess infQ∈Qt,r情商Uξ+ZrtπsdSs,r,T英尺+ γt,r(Q), 0≤ T≤ R≤ T、 (4)对于ξ∈ L∞(英国《金融时报》)。据我们所知(2)对应于最普遍的稳健EUM设置,该设置之前已被考虑用于最佳投资决策。然而,我们注意到这种设置有其局限性。例如,与给定指标γt,t(Q)相关的惩罚是固定的,且与财富无关。这对最优投资策略的时间一致性具有重要影响。我们在命题3.7中展示了当(γt,t)是动态一致的,如果我们有鞍点(πt,t,Qt,t)解(2),那么Qt,r=Qt,t | Fr,t≤ R≤ 而且最优投资策略是时间一致的。然而,在所有的一般情况下,我们可以有(动态一致的)健壮的向前准则,这会导致时间不一致的最优策略。第4.2节给出了一个例子。γt,t(Q)与投资者财富的独立性也与经验收益相反,如《行为金融》中所讨论的,参见例如Kahneman和Tversky[45],该文指出了投资者判断情景的参考点的重要性。因此,我们相信研究(2)中问题的一般化可能会很有趣。在robustEUM的框架内,可以使用Cerreia Vioglio等人[12]中介绍的准凹效用泛函来实现这些功能。

14
nandehutu2022 在职认证  发表于 2022-5-5 04:48:36
他们对(经典)最优投资问题的使用正在一篇平行论文中进行研究,见K–allblad[48]。下面针对我们考虑的各个案例具体说明了一套可接受的策略。请注意,稳健远期标准的定义并不要求存在最优投资策略。在这方面,我们遵循[79]中的方法,而不是原始定义(参见[63,64]),后者要求达到最佳状态。如下文所述(参见第3节),这种灵活性特别适用于研究在整个实线上定义的稳健远期标准。在第4节中,我们考虑一个对数型的鲁棒正向准则,对于该准则,优化器的存在性是成立的。3.稳健正演准则的对偶特征对偶方法对于研究最优投资问题是非常有用的。对于标准效用最大化问题,它们对于证明原问题的最优策略的存在性和特征化特别有用。正如我们将在下面看到的,在我们的设置中,传递到双域也有明显的好处,尽管我们的重点是偏好本身的演变,而不是最优策略。在这里,对偶问题相当于寻找一个内界,而原始问题具有一个鞍点。因此,在对偶域而不是原始域中更容易描述正演准则。关于通过这种方法获得的灵活性的进一步说明,我们参考[79]中的备注3.8。本节的目的是建立此类等效特征。我们采用了一组方便的假设,并在下面的备注3.4和3.5中讨论了可能的扩展。3.1双重领域中的自我生成我们发展了效用随机领域的对偶理论,这些领域在整个实线上都是有限的。

15
何人来此 在职认证  发表于 2022-5-5 04:48:39
为此,我们设定了定义2.1和2.3a=∞ A=Abd,其中Abd表示产生有限财富过程的所有投资组合的集合。具体来说,Abd=\'A∩ (-其中A是所有可容许的投资组合过程的集合,对于任何T>0,存在常数c>0,使得XπT≥ -c、 0≤ T≤ T,a.s.对有界富裕过程的限制意味着,对于许多公用事业领域,将无法达到最高值。然而,这并不是真正的限制。在整个实线上发展效用随机场的对偶理论有两个原因。首先,我们补充了Schied[71]的工作,因为我们的结果是相关的,因此只考虑了在正半线上定义的实用程序。第二,考虑整个实线上的效用定义简化了对偶理论的某些方面。除其他外,[34]中也利用了这一事实。当考虑到负财富时,通常更复杂的是定义一组适当的可接受策略,从而产生优化器(参见[68,70])。然而,如上所述,出于目前的目的,它必须限制在一组边界财富过程Abd中。因此,我们可能会完全受益于这种设置的简化,而不会带来任何进一步的复杂性。虽然类似的结果可用于定义在半线上的公用事业,但这将意味着额外的技术细节,我们将其留给未来的研究(参见[79]中的备注3.2])。对于给定的公用事业随机场U,相关的双随机场V:Ohm × [0, ∞) × (0, ∞) → R、 由v(y,t)=supx给出∈RU(x,t)- xy对于t≥ 0,y≥ 0.(5)双重价值场和双重领域中自我生成的概念自然定义如下。定义3.1。

16
何人来此 在职认证  发表于 2022-5-5 04:48:42
对于y>0和0≤ t<t<∞ 杜阿尔值场v(·;t,t):L+(英尺)→L(Ft;R)∪ {∞}), 由v(η;t,t)给出:=ess infQ∈Qt,苔丝∈ZaTnEQhVηZt,T/ZQt,T,TFti+γt,t(Q)o.(6)事实上,在整个实线上定义的效用场不具有任何奇异性(参见下面的假设1)。因此,就更一般(但可行)的可接受策略集定义的价值与就有界策略定义的价值一致。定义2.3仍然适用,因为稳健远期标准的概念是偏好本身的一致性要求,不涉及最优策略。因此,对于在整个实线上定义的公用事业领域,可以在不精确指定优化领域的情况下研究和描述稳健的标准。在当前的框架内,偏好不仅在整个实线上是有限的,而且在随机的基础上,一组可行的可容许但不一定有界的策略的精确规定非常重要。双随机场V和一系列惩罚函数γ的组合称为自生或动态一致的ifV(η,t)=V(η;t,t),a.s.,对于所有0≤ T≤ T<∞ 所有η∈ L+(Ft)。3.2原始和双重稳健自生的等价性我们首先介绍以下技术假设:假设1。对于每个T>0和0≤ T≤ T,集Qt是凸的弱紧集{ZU-(x,T):Z∈ Qt,T}是UI,代表所有x∈ R.此外,如果κ∈ L∞+(Ft)和Q∈ 使κZQt,TU(x,T)∈ 五十、 为了所有的x∈ R、 然后∧U(x,T):=11{κ=0}U(x,T)+11{κ>0}ZQt,TU(x,T),x∈ R、 (7)满足[79]中的非奇异性假设3.3。以上表明U(x,t)本身满足非奇异性假设。

17
kedemingshi 在职认证  发表于 2022-5-5 04:48:47
关于这个概念的进一步讨论,我们参考[79]中的备注3.4。假设集Qt是弱紧集,假设1成立的一个有效条件是U(x,t)从下到下一致有界于非终结性效用函数。然后,它还琐碎地认为,任何惩罚函数族都是可容许的。还要注意的是,由于凸性,Qt的弱紧性相当于L中的闭性(参见[72]中的引理3.2)。接下来,我们给出了第一个主要结果,它给出了函数su(x;t,t)和v(y;t,t)之间的共轭关系。我们强调,即使对于t=0,定理3.2也不同于[71]中的定理2.4,因为效用函数是在整条实线上定义的,也允许是随机的。此外,我们不会对涉及的价值领域强加任何完整性假设。定理3.2。让U(x,t),t≥ 0是一个效用随机场,γt,t是惩罚函数族,V(y,t)是相关的对偶随机场。假设假设1成立。那么,尽管如此∈ L∞(英尺),η∈ L+(英尺)和0≤ T≤ T<∞, 以下断言成立,u(ξ;t,t)=ess infη∈ L+(英尺)v(η;t,t)+ξηa、 s.(8)与v(η;t,t)=ess supξ∈L∞(英国《金融时报》)u(ξ;t,t)- ξηa、 s.(9)因此,效用随机场U(x,t)和惩罚函数族γt的组合是自生成的,当且仅当双随机场V(y,t)和γt的组合是自生成的。定理3.2的证明在第5.2节给出,并分别基于[71]和[79]中介绍的思想。在前一篇文章中,建立了具有变偏好的鲁棒效用最大化问题的对偶结果。在后一种情况下,在与我们类似的环境中,为非鲁棒情况建立了条件共轭关系。具体来说,我们通过获取期望值,将条件情形简化为F-可测量的共轭关系。

18
大多数88 在职认证  发表于 2022-5-5 04:48:50
对于后者,使用与[71]中类似的参数来证明相关断言。然而,尽管[71]依赖于[54]中的对偶结果,我们在这里使用了[79]中建立的理论。对于固定测度的情况(参见[79]),对偶问题允许一个解决方案,即使原始问题可能不是(由于对有界策略的限制)。优化器的第二个组件在MaT中(与更大的一组完全相加的度量相反),这一事实是效用函数在整个实线上的一个序列(参见[79]和[6,70])。3.3的提议。设V(y,t)为对偶随机场,假设1适用于相关的原始场。然后,对于每个η∈ L+和t≤ T<∞, 存在Q∈ Qt,Tand Z∈ 双值函数v(η;t,t)的最大值(参见(6))。我们提醒读者,上述结果使用(1)中定义的一组度量Qt,T,假设为弱紧。在本节结束时,我们对Qt的定义和假设可能进一步扩展进行了一些评论,T.评论3.4。定理3.2可以在假设Qat是弱紧的情况下证明,其中Qat是一组绝对连续的度量,其惩罚是有限的。例如,这适用于所有与连贯风险度量相关的惩罚函数,从下面连续(见第3.4节)。然后,结果与设置的Qt(由Qat代替)保持一致,t定义为u(·;t,t),但双字段仍然按照上述等效度量定义。为了使用qat,在定义v(·;t,t)时,需要以适当的方式将ZQV(η/ZQ)的定义扩展到Q的全集合(保持下半连续性)。对于R+上定义的效用函数的情况,这是在[71]中完成的。

19
nandehutu2022 在职认证  发表于 2022-5-5 04:48:54
目前的病例需要更仔细的治疗,这是未来研究的重点。将对偶问题的定义扩展到一组绝对连续的测度,还可以使用水平集的弱紧性(参见备注3.5)而不是Qat,T.备注3.5来证明命题3.3。在[71]中,对于正财富过程和固定时间范围的情况,在没有Qt,t的紧性假设的情况下,建立了与(8)和(9)类似的共轭关系。证明利用了水平集Q(c):={Q的弱紧性<< P:γ0,T(Q)≤ c} 。具体来说,由于U(ε+XT),XT≥ 0,从下方一致有界。对于这种情况,整数πinfQ<<P等式[U(ε+XπT)]+γ0,T(Q),可替换为某些(弱紧)水平集Q(c)上的最小值,c>0。应用minm-ax定理后,通过将ε归零得到结果。因为我们考虑了U:R→ R、 争论变得更加复杂。事实上,即使对于t=0,U(x,t)确定性和πnan优化序列,也不清楚E[U(xπnT,t)]是否从下方有界。为了解决这些问题,除了从等效度量扩展设置和确定绝对连续度量的du al问题外,还可能需要采用[70]中考虑的更复杂的设置,其中通过定义一系列效用函数来证明在整条实线上定义的效用函数存在优化器,对于每一个问题,问题都会减少到半行上定义的一个问题。然后通过限制程序获得结果。我们将这些问题留给未来的研究。3.3惩罚函数的动态一致性和最优投资策略的时间一致性稳健远期标准的定义要求由U(x,t)和γ(·)组成的组合标准动态一致(参见定义2.3)。

20
大多数88 在职认证  发表于 2022-5-5 04:48:56
在本节中,我们将进一步研究这一假设,并将其与惩罚函数的动态一致性和最优投资策略联系起来。第5.2节报告了本节结果的证明。我们介绍了以下一类动态一致的罚函数:假设2。对于任何T>0和Q~ 在FT上,罚函数族(γt,t)是c`adl`agin t≤ T,γT,T≡ 0和γs,T(Q)=γs,T(Q | Ft)+EQ[γT,T(Q)| Fs],s≤ T≤ T.(10)此外,~Qs,T=Qs,T,其中~Qs,T:=Q~ P | FT:ZQT=ZQtZQt,T,Q∈ Qs,t,Q∈ Qt,T,s≤ T≤ T. (11) 我们注意到,粘贴(11)下的稳定性的上述性质不是由(10)所暗示的。为了使分析易于处理,我们在这个更强有力的假设下工作。有关上述属性与风险措施相关惩罚函数之间关系的备注,请参见下文第3.4节。假设2产生的额外结构允许我们考虑,对于T>0固定值,与一般公用事业领域相关的价值领域u(x,T;T)本身是否是T的自生≤ T也就是说,动态规划原理是否成立(参见(4))。我们现在验证,在适当的惩罚函数假设下,情况就是这样。证明过程首先在对偶域中建立适当的一致性,然后应用定理3.2。3.6的提议。设U(x,t)是一个效用随机场,γt,t是一个可容许的惩罚函数族。假设假设第1和第2个假设成立。然后,对于每个T>0,原始值字段u(·;T,T)是自生成的,即u(x;s,T)=ess supπ∈Abdes infQs,t情商Ux+ZtsπudSu;t、 t财政司司长+ γs,t(Q), 0≤ s≤ T≤ T.(12)对于标准(非稳健)效用最大化和确定性效用函数的情况,众所周知,价值过程满足DPP;也被称为鞅最优原理,参见[23]。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-26 23:25