楼主: kedemingshi
1016 45

[量化金融] 控制市场情绪的大投资者投资组合优化 [推广有奖]

21
mingdashike22 在职认证  发表于 2022-5-31 22:38:58
控制问题的特征是(K+1)维状态过程(W,π),其中π是向量过程(π,…,πK),它取(K)上的值- 1) -尺寸单纯形K、 我们定义了奖励和价值函数a sJ(t,w,π;h)=Et,w,π[U(WT)],V(t,w,π)=suph∈eHJ(t,w,π;h)。4.2。采用分段确定马尔可夫过程方法求解。优化问题的状态过程由财富过程和过滤器组成,再加上时间变量,在[20]的意义上是一个分段确定性马尔可夫过程(PDMP)。PDMP是以普通微分方程的解为特征的确定性流和随机跳跃的组合。为了确定问题的适当结构和将控制理论应用于PDMP的适当条件,我们首先引入一些符号。设X=R>0×Kbe状态空间andeX=[0,T]×R>0×k增广o和分别用X=(W,π)和X=(t,W,π)表示状态过程和增广状态过程。用{Tn}n表示∈状态processeX的跳转时间序列。然后在时间T之前的两个连续跳跃时间之间,即T∈ [总氮∧ T、 Tn+1∧ T),状态过程x由ODE deXt=g(eXt,ht)dt描述,其中向量场g:eX×[-五十、 L]→ R由g(1)(ex,h)=1,g(2)(ex,h)=w(1)给出- h) ρ,g(i+2)(ex,h)=KXj=1πjqj,i(h)+ZRπiui(t,z)ηP(t,ej,dz), 我∈ {1,…,K}。状态过程的跳变率由λ(eX)给出,其中λ(eX)=λ(t,w,π)=KXi=1πiηP(t,ei,R),它与w无关。根据[20],控制状态过程跳变的转移核由操作符QQeXf(eX,h)描述:=ZeXf(ey)QeX(dey | eX,h)=λ(eX)KXj=1πjZRft、 w(1+hz),π(1+u(t,π,z)),πK(1+uK(t,π,z))ηP(t,ej,dz)。现在,我们定义马尔可夫策略。

22
能者818 在职认证  发表于 2022-5-31 22:39:02
用A表示可测映射集α:[0,T]→ [-五十、 L]并将容许策略定义为映射序列{hn}n∈N: 16 S.ALTAY、K.COLANERI和Z.EKSIeX→ A,其中t时的投资组合权重由ht=Xn给出∈N(Tn∧T、 Tn+1∧T](T)hnt型- Tn,eXTn. (21)由于在任何一个跳跃时间,直到下一个跳跃时间,状态过程的演变都是已知的,因此,n最优投资策略由在每个跳跃时间Tn<T采取的一系列选择Hn组成,并一直持续到Tn+1∧ T请注意,尽管在最一般形式的可接受策略中,HN应取决于整个过去的历史(见[9,定理T34,附录A2]),但这一更大类别的策略并不会增加控制问题的价值。这意味着我们可以限制考虑形式(21)的可接受策略。用P{hn}(t,x)(相当于P{hn}ex)表示状态过程定律,前提是Xt=x∈ X投资者使用策略{hn}n∈N、 与容许策略{hn}N相关的奖励函数∈Nis由J(t,x,{hn})=E{hn}(t,x)[U(WT)]给出,部分信息下优化问题的值函数为V(t,x)=V(ex)=sup{J(t,x,{hn}):{hn}n∈不可接受的策略}。(22)4.2.1. 相应的马尔可夫决策模型。(22)中的优化问题可以简化为有限期马尔可夫决策模型(MDM)中的优化问题。在这里,我们使用与[14]中相同的技术来解决终端财富的效用最大化问题。为了给出一个想法,我们证明了分段确定性控制问题的值函数可以被识别为某个马尔可夫决策问题的值函数,该问题可以通过定点变元来解决,详情请参见[7,第8章]。虽然用于处理优化问题的主要技术相似,但webrie用[14]解释了不同之处。

23
mingdashike22 在职认证  发表于 2022-5-31 22:39:05
在[14]中,作者研究了一个投资者的n最优清算问题,该投资者的行为通过增加部分信息环境中向下跳跃的强度直接影响股价动态。股票价格动态由纯跳跃过程给出。目标是最大化预期总回报,该回报由一个功能组成,由运行利润组成,线性取决于清算率(即控制),终端价值代表最终大宗交易的价格。我们设置的第一个不同之处是模型:这里有一个通过不可观察马尔可夫链生成器的间接影响。此外,我们有一个不同的目标,因为我们的目标是最大化终端财富的预期效用。另一方面,由于PDMP的跳跃强度是随机的,因此我们不能直接依赖于[4,7]中的结果。最后,模仿[1 4]中的论点,我们能够给出最优值函数作为HJB唯一粘性解的特征,这允许进行数值研究,而在[7]中,最优策略和最优值函数是通过策略迭代过程获得的,其收敛速度很快。大型投资者的投资组合优化17与PDMP相对应的有限期马尔可夫决策模型可以如下介绍。我们考虑序列{Ln}n∈Nof定义的随机变量n=(Tn,XTn)=外部Tn<T,n∈ N和Ln= 对于Tn≥ T其中 是一个墓地州。换言之,状态(t,x)=(t,w,π)表示跳跃时间t以及跳跃后的财富w和过滤器π。对于函数α∈ A我们用eДαt(ex)表示初值问题的流量dDex(s)=geX(s),αs初始条件为ex(0)=ex。

24
nandehutu2022 在职认证  发表于 2022-5-31 22:39:08
等效的分段确定性ProcessEx由ext=eДαt给出-Tn(eXTn),每t∈ [Tn,Tn+1)在时间T之前。对于压力对时间的依赖性,也使用符号eДαT=(T,Дα)。我们定义了函数λαs(ex)=λ(eДαs(ex),αs):=λ((T+s,ναs),αs),(23)λαs(ex)=λα(s;ex):=Zsλu(ex)du。现在我们想介绍马尔可夫决策模型{Ln∈N、 到达间隔时间Tn+1的分布- t给定Ln=(t,x)和hn=α等于λα(ex)e-∧αu(ex)du,其中ex=(t,x)。那么对于任何有界可测函数f:eX∪ {} → R、 MDM的转换内核由QLF给出(t,x),α=ZT公司-tλαu(ex)e-∧αu(ex)QeXf(u+t,Дu(ex),αudu+e-∧ατИ(¢x)f((R)),使用QL{}(, α) = 1.定义单阶段奖励函数r:eX×A→ R≥0,我们首先用wt表示流量的财富成分Дα。那么我们有r(ex,α)=e-∧αT-t(ex)U(重量-t) ,r() = 0、策略{hn}的预期回报n∈由j{hn}给出的Nis∞(ex)=E{hn}ex“∞Xn=0r(Ln,hn(Ln))#,和j∞(ex):=辅助J{hn}∞(ex):{hn}FS- 容许策略. (24)现在,我们需要验证,这种有限阶段马尔可夫决策模型的构造导致了一个与原始PDP控制问题等效的最优控制问题。在下一个引理中,我们展示了对应于MDM的值函数和PDMP的控制问题是一致的。证据见附录A.18 S.ALTAY、K.COLANERI和Z.EKSILemma 4.1。它适用于所有FSS容许策略{hn}n∈n在V{hn}=J{hn}∞因此V=J∞, 也就是说,控制问题(22)和(24)是等效的。定义马尔可夫决策模型asT v(ex)的算子T:=supα∈电子邮箱-∧αT-t(ex)U(重量-t) +ZT-tλαu(ex)e-∧αu(ex)QeXv(t+u,Дu(ex),αu二人组。我们的想法是将值函数描述为运算符的唯一固定点。

25
kedemingshi 在职认证  发表于 2022-5-31 22:39:12
为此,我们需要证明奖励函数和传递核的连续性在一类紧致的容许控制上成立。因此,根据一般理论,我们通过引入放松控制集来扩大动作空间,并在此空间上定义一个合适的拓扑,称为Young拓扑。有关更多详细信息,请参阅[20,7]。放松控制组由ea:={α:[0,T]→ M级([-五十、 L])),其中M([-五十、 L])是[-五十、 L)]。在放松控制的背景下,我们将容许的放松策略定义为映射序列{νn}:eX→eA。为了使集合A紧凑,我们引入了年轻拓扑作为最粗糙的拓扑,例如所有形式为α的映射→ZTZL公司-Lf(t,u)αt(du)dt对于所有函数f:[0,t]×都是连续的[-五十、 L]→ 在第二个参数中是连续的,在第一个参数中是可测量的,并且Rtmaxu∈[-五十、 L]| f(t,u)| dt<∞ (参见,例如【7,第8章】)。我们注意到,正如[7,14]所指出的,非松弛控制形成了松弛控制的稠密子空间。对于可测量函数v:[-五十、 L]→ R和一些测度ξ∈ M级([-五十、 L]),wede fine hξ,vi:=RL-Lv(ν)ξ(dν)。为了使用集合A的属性,我们现在扩展了α的一些定义∈eA。首先,PDMP的向量场g变为SG(ex,α)=hα,g(ex,·)i=ZL-Lg(ex,ν)αs(dν),跳跃强度由λαs(ex)=hαs(dν),λ(t+s,ναs,ν)i和∧αs=∧αs(ex)=Rsλu(ex)du给出,奖励函数r(ex,α)=e-∧αT-tU(重量-t) ,最后是转换内核isQLvex,α=ZT公司-tλαu(ex)e-∧αuhαu(dν),qevv(t+u,νu(ex),νidu+e-∧αT-电视(“”) .大型投资者的投资组合优化19此外,我们有算子T的以下扩展:Tφ(ex)=supα∈eA公司r(ex,α)+QLφex,α.在下一个引理中,我们证明了MDM存在一个边界函数,并且MDM正在收缩。

26
能者818 在职认证  发表于 2022-5-31 22:39:16
这对于证明值函数是算子T的唯一固定点至关重要。定义4.2。A功能b:eX→ R≥0被称为MDM的边界函数,如果常数cr,cb>0,则| r(ex,α)|≤ crb(ex)和QLb(ex,α)≤ cbb(ex)适用于所有(ex,α)∈eX×A。如果cb<1,则MDM正在收缩。我们为边界函数b定义了函数集合BB:eX→ R使V(ex)≤ Cb(ex)。引理4.2。b(ex)=b(t,x)=ec(t-t) s、c≥ 0和b(“”) = 0是一个边界函数,MDM的内核QLis收缩到足够大的c。引理的证明推迟到附录a。我们现在做出一个假设,为我们的模型的da t a提供连续性条件。假设4.1。对于任意序列{(tn,πn)}n∈N、 带(tn,πN)∈ [0,T)×K、 这样(tn,πn)---→n→∞(t,π),命题4.1 satisfylimn中给出的函数ui(t,π,z)→∞supz公司∈supp(ηP)| ui(tn,πn,z)- ui(t,π,z)|=0,其中supp(ηP)表示集合{z∈ R:ηP(t,ei,z)6=0,t∈ [0,T],i∈ {1,…,K}}。那么以下结果成立。提案4.2。在假设4.1下,映射(ex,α)7→ r(ex,α)和(ex,α)7→QLv(ex,α)每v∈ Bb,是关于年轻地形的连续的oneX×eA。证明见附录A。本节的主要结果涉及相应定点方程解的存在性和唯一性,并在下一章中进行总结。定理4.1。假设假设假设4.1成立。然后我们得到:i)值函数V i是连续的x,满足边界条件sv(T,w,π)=U(w)。ii)V是Bb中运算符T的唯一固定点。20 S.ALTAY、K.COLANERI和Z.EKSIProof。首先,没有任何te,通过引理4.2,我们的模型的边界函数由b(t,w,π)=eγ(t)给出-t) w,对于某些γ>0且MDM正在收缩的情况。

27
kedemingshi 在职认证  发表于 2022-5-31 22:39:21
根据Propo position 4.2,我们得到了关于年轻拓扑的奖励函数r和转移核Qlarecontural。通过应用【7,定理7.3.6】,我们得出V是扩展到放松控制类的最大回报算子的固定点,最终定理的结果来自【14,Coro lla ry4.10】。为了用合适的HJB方程的解来描述最优值函数,我们求助于粘度解分析。这也使下一节将要进行的数值研究合法化。作为第一步,我们希望将问题简化为状态过程取紧集中的值的情况。由于对数效用的情况是幂效用的一个极限情况,我们只写后者的约化。利用正齐性,我们得到V(t,w,π)=wθV(t,π)。定义压缩集:=[0,T]×K、 我们现在定义:eY×[-五十、 L]→ RK+2通过识别(g)(1)=g(1),和(g)(k+1)=g(k+2),k=1。

28
能者818 在职认证  发表于 2022-5-31 22:39:25
K并用φu(α,ey)表示g的流量。由于(23)中引入的跳跃强度λ与w无关,根据定理4.1,v的最优性方程由v(ey)=supα给出∈澳新银行-tλαu(ey)e-∧αu(ey)Q Vu+t,Дu(α,ey),αudu+θe-∧αT-t(ey)o,其中,对于h∈ [-五十、 L],ey∈eY,以及任何可测函数ψ:eY→ R≥0,Q定义了新的跃迁核Qψ(ey,h):=λ(ey)KXj=1πjZR(1+hz)θψt、 (πi(1+ui(t,π,z)))i=1,。。。,KηP(t,ej,dz)。反过来,这意味着值函数V满足V=T V,而报酬运算符由Tψ(ey)=supα给出∈澳新银行-tλαu(ey)e-∧αu(ey)Qψu+t,Дu(α,ey),αudu+θe-∧αT-在续集中,我们的目的是证明v在粘度意义上解决了方程fvey,V(ey),V(ey)= 0,用于ey∈eY,V(eY)=θ表示eY∈ eY,(25)大型投资者的投资组合优化21其中,对于ψ:eY→ R≥0,函数Fψ:eY×R>0×RK+1→ R如果由fψ(ey,v,p)=- supν∈[-五十、 L]- λ(ey,ν)v+g(ey,ν)p+Qψ(ey,ν).[14,定理5.3]中证明的下列结果适用。定理4.2。假设马尔可夫链Y没有吸收态(-alli的qii>0∈ {1,…,K})。然后,值函数V是(25)ineY的唯一连续粘度解,并在原理上进行了比较。在更明确的术语中,部分信息设置中值函数的HJB方程可以写成0=suph∈[-五十、 L](五、t(t,w,π)+w(1- h) ρ五、w(t,w,π)+KXk,j=1五、πk(t,w,π)πjqjk(h)-ZRπkuk(t,z)ηP(t,ej,dz)+KXj=1πjZR五、t、 w(1+hz),(πi(1+ui(t,z)))i∈{1,…,K}- V(t,w,π)ηP(t,ej,dz))。(26)在接下来的部分中,我们将在部分信息框架中详细分析对数和幂效用函数的情况。4.3。部分信息下的对数效用。根据在全信息框架下进行的分析,我们研究了具有无影响NDP的优化问题。

29
kedemingshi 在职认证  发表于 2022-5-31 22:39:28
对于对数效用偏好,这导致了两种不同的方法:在第一种情况下,逐点最大化适用,而在第二种情况下,我们需要使用动态规划方法。我们还比较了完全信息和部分信息下的最优策略。4.3.1。对数效用-无市场影响。我们首先假设投资者没有影响,这意味着马尔可夫链生成器中的条目不依赖于交易策略,我们直接解决了最优控制问题。对于固定策略h∈eH通过应用It^o公式,我们得到v(t,w,π)=log(w)+suph∈eHeB(t,π;h),其中eb(t,π;h)=Et,π“ZTt(1- hs)ρ+KXi=1πisZRlog(1+hsz)ηP(s,ei,dz)!ds+ZTtZRlog(1+hsz)νπ(ds,dz),22 S.ALTAY、K.COLANERI和Z.EKSIand下面的主张成立。提案4.3。当w>0时,Suppos e U(w)=log(w)。i) 让h*(t,π)满足ei therKXj=1πjtZRz1+h*(t,π)zηP(t,ej,dz)=ρ(27)或h*(t,π)∈ {-五十、 L}。然后最优策略h*t=h*(t,π)对于每t∈ [0,T]和π∈ K、 ii)值函数的形式为v(t,w,π)=log(w)+Et,π“ZTt(1- h类*s) ρ+KXi=1πjsZRlog(1+h*sz)ηP(s,ei,dz)!ds#。证据证明来自引理3.1的相同论点。备注4.2。比较命题3.1和命题4.3中的结果,我们可以观察到最优策略的相似结构。精确地说,在部分信息的情况下,最优策略求解f形式(27)的方程,其中跳跃测度的(f,P)-补偿器替换为(FS,P)-补偿器。直觉上,这是由于对数效用的短视性;代理通过过滤后的估计值来弥补回报过程中未观察到的局部特征,忽略了与信息不确定性相关的额外风险(例如,参见[26])。4.3.2。对数效用-市场影响。

30
可人4 在职认证  发表于 2022-5-31 22:39:31
根据全部信息,当马尔可夫链的状态受到影响时,我们不能应用逐点最大化,但我们可以将值函数描述为粘性意义下的HJB方程的解。在这里,我们提出了以下ansatz V(t,w,π)=log(w)+B(t,π),对于某些函数B,终端条件B(t,π)=0,对于所有π∈ K、 将值函数的这种形式代入(26),我们得到以下方程:0=suph∈[-五十、 L](Bt(t,π)+(1- h) ρ+KXk,j=1Bπk(t,π)πjqjk(h)-ZRπkuk(t,z)ηP(t,ej,dz)+KXj=1πjZRlog(1+hz)+Bt、 (πi(1+ui(t,z)))i∈{1,…,K}- B(t,π)ηP(t,ej,dz))。(28)根据定理4.2,值函数是问题(28)的唯一粘度解。给定补偿器ηP的形式,可以求解方程,例如使用数值格式。大型投资者的投资组合优化234.4。部分信息下的Power utility。在这一部分中,我们将在功率效用的假设下工作,即U(w)=θwθ,θ<1,θ6=0。那么投资者的价值函数是v(t,w,π)=suph∈eHEt,w,πθ(WT)θ,其中Et,w,π[·]表示给定Wt=w和πt=π的条件期望。我们知道,通过正齐性,值函数可以重写为V(t,w,π)=θwθ(t,π),f或某个函数Γ:[0,t]×K→ R> 0,对于所有π,Γ(T,π)=1∈ K、 将这种形式的值函数代入(26),我们得到方程:0=suph∈[-五十、 L](Γt(t,π)+Γ(t,π)θ(1- h) ρ+KXk,j=1Γπk(t,π)πjqjk(h)-ZRπkuk(t,z)ηP(t,ej,dz)+KXj=1πjZR(1+hz)θΓt、 (πi(1+ui(t,z)))i∈{1,…,K}- Γ(t,π)ηP(t,ej,dz))。因此,在约化之后,我们处理一个有界状态空间[0,T]×的问题K、 定理4.2确保了该问题粘性解的存在性和唯一性。对于下一节中的两状态马尔可夫链,我们用数值方法求解它。5.

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-1-28 17:30