楼主: kedemingshi
1344 28

[量化金融] 基于稀疏卡尔曼滤波的高阶协方差估计方法 [推广有奖]

11
kedemingshi 在职认证  发表于 2022-5-10 18:12:02
德尼=J+VY=J+V。那么拉普拉斯(λ′)是σV-等价于板(ζ′,σ′J)(表示为λ′)~σv(ζ′,σ′j))ifEp(yJ=0)pr(J=0Y) =Ep(Y)J=0)pr(\'J=0)(5),其中\'Jis是P(J)的模式Y) 。要解释上述定义,假设没有发生跳跃。然后λ′~σv(ζ′,σ′j)如果在拉普拉斯(λ′)模型下(使用MAP标准)错误宣布跳跃的概率等于在具有参数ζ′和σ′j的尖峰和板之前发生跳跃的平均后验概率。在这里,σv可以解释为资产回报的差异成分的平方波动率。注意,对于每个三重态(σv,ζ′,σ′j),都有一个唯一的λ′,使得λ′~σv(ζ′,σ′j)。由于(σv,ζ′,σ′j)是随机的且未被观察到,我们不能直接选择λ′,使得λ′~σv(ζ′,σ′j)。然而,(σv,ζ′o,σ′j)的分布通过映射诱导λ上的a分布~σv.由此产生的分布可以用在q(λ)之前。下一节给出了一个关于如何构造λ分布的示例。2.5选择q(λ)的程序在本节中,我们概述了选择分布q(λ)的方法f,用于每个资产的波动性的先验分布相同的特殊情况。假设每项资产收益的平方波动率为逆伽马分布,标度为c,形状为η。设σvbe以IG(c,η)的形式分布,并在统计上独立于ζ′和σj。为了确定λ的适当先验分布,我们首先通过执行以下步骤1获得λ、(λ,…,λMλ)的样本。对于k=1,Mλ2。从(σ′v,ζ′,σ′j)的分布中抽取独立样本。由于独立性假设,使用标准统计函数是相对直接的。3.确定λ′,使λ′~σ′v(ζ′,σ′j)。这可以通过如下所示的MonteCarlo集成完成对于一个大的数字,我画了一个样本。

12
能者818 在职认证  发表于 2022-5-10 18:12:06
由分布n(0,σv)得出的Vl计算Pi=pr(J=0J+V=vi),其中J~ 钉板(ζ′,σ′j)。π的值为ζ′σ′vexp(-六、(2σv))ζ′σ′vexp(-六、(2σ′v))+1-ζ′σ′v+σ′jexp(-六、(2(σ′v+σ′j))。o计算模拟的经验平均值P=L∑Li=1Pi.o选择λ′,使(5)满足Ep(yJ=0)pr(J=0 Y) 近似为“P”。该值在λ′=erf以下给出-1(`P)2σ′vσ′vwerf-1()是逆错误函数。4.设置λk=λ′5。转到步骤1使用上述程序获得的样品的历史记录示例如图3-5所示。一旦我们获得λ的样本,我们就对样本数据进行smo oth分布。由于伽马分布比拉普拉斯分布是共轭的,所以伽马分布是q(λ)的一个方便选择。此外,对图3-5的检验表明,伽马分布是一个合理的近似值。因此我们选择seq(λ)=βαλλΓf(αλ)λαλ-1exp(-λβλ),其中Γf()是伽马函数。这里可以使用最大似然法或矩量法选择αλ和βλ。由于q(λ)对βλ的大值产生了一个接近零的奇异性,因此我们应该使用λ的先验值-1大于λ。我们将该pr表示为qinv(λ)-1). 由于λ是伽马分布,其形状为eαλ,速率为βλ,因此qinv(λ-1) 是形状为αλ且标度为βλqinv(λ)的反伽马分布-1) =βαλΓf(αλ)(λ)-1)-αλ-1exp-βλλ-1..3Γ最大值估计的KECM方法本节研究了利用卡尔曼ECM(KECM)技术对Γ的后验概率(MAP)估计。第一种ECM方法是一种近似技术,其中跳跃的先验分布建模为拉普拉斯分布。这种近似的优点是,ECM方法中的条件最大化步骤可以得到全局(条件)最优解。缺点是我们接近真正的扣球和板球跳跃模型。

13
mingdashike22 在职认证  发表于 2022-5-10 18:12:10
第二种方法使用跳跃的尖峰和平板模型,这是第2节中所述模型的真实表示。然而,我们将看到,使用Spike和slab jump模型会在r J的条件M步中产生一个非凹优化问题。λ0 1000 2000 3000 5000×10-30.51.5q(λ)模式的p(σv)=5e-07,βv=3e-06模式的p(σv)=1e 06,βv=6e-06模式的p(σv)=4e-06,βv=2.4e-05模式的p(σv)=5e-06,βv=3e-05图3:λ样本的非标准化直方图。在所有实验中σj~IG(10,0.0011),ζ~ β(5,1.0201),σv~ IG(5,βv)。3.1kecm拉普拉斯分布算法首先,当ji被拉普拉斯分布的随机变量逼近时,我们考虑一种KECM方法来估计Γ。我们定义Θ=[Θ,Θ,Θ,Θ,Θ]其中Θ=DΘ=ΓΘ=σo,i,1≤ 我≤ NΘ=J(2)∶T)Θ={λi(T)-1}1≤我≤N、 二,≤T≤Tas我们的未知参数向量和X(1∶T)作为潜在变量。λ0 1000 2000 3000 5000 6000×10-30.20.40.60.8q(λ)模式p(σj)=1e-06,βj=1.1e-05模式p(σj)=2.5e-05,βj=0.000275模式p(σj)=0.0001,βj=0.0011模式p(σj)=0.01,βj=0.11图4:λ样本的非标准化直方图。在所有实验中σj~IG(10,βj),ζ~ β(5,1.0201),σv~ IG(5,6e)-6).KECM方法是一种迭代算法,可应用于以下问题Θ*= arg maxθL(θ),其中L(θ)是Θ的对数后验值。

14
nandehutu2022 在职认证  发表于 2022-5-10 18:12:13
在KECM算法中,我们迭代过多步和条件M步,以得到Θ的估计值。KECM算法中的E步骤涉及计算期望值o flog p(X(1∶T),y(1)∶(T)θ) p(θ)相对于p(x(1)∶(T)y、 Θ(k))G(θ,Θ(k))=Ep(xy、 Θ(k))对数p(X(1)∶T),y(1)∶(T)θ) +log(p(θ)),其中Θ(k)是k阶上Θ的估计,其中p(θ)是参数sp(θ)=p(θ)p(θ)p(θ)p(θ)g(θ,λ) qinv(λ)-1).λ0 1000 2000 3000 5000 6000×10-30.20.40.60.8q(λ)模式的p(ζ)=0.5,βζ=5模式的p(ζ)=0.7,βζ=2.7143模式的p(ζ)=0.8,βζ=2模式的p(ζ)=0.99,βζ=1.0404图5:λ样本的非标准化直方图。在所有实验中σj~IG(10,0.0011),ζ~ β(5,βζ),σv~ IG(5,6e)-6).这里的完全对数似然是log p(x,y)θ) = -0.5Tt=1log(∑o(t))-Tt=1y(t)-~I(t)x(t)diag(∑o(t)-1),l-T-1日志(Γ)-Tt=2r(t)tΓ-1r(t)+constwhere(t)=x(t)-x(t)-1)-D-j(t)。在哪里Qβ,l=我有智商。众所周知,函数G(θ,Θ(k))服务于a的下界tolog p(θ,y),并且log p(Θ(k),y)=G(Θ(k),Θ(k))[18]。EM方法规定了G(θ,Θ(k))相对于θ的联合最大化。这是因为变量的耦合和问题的非空腔。每个参数的条件最大化更容易处理。因此,我们采用了条件最大化,如theECM[33]算法。条件M步涉及G的坐标最大化。这里条件M步是Θ(k+1)=arg maxθGθ、 Θ(k)、Θ(k)、Θ(k)、Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1),θ,Θ(k),Θ(k),Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1),Θ(k+1),θ,Θ(k),Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1)、Θ(k+1)、Θ(k+1)、θ、Θ(k), Θ(k)Θ(k+1)=arg maxθGΘ(k+1)、Θ(k+1)、Θ(k+1)、Θ(k+1)、θ, Θ(k).

15
何人来此 在职认证  发表于 2022-5-10 18:12:17
(6) 正如我们将在后面展示的那样,这些问题中的每一个都可以很容易地解决。3.1.1 KECMP osterior p(x)的E阶y、 执行E步所需的Θ(k))是正常的,可以使用Kalman smoo t her[40]进行计算。根据正态性和马尔科夫性质,后验矩完全由m=T@X(T)的后验矩定义m) E(X(t)y(1∶m) )P(tm) cov(X(t),X(t)y(1∶m) )P(t,t-1.m) cov(X(t),X(t-1)y(1∶m) )cov在哪里(∶, ∶) 指协方差函数。[41]中推导了这些量的方程式,并在附录A中进行了说明。关于X(1)的后验值,对数后验分布的预期值∶T)可以表示为求(θ,Θ(k))=Ep(xy、 Θ(k))对数p(X(1)∶T),y(1)∶(T)θ) +log(p(θ))=-T-1日志(Γ)-tr(Γ)-1(C)-B-BT+A)-0.5Tt=1log(∑o(t))-Tt=1y(t)-~I(t)~X(t)diag(∑o(t)-1),l+tr(P(tT)~I(T)T∑o(T)-1~I(t))+log(p(θ))+const(7),其中I=tt=2P(t)-1.T)+X(T-1.T)`X(T-1.T)TB=Tt=2P(t,t)-1.T)+(X(T)(T)-D(k)-J(k)(t))X(t-1.T)TC=Tt=2P(t)T)+(X(T)(T)-D(k)-J(k)(t))(\'X(t(T)-D(k)-J(k)(t))t.这些方程在附录B中推导。为了便于注释,P(t)的依赖性m) 和P(t,t-1. m) 在迭代过程中,麻木者被击败了。3.1.2 KECm的条件M步对于条件M步,它可以使用标准共轭优先关系[21]表示,即d(k+1)=FσD\'D+Γ(k)-1Tt=2英寸X(t(T)-\'X(t-1.(T)-J(k)(t) (8) 和Γ(k+1)=T-1 +ηA+C(k)-B(k)-B(k)T+T-1+ηW(9),其中f=(T)-1) Γ(k)-1+σ-2DI-1B(k)=Tt=2P(t,t)-1.T)+(X(T)(T)-D(k+1)-J(t)(k))X(t)-1.T)TandC(k)=Tt=2P(tT)+Tt=2(X(t(T)-D(k+1)-J(t)(k))(\'X(t(T)-D(k+1)-J(t)(k))t.观测噪声方差的条件M步为σ2,(k+1)o,i=2βo+∑T∈Ti(y(t)-~I(t)~X(t)η(i,T)+(P(TT)i,i2αo+2+Mi。(10) 这里是观察到资产i价格的时间集,Mi是观察到的资产i价格总数。

16
大多数88 在职认证  发表于 2022-5-10 18:12:22
下标η(i,t)是i(t)的t herow数,使得i(t)η(i,t),i=1。对于每个条件M步P(t,t),P(t,t-1.T)和¨X(TT)根据p(X(1)进行评估∶(T)Y、 Θ(k))。为了计算J的条件M步,我们表示q(J) G([Γ(k+1),D(k+1),{σo,i}1≤我≤N、 j,{λi(t)-1} (k)1≤我≤N、 二,≤T≤T] ,Θ(k))。然后直到一个不依赖于jQ(j)的常数-Tt=2(X(t(T)-j(t)-D(k+1))T(Γ(k+1))-1(X(t(T)-j(t)-D(k+1))+Tt=2(X(t(T)-j(t)-D(k+1))T(Γ(k+1))-1英寸X(t-1.T)+log(g(j(2∶(T){λi(t)}(k)1≤我≤N、 二,≤T≤T) )+const=-Tt=2(X(t(T)-j(t)-D(k+1))T(Γ(k+1))-1(X(t(T)-j(t)-D(k+1))+Tt=2(X(t(T)-j(t)-D(k+1))T(Γ(k+1))-1英寸X(t-1.(T)-Tt=2j(t)λ(t),l+康斯特。哪里j(t)λ(t),l=∑Nn=1λn(t)jn(t). 通过r变化项,我们可以将Q(j)表示为jQ(j)的二次函数-Tt=2j(t)t(Γ(k+1))-1j(t)+tt=2(X(t(T)-D(j+1)-\'X(t-1.T(Γ(k+1))-1j(t)-Tt=2j(t)λ(t),l+康斯特。参考方程式(6),我们可以看到J(k+1)(t)是下面的解l惩罚二次规划j(k+1)(t)=arg minjjT(Γ(k+1))-1j-jT(Γ(k+1))-1.(k+1)+ j(t)λ(t),l(11) 在哪里(k) (t)=X(t(T)-D(k)-\'X(t-1.T)。(12) 这个问题可以通过一系列快速算法来解决,如ADMM[11]和FISTA[7]。现在我们确定{λi(t)-1}1≤我≤N、 二,≤T≤t仅取决于qinv(λ-1) p(j)λ). 利用联合先验关系,我们得到了p(λi(t)-1.ji(t))是形状为αλ+1且标度为βλ的反向伽马分布+季(t). 因此,条件映射估计是λi(t)-1=J(k+1)i(t)+βλαλ+2. (13) 这意味着λi(t)=αλ+2J(k+1)i(t)+βλ.

17
能者818 在职认证  发表于 2022-5-10 18:12:26
(14) 概述了拉普拉斯跳跃模型的KECM算法。算法1拉普拉斯先验下估计Γ的KECM算法:Θ(0),k=0,而不是收敛的doCompute¨X(tT),P(TT),P(T,T-1.T)使用方程(27)-(32)计算D(k+1)、Γ(k+1)和σ2(k+1)o,分别使用方程(8)、(9)、a和(10)通过解(12)计算{λi(T)}1计算J(k+1)≤我≤N、 二,≤T≤通过求解(14)k=k+1,该算法的验证结果见附录C。因为{λi(t)}1的值≤我≤N、 二,≤T≤t随着每次迭代的变化,我们可以看到我们有效地重新加权了l每次迭代后(11)中的惩罚。重新称重lnorm已在多篇论文中提出,并已被证明在压缩感知问题上比固定权重集[13]有更好的性能。3.2 KECM方法适用于尖峰和板跳。现在,我们提出了一种适用于尖峰和板跳的KECM方法。与前面的laplace一样,我们将X视为一个潜在变量。让我们将未知参数表示为Φ,其中Φ=DΦ=ΓΦ=σo,iΦ=Z(2∶T),~J(2)∶T)Φ=ζΦ=σj,i(t)i=1,。。。,N、 t=1,。。。,T.在这里,我们考虑到每个时间和资产的不同σj值。Φ,Φ,Φ的E步和条件M步与拉普拉斯先验的KECM算法相同。本节的差异在于J、ζ和σJ的条件M步。首先,我们讨论J(k+1)的条件M步。这里我们需要解[J(k+1)(t),Z(k+1)(t),~J(k+1)(t)]=argminj,Z,~jjT(Γ(k+1))-1j-jT(Γ(k+1))-1.(k+1)-Ni=1log(f(~ji,zi))s.t.ji=~jizi(15),其中log f(~ji,zi)=log(ζ1zi=0+(1)-ζ) 1zi=1)+log2πσj,iexp-~ji2σj,i. (16) 这里我们去掉了时间依赖的符号。当限制t oji=~jizi时,-日志(~ji,zi)会对ji进行惩罚。这是一个l然后平方l标准

18
能者818 在职认证  发表于 2022-5-10 18:12:29
图6显示了这种惩罚的曲线图。j×10-3-4-3-2-1尖峰和板坯惩罚σj=1e-05 p=0.99σj=1e-05 p=0.9999σj=3e-06 p=0.99σj=3e-06 p=0.9999图6:各种参数值的尖峰和板坯惩罚函数。在这里,我们看到惩罚是l然后平方l规范。术语-log(~ji,zi)是非凸的,使条件Mstep(15)复杂化。因此,我们通过协调寻求近似最大化。在这里,我们将问题分为一次关于一个资产的可处理的一维优化问题。实施坐标下降的方法和方程式在附录D.2中推导,如下所述。为了便于记法,我们放弃了表示依赖于k的记法。让我们定义以下条件均值和方差a(i)=i(t)+Γi,-iΓ-1.-我-i(j)-i(t)--i(t))(17)和b(i)=Γi,i-Γi,-iΓ-1.-我-iΓ-i、 i(18)下标在哪里-i被解释为除i之外的所有指数。然后,以下规则确定了条件为j的zi(t)的映射最优值-i(t)zi-i(t)=如果ζ1,则为0-ζN(0,a(i),b(i))>N(0,a(i),b(i)+σj,i(t))1其他(19),其中N(0,a(i),b(i))是正常PDF,平均值a(i)和方差b(i)的评估值为0。~Ji的最佳值-然后,i(t)被表示为Ji-i(t)=a1+bσ-2j,i(t)if zi-i(t)≠ 还有100人。(20) 由方程式(19)和(20)定义的映射是收缩操作ji之后的再保持步骤的组合-i(t)=尖峰SlabShrink(a,b)如果ζN(0,a(i),b(i))(1-ζ) N(0,a(i),b(i)+σj,i(t))>1a(i)1+b(i)σ-2j,我(t)其他人。(21)图7显示了尖峰和板收缩。正如plo ts所示,收缩是不连续的,大值比小值收缩得更多。等式(21)循环通过所有i=1。N.也可进行多次循环,以获得J的改进估计值。

19
大多数88 在职认证  发表于 2022-5-10 18:12:33
下面的算法2中给出了J的条件M步算法的摘要。a×10-3-5-4-3-2-1 0 1 2 3 4 5×10-3-5-4-3-2-1斜板和板收缩函数b=1e- 7σj=0.0001 p=0.8σj=1e-07 p=0.9σj=1e-06 p=0.99σj=5e-07 p=0.9σj=5e-08 p=0.9图7:各种参数值的尖峰和板坯收缩函数确定Z(k+1)(t),*j(k+1)(t)和j(k+1)(t)的算法2坐标下降初始化:设置j(k+1)(t)=j(k)(t),它=0,L>0≤ L doit=it+1i=0,而i<N doi=i+1使用方程(17)、(18)和(19)计算Z(k+1)i(t),使用方程(17)、(18)和(20)计算﹪J(k+1)i(t)集J(k+1)i(t)=Z(k+1)i(t)~J(k+1)i(t)结束,同时返回J(k+1)(t),尽管这种方法不能保证求解(15)与Jk(t)相比,它不会增加目标函数的值。一旦获得J(k+1),ζ(k+1)和σ2(k+1)的值就可以通过共轭先验关系轻松计算出来。首先让nz为J(2)中的零值数∶T)(k+1)。然后通过共轭先验关系,得到ζa和σjareζ(k+1)=αζ+NZN(T-1) +βζ+αζ(22)和σ2,(k+1)j,i(t)=βj+0.5(Ji(t))αj+1+0.5(Zi(t))。(23)算法3总结了尖峰和平板模型的KECM算法。算法3在尖峰和SlabPriorialize下估计Γ的KECM算法:Φ(0),k=0,但不收敛于doCompute¨X(tT),P(TT),P(T,T-1.T)分别使用方程(27)-(32)计算D(k+1)、Γ(k+1)和σ2(k+1)o,使用方程(8)、(9)和(10)计算所有T,使用算法2集J(k+1)i(T)=Z(k+1)i(T)计算ζ(k+1)i(T)使用方程(22)计算σ2,(k+1)J,使用方程23,tk=k+1注意,尽管J(t)在每个条件M步中仅近似最大化,但这仍然是一个ECM算法。

20
大多数88 在职认证  发表于 2022-5-10 18:12:36
要看到这一点,我们可以简单地定义为D、 Γ,σo,J(2),JN(2),J(T),JN(T),ζ,σj.然后,上述算法是重新定义参数向量的ECM算法。Alg算法3的收敛性类似于附录C中算法1的收敛性。尖峰和平板收缩e函数与b函数的比较-图8显示了等效拉普拉斯先验。拉普拉斯收缩函数(带参数λ)定义为拉普拉斯收缩(a,b)A.-λbif a>λba+λbif a<-λb0其他。这些图表说明了拉普拉斯先验法的优缺点。一个明显的缺点是,对于大σj,拉普拉斯先验与尖峰先验和板先验有很大的偏差。然而,对于较小的σjan和较大的awe值,可以看到拉普拉斯先验比尖峰和板更少偏向。这可以归因于扣球和板球优先导致的二次惩罚,它比拉普拉斯优先更严重地惩罚大跳跃。a×10-3-5-4-3-2-1×10-3-5-4-3-2-1收缩函数b=1e- 7σj=0.0001,p=0.999Laplace当量σj=0.0001,p=0.999σj=1e-06,p=0.5Laplace当量σj=1e-06,p=0.5图8:尖峰和板以及相应B的收缩函数-等价拉普拉斯优先标记。拉普拉斯先验和l在[3,2,1]中,pena l ties已应用于稳健的Kalm滤波和平滑。作者在这里提出了非高斯重尾观测问题,而不是过程noi s e.4贝叶斯方法,使用MCMCIn。本节我们考虑一种完全贝叶斯方法,其中我们估计Γ的后验分布。完全贝叶斯方法解决这个问题的优点是1。干扰参数(如J和σ)的不确定性是平均的,而不是依赖于地图点估计2。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-11 20:38