楼主: mingdashike22
1943 40

[量化金融] Black Litterman模型的贝叶斯替代方案 [推广有奖]

21
何人来此 在职认证  发表于 2022-6-11 04:39:11
事实上,如果我们只考虑历史回报,u的无偏估计值为r,距离为| P r- q |=0.05388875,这是曲线图似乎趋于收敛的方向。我们将重点关注2018年1月使用该模型进行交易时将获得的利润(或损失)(测试数据包括2018年1月2日至2018年1月30日之间的每日回报),初始资本为100000美元(这不包括卖空的任何资本要求)。我们记得,为了获得投资组合权重,我们使用与之前相同的方法。根据吉布斯抽样,我们估计upostand∑postand,并使用CAPM方程4:w=2.5∑post-1u柱。尽管当我们对整个标准普尔500指数进行分析时,吉布斯采样器中的迭代次数很小,但我们从上述分析中注意到,我们仍然得到了很好的upost估计值,因为后验距离的行为与我们的直觉完全一样。对于小ωi,平均值的运行平均值也会快速收敛。然而,由于∑post的大小以及为了计算投资组合权重w必须取其倒数的事实,迭代次数不足以给出准确的预测结果。然而,为了完整性,考虑到整个标准普尔500指数,平均收益为13191.39美元,标准差为2908.134美元。现在,我们将展示仅使用4只股票时获得的利润。我们注意到第一个视图比第二个视图对利润曲线的影响更大。此外,随着第一种观点的可信度增加(ω变为0),Profits sky rocket也随之增加。

22
何人来此 在职认证  发表于 2022-6-11 04:39:15
这是因为在2018年1月,AMZN的表现优于AAPL 23.997%,我们的观点是,AMZN确实会超过AAPL(尽管只有2%,是实际情况的10倍)。图7:仅持有4只股票的情况下,一个月内表现优于AAPL近24%的情况并不常见。因此,接下来我们将展示相同的结果,唯一的变化是我们用FB(Facebook)取代AMZN。我们使用了相同的数据集,所有其他输入与我们在本节开头介绍的完全相同,除问题外,我们还将研究当投资者输入与2018年1月发生的事情完全相同的个人观点(非常“知情”的投资者)以及与1月发生的事情完全相反的个人观点(非常“不知情”的投资者)时,模型的表现。因此,我们还将看看选择Seq时会发生什么=0.062128150.01366718和q=-0.062128150.01366718, 分别地图8:4只股票,FBin和q=[0.02,0.05]t图9:4只股票,FB in和视图与现实情况完全相同图10:4只股票,FB in和视图与现实情况相反图11:标准普尔500,FB in和q=[0.02,0.05]t图12:标准普尔500,FB in和视图与现实情况完全相同图13:标准普尔500FB in和视图与现实情况相反,就像之前一样,我们注意到,随着ωiget越来越小,当考虑到整个标准普尔500指数时,这条曲线似乎低于仅考虑4只股票时的曲线,并且接近于0。这可能是因为在包含批发和普尔500指数的协方差矩阵上,先验知识比只有4只股票的协方差矩阵上的知识要多。此外,对于相同的q,曲线具有相似的方向和一般形状。因此,这证实了这样一种信念,即尽管Gibbs采样器使用了少量迭代,但考虑到了整个标准普尔500指数,估计的后验平均值仍然是准确的。

23
大多数88 在职认证  发表于 2022-6-11 04:39:17
然而,如前所述,∑的估计值-1当其规模较大时,其预测不够准确,无法进行非常可靠的预测。尽管如此,为了分析的完整性,我们继续保持前面提到的所有输入不变,并保持q=0.020.05. 考虑到整个标准普尔500指数,上述模拟对范围(ω,ω)的平均利润为11619.97美元,标准差为2852.246美元。在下一个图中,我们可以观察到仅考虑前面提到的4只股票时获得的收益。图14:FB-in和q=[0.02,0.05]t从图中可以看出,第一种观点对收益的影响高于第二种观点。这是因为如果我们让ω保持不变,结果曲线的增长速度要比保持ω不变得到的曲线快得多。3日志上的先验知识(∑)3.1简介就像使用反向Wishart先验知识介绍方法一样,让我们看看我们想要改进什么:o理想情况下,视图矩阵P不应该以任何方式增加或更改。它应该像用户输入的一样保留。o人们应该在使用过多次的逆Wishart之前尝试一种不同的方法。因此,其中两个假设将保持不变:r,r。。。,rm |u,∑~ Nn(u,∑)Pu~ Nk(q,Ohm)Leonard和Hsu(1992)[5]提出的关于协方差矩阵不同先验的一个非常有趣的想法。正如本节的标题所示,此优先级将实际记录在日志中(∑)。为了更好地理解Leonard和Hsu的想法,让我们看看分布:f(r,…,rm |u,∑)=(2π)-mndet(∑)-mexp(-mXi=1(ri- u)T∑-1(ri- u))设A=log(σ),λaia和λ∑i(i=1,n)分别为A和∑的特征值。由于A=log(λ),我们得到λAi=log(λ∑i)=> λ∑i=eλAi。

24
mingdashike22 在职认证  发表于 2022-6-11 04:39:20
最后,记住行列式是这些特征值的乘积,矩阵的轨迹是特征值的和,我们注意到det(∑)=Qni=1λ∑i=Qni=1eλAi=eT r(a)。通过在收益的联合分配中使用这个,并注意到(ri-u)T∑-1(ri-u) ∈ Rwe获得:f(r,…,rm |u,∑)=(2π)-mnexp(-T rmXi=1(ri- u)T∑-1(ri- u)!)expn公司-mT r(A)o=(2π)-mnexp(-T rmXi=1(ri- u)(ri- u)T∑-1!)expn公司-mT r(A)o=(2π)-mnexpn-mT r公司A+Se-A.oHere,S=mPmi=1(ri- u)T∑-1(ri- u). 在继续之前,让我们定义一个运算符并做一些标记。定义1。设A是一个n×n矩阵,A=(aij)i,j=1,n,然后我们定义一个操作符,该操作符将平行于主对角线的条目堆叠在向量中:V ec*(A)=aa。。。安| aa。。。一-1n ||a1n注意,如果A是n×n,V ec*(A) isn(n+1)×1。这一定义带来了以下符号:符号1。λ=V ec*(对数),α=V ec*(log(∑))∧=log(S),A=log(∑),d=n(n+1)Leonard和Hsu的想法是通过近似e来近似f(r,…,rm |u,∑)-A、 该近似利用了x(ω)=e的事实-ω满足Volterra积分方程[2]:X(t)=S-t型-ZtSs-t(A- ∧)X(v)dv,0<t<∞,通过t=1、X(v)的迭代替换和矩阵S的谱分解,我们得到近似值为(请参见附录B的证明):f*(r,…,rm |α)=(2πe)-mndet(S)-mexp-(α -λ) TQ(α-λ)(15) 为了了解如何计算Q,我们首先必须引入一个couplemore符号。如果我们让ei,dito分别是具有相应特征值的ithnormalized特征向量,那么fijis是通过查看方程V ec得到的*(log∑)Tfij=eTilog∑ej,并确定log∑矩阵中条目的系数。通过这些fij,我们最终可以计算Q:ξij=(di- dj)didj(对数(di)- log(dj))Q=mnXi=1fiifTii+mnXi<jξijfijfTijRemark 4。

25
大多数88 在职认证  发表于 2022-6-11 04:39:24
近似分布为:α| r。。。,rm≈~ N(λ,Q-1) 现在,我们准备进入下一节,重新讨论模型的假设。3.2模型如前一节所述,我们将在日志上有一个优先级(∑)。但是如何构建一个直观的分布呢?可以使用的最简单的分布是多元正态分布,其中主对角线上的方差项有一个平均值θ和方差σ,副对角线上的方差项有另一个平均值θ和另一个方差σ。因此,我们得出以下模型:r。。。,rm |u,∑~ N(u,∑)(16)Pu~ N(q,Ohm) (17)α|θ,  = V ec*(对数(∑))|θ, ~ N(Jθ,) (18) 其中我们有以下符号:符号2。J=1 0: :1 00 1: :0 1,  =σInOOσId-n, θ =θθ3.3后验分布的推导如果我们让θ具有一致的先验(θ∝ 1) 通过将其从方程(18)的密度中积分出来,我们得到:命题1。f(α|σ,σ)=Zθdet()-经验值-(α -Jθ)T-1(α -Jθ)dθ==2πdet()-det(JT-1J)-经验值-αTGα, 其中g=身份证件- J(JT-1J)-1JT-1.T-1.身份证件- J(JT-1J)-1JT-1.关于证明,请参见附录C。现在,通过使用该分布以及从等式(15)表示的收益分布的Volterra积分中获得的近似值,以及等式(17)表示的Pu上的先验值,我们最终可以获得近似联合分布:f(α,u,σ,σ,r,…,rm)≈∝ det公司()-det(JT-1J)-经验值-αTGα··det(S)-mexp-(α -λ) TQ(α-λ)··det公司(Ohm)-经验值-(Pu- q) T型Ohm-1(Pu- q)(19) 我们将首先查找α的后部。因此,我们必须收集所有依赖于α的项。

26
kedemingshi 在职认证  发表于 2022-6-11 04:39:27
因为其中一个是从Volterra积分得到的近似值,所以后一个是近似分布:f*(α| r,…,rm,σ,σ,u)≈∝ 经验值-αTGα+(α- λ) TQ(α-λ)我们可以应用引理2(完成平方),y=α,a=0,a=G,b=λ,b=Q,我们得到:α| r。。。,rm,σ,σ,u≈~ N(α*, (Q+G)-1) ,其中α*= (Q+G)-1Qλ移动到σ,σ的后面,我们必须收集依赖于, 其中也包括G。我们注意到,从矩阵指数的Volterra积分近似中得到的项在后验曲线中没有显示出来。因此,这将是一个精确的分布:f(σ,σ|α,u,r,…,rm)∝ det公司()-det(JT-1J)-经验值-αTGα但是,可以以标量形式编写上述分布。通过应用附录C中的引理4,我们发现σ,σ的联合后向分布等于:f(σ,σ|α,u,r,…,rm)∝σ-n-1.σ-d-n-1exp-αTGα此外,通过应用也可在附录C中找到的引理5,我们得出方程的标量版本为:f(σ,σ|α,u,r,…,rm)∝σ-n-1exp(-2σnXi=1(αi- αv))σ-d-n-1exp(-2σdXi=n+1(αi- αc))这里,α表示方差项对数的平均值,α表示协方差项对数的平均值:αv=Pni=1αin,αc=Pdi=n+1αid- 因此,σ和σ的后验值都遵循逆伽马分布,并且它们是独立的:σ|α,u,r。。。,rm~ Γ-1n- 3,nXi=1(αi- αv)!σ|α,u,r。。。,rm~ Γ-1d- n- 3,dXi=n+1(αi- αc)!我们最终已经准备好计算u的后验值,方法是收集依赖于它的项。我们注意到,从矩阵指数的Volterra积分近似得到的项在后验值中没有显示出来。因此,就像σ和σ的后验值一样,这将是一个精确的分布。

27
mingdashike22 在职认证  发表于 2022-6-11 04:39:30
此外,我们注意到,我们模型假设中的前两个方程(方程(16)和(17))与我们使用逆Wishart先验时相同。因此,u的后验导数将相同,产生:u|α,σ,σ,r。。。,rm~ N(upost,∑post),其中upost=(m∑)-1+PTOhm-1P)-1(m∑)-1r+PTOhm-1q)∑岗位=m∑-1+PTOhm-1便士-13.4实现既然我们已经推导出了后验概率,我们准备使用吉布斯采样器来实现它。与之前唯一不同的是,我们将使用aMetropolis-Hastings算法对α进行采样,我们需要精确的后验分布。这将与从方程式(19)表示的联合分布中收集所有项(α)得到的分布成比例:exp-αTGαdet(S)-mexp-(α -λ) TQ(α-λ)我们已经看到,它会导致后面的:α| r。。。,rm,σ,σ,u≈~ N(α*, (Q+G)-1) ,其中α*= (Q+G)-1Qλπ*(α| r,…,rm,σ,σ,u)≈∝ 经验值-(α -α*)T(Q+G)(α- α*)这是一个近似值,因为方框部分是使用Volterra积分方程的多元正态pdf的近似值。

28
能者818 在职认证  发表于 2022-6-11 04:39:33
如果我们用精确的分布代替它,我们将得到:π(α| r,…,rm,σ,σ)∝ 经验值-mT比赛A+Se-A.-αTGαMetropolis Hastings的步骤是,我们将从近似的后验分布中模拟一个候选值:eα≈~ N(α*, (Q+G)-1) 我们用概率min(ρ,1)接受它,其中ρ=πeα| r。。。,rm,σ(t),σ(t),u(t)πα(t)| r。。。,rm,σ(t),σ(t),u(t)·π*α(t)| r。。。,rm,σ(t),σ(t),u(t)π*eα| r。。。,rm,σ(t),σ(t),u(t)在这一点上,记住由于1中引入的符号,我们在π之间有一个连接是有用的*π,因为在A和α之间有一个,即:α=V ec*(A) 使用刚才讨论的Metropolis-Hastings步骤,我们得到以下Gibbs采样器:算法3 Gibbs采样器log(∑)1:α(t+1)=(eα~ NQ(t)+G(t)-1Q(t)λ(t),Q(t)+G(t)-1.w、 p。

29
kedemingshi 在职认证  发表于 2022-6-11 04:39:36
min(ρ,1)α(t)其他2:因为α=V ec*(对数(∑))=>(计算∑(t+1)=expV ec*-1.α(t+1)保持∑(t)3:σ(t+1)~ Γ-1.n-3,Pni=1αi(t+1)- αv(t+1)σ(t+1)~ Γ-1.d-n-3,Pdi=n+1αi(t+1)- αc(t+1)=>=> (t+1)=“σ(t+1)InOOσ(t+1)Id-n#4:Let∑u=m∑(t+1)-1+PTOhm-1便士-1.=> u(t+1)~ NΣum∑(t+1)-1r+PTOhm-1季度, Σu5: 计算S(t+1)=Pmi=1国际扶轮社-u(t+1)国际扶轮社-u(t+1)Tm,λ(t+1)=V ec*日志S(t+1), dj(t+1)和ej(t+1)分别是S(t+1)的特征值和归一化特征向量。6: 通过从方程V ec中识别对数(σ)矩阵的条目系数来计算f(t+1)ij*日志∑(t)fij(t+1)=ei(t+1)对数∑(t)ej(t+1)7:计算ξ(t+1)ij=(di(t+1)-dj(t+1))di(t+1)dj(t+1)(对数(di(t+1))-log(dj(t+1)))8:计算Q(t+1)=mPni=1fii(t+1)fii(t+1)t+mPni<jξij(t+1)fij(t+1)fij(t+1)T9:计算(t+1)=身份证件- J(JT(t+1)-1J)-1JT(t+1)-1.T(t+1)-1··身份证件- J(JT(t+1)-1J)-1JT(t+1)-1.3.5结果正如我们之前所做的那样,在本节中,我们将从投资者观点的后验距离和使用该模型进行交易时获得的收益两方面描述模型对信心水平变化(ωi)的敏感性。在我们深入研究此版本模型的实际结果之前,请注意(1)和(2)都适用。基本上,这意味着Ohm 越小,我们在视图中的满意度越高,因为我们假设Pu~ N(q,Ohm). 同样的假设指出,较小的Ohm 是,Pu应更接近q。因此,a非常小Ohm 表明投资者对这一观点非常认同,因此,后验值也应接近q。因此,我们的Ohm 是,Pupost应与q更接近。在本节的第一部分,我们将展示一些与之前所示类似的图。

30
能者818 在职认证  发表于 2022-6-11 04:39:39
我们将采取两种观点,并对以下两个对角线条目的可能值组合进行彻底搜索:Ohm (描绘为2轴)并计算与之前相同的距离:| Pupost- q |(表示为1轴)。我们选择了相同的4只股票(AAPL、AMZN、GOOG、MSFT),我们将使用与我们在第2.8节:2014年1月2日至2017年12月29日的每日回报率中给出结果时相同的数据集。我们将使用以下输入(列的顺序也是AAPL、AMZN、GOOG、MSFT,行表示视图):q=0.020.05, P=-1 1 0 00 0 1 -1.就像我们有一个P非平方和一个逆Wishart先验一样,在这个版本的模型中,我们可以使用比只使用逆Wishart先验和增广矩阵P时更小的置信水平。这一次可以选择ωi(定义为Ohm) 订单号10-7没有任何数字问题。对于这里给出的结果,我们让(ω,ω)的范围在10-6至10-然而,我们可以想象,这种方法比在∑上有一个逆Wishart更具计算开销。因此,在多个岩芯上并行进行穷举搜索(每个岩芯运行Gibbs采样器以获得1对岩芯(ω,ω)),范围本身被分为4个范围:(ω,ω)∈-6.→ 10-5, 10-6.→ 10-5.-5.→ 10-4, 10-5.→ 10-4.-6.→ 10-5, 10-5.→ 10-4.-5.→ 10-4, 10-6.→ 10-5.这些范围中的每一个都被分割成一个由4个点组成的等距网格,每个点在一个核上运行。刻录周期设置为10,迭代次数设置为10。虽然这些看起来相对较小,但当ωiaresmall时,收敛速度实际上非常快。图15:log(∑)先验距离我们注意到,在这个版本的模型中,当o1(模型中的ω)和o2(模型中的ω)变为0时,距离很快收敛到0。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-7 06:07