楼主: nandehutu2022
366 25

[量化金融] 基于Copula的层次风险聚合-树依赖抽样和 [推广有奖]

11
mingdashike22 在职认证  发表于 2022-6-27 11:27:21 |只看作者 |坛友微信交流群
定理的第二部分指出,copula和边际分布函数可以用来构造新的多变量分布。2.2聚合树模型在引言中,我们提出了分层风险聚合的思想,并且我们了解到,这种方法最好用所谓的聚合树来表示。我们的目标是引入一些定义和符号惯例,以便以合理的数学方式描述分层风险聚合模型。我们将严格遵循Arbenz等人提出的术语。有根树采用图论中的部分术语来描述树结构似乎是合理的。因此,我们将首先介绍有根树的概念。有根树由分支节点和叶节点组成,其中一个不同的分支节点是根。根节点表示为 而其他节点则由自然数ij的元组(i,…,id)表示∈ N、 Ifa节点(i,…,id)∈ NDI不是叶节点,它分支为多个n(i,…,id)∈ N个子元素,由(d+1)-元组(i,…,id,1),(i,…,id,2),(i,…,id,N(i,…,id))∈ Nd+1。定义2.3有限集τ{}∪S∞n=1nn表示有根树if1。根 包含在τ,2中。对于每个节点,I=(I,…,id)∈ τ、 儿童人数由NI给出∈ N、 即节点i有一个子节点(i,…,id,k)∈ τif且仅ifk∈{n∈ 编号:1≤ n≤ NI},2.2。聚合树模型3。每个节点(i,…,id-1,id)∈ τ的父节点由(i,…,id)表示-1) ∈τ.示例2.4 Letτ={, (1) ,(1,1),(1,2),(2,1),(2,2),(2)},如图2.1所示。

使用道具

12
kedemingshi 在职认证  发表于 2022-6-27 11:27:23 |只看作者 |坛友微信交流群
注意,τ定义了示例1.1中使用的结构树。图2.1:有根树τ的图示={, (1), (1, 1), (1, 2), (2, 1), (2, 2), (2)}.我们定义了每个根树τ的以下子集:1。叶节点用L(τ)={I表示∈ τ:NI=0}。2、分支节点为B(τ)={I∈ τ:NI>0}=τ\\L(τ)。3、节点I的子节点=(I,…,id)∈ B(τ)定义为C(I,τ)={(I,1),…,(I,NI)}。4、节点I的后代=(I,…,id)∈ τ定义为D(I,τ)={(j,…,jk)∈ τ:k≥ d、 (j,…,jd)=(i,…,id)}。5、节点I的叶后代∈ τ定义为L D(I,τ)=L(τ)∩D(I,τ)。6、节点I的叶后代数∈ τ用MI=#L D(I,τ)表示。聚合树本节介绍了基于给定根树τ的风险聚合方法。我们定义了一些概率空间(Ohm, A,P)随机向量(SI)I∈分配给每个节点I的τ∈ τa随机变量XI:Ohm → Rsuch thato对于叶节点I∈ L(τ),XI代表我们感兴趣的聚合风险,o分支节点XI,I∈ B(τ)由其系数的总和给出:XI=XI,1+…+十一、 镍。在下文中,我们将进一步使用这样的约定,即无论何时编写,我∈ B(τ),用粗体字母表示由xi定义的随机向量:=(XJ)J∈L D(I,τ),2。具有组件的分层风险聚合XJ,用于J∈ L D(I,τ),其中分量按其索引J按字典顺序排列。为了便于记法,每当含义明确时,我们会去掉索引向量的括号以及参数τ。例如,X(1,1)=X1,1,D(I,τ)=D(I)和L D((1,1),τ)=L D(1,1)。上一节中定义的根树表示各个风险的聚合层次。

使用道具

13
mingdashike22 在职认证  发表于 2022-6-27 11:27:26 |只看作者 |坛友微信交流群
为了完成聚合树模型,我们还需要定义边际分布FI,I∈ L(τ),以及分支节点I的子节点之间的依赖结构。依赖结构通过copulas CI,I给出∈ B(τ)。总之,聚合树模型由三元组给出τ、 (FI)I∈L(τ),(C)I∈B(τ)(2.2)由o有根树τ;o分布函数FI:R→ [0,1]对于所有I∈ L(τ);o连接词CI:[0,1]NI→ [0,1]对于所有I∈ B(τ)。示例2.5在我们的主要示例1.1中,三元组(2.2)将包含树τ={, (1), (1, 1), (1, 2), (2, 1), (2, 2), (2)}; 四个单变量分布函数F1,1、F1,2、F2,1和F2,2;和三个二元copula C,Cand C.轻度树依赖和树依赖随机向量基于三重(2.2),我们刻画了一类随机向量(X)I的分布∈τ.给定三(2.2),(X)I的定义2.6∈如果满足以下三个条件,则τ称为轻度树依赖对于每个叶节点I∈ L,随机变量xi具有分布FI;FI(x)=P[XI≤ x] 对于所有x∈ R、 o对于每个分支节点I∈ B、 XI是其子代的总和,即XI=∑NIi=1XI,i。xi的边际密度函数用FI表示:R→ [0, 1].o 对于每个分支节点I∈ B、 其子代C的依赖结构由copula CI给出,即P【XI,1】≤ x、 ,十一、 NI公司≤ xNI]=CI(FI,1(x),FI,NI(xNI)),对于所有(x,…,xNI)∈ RNI。2.2. 聚合树模型下面的示例演示了一个轻度依赖于树的随机向量。示例2.7考虑聚合树模型τ、 (FI)I∈L(τ),(C)I∈B(τ)来自示例2.5中规定的主要示例1.1。

使用道具

14
mingdashike22 在职认证  发表于 2022-6-27 11:27:29 |只看作者 |坛友微信交流群
假设(XI)I∈τ=(X, 十、 X1,1,X1,2,X2,1,X2,2,X)对模型有轻微的树依赖性τ、 (FI)I∈L(τ),(C)I∈B(τ):P[X1,1≤ x] =F1,1(x),P[X1,2≤ x] =F1,2(x),P[X2,1≤ x] =F2,1(x),P[X2,2≤ x] =F2,2(x),x∈ R、 回想一下,X=X1,1+X1,2,X=X2,1+X2,2和X= X+X.copulac,C和C分别确定(X1,1,X1,2),(X2,1,X2,2)和(X,X)的依赖结构:P[X1,1≤ x、 X1,2≤ x] =C(F1,1(x),F1,2(x)),P[X2,1≤ x、 X2,2≤ x] =C(F2,1(x),F2,2(x)),P[x≤ x、 x个≤ x] =C(F(x),F(x))。回想一下,图1.1说明了聚合结构。根据Sklar定理2.1,应该清楚的是,在上述示例2.7中,随机向量(X1,1,X1,2)、(X2,1,X2,2)、(X,X)的分布,因此也包括总风险X的分布= X+X通过聚合树模型(τ,(FI)I)唯一特定∈L(τ),(C)I∈B(τ))。我们将在下一节中陈述一般结果。另一方面,如引言中所述,所有风险的联合分布(X1,1,X1,2,X2,1,X2,2)不是唯一规定的。换言之:给定一个聚合模型(τ,(FI)I∈L(τ),(C)I∈B(τ))一般存在多个轻度树依赖的随机向量(X)I∈τ.Arbenz等人[1]提出了一个额外的条件,使联合分布具有唯一性。该条件在以下定义中制定。定义2.8对于给定的三元组(2.2),轻度依赖树的随机向量(X)I∈对于每个分支节点I,τ称为树相关if∈ B(τ),给定XI,其后代(XJ)J∈D(I)在条件上独立于剩余节点(XJ)J∈τ\\D(I):(XJ)J∈D(一)⊥(XJ)J∈τ\\D(I)| xi对于所有I∈ B(τ)。

使用道具

15
能者818 在职认证  发表于 2022-6-27 11:27:32 |只看作者 |坛友微信交流群
(2.3)在续集中,(2.3)将被称为条件独立假设。示例2.9再次考虑前面示例中的聚合模型,条件独立性假设如下:(X1,1,X1,2,X)⊥(X2,1,X2,2,X,X) | 十、 (X2,1,X2,2,X)⊥(X1,1,X1,2,X,X) | 十、 2。层次风险聚合一可以表明,在这种附加条件下,树依赖的随机向量存在且唯一。我们将在下一节中说明一般结果。有条件的独立性假设(2.3)乍一看似乎很令人困惑,这在实践中是否合理值得怀疑。我们稍后将在第4.3.2.3节存在性和唯一性中讨论这一点。在这一节中,我们将讨论树依赖和轻度树依赖随机向量分布的存在性和唯一性。再次回顾树依赖和轻度树依赖的定义,很明显,轻度树依赖比树依赖涵盖了更大的多变量分布空间。任何依赖于树的随机向量都是依赖于树的,反之则不成立。给定聚合树模型τ、 (FI)I∈L(τ),(C)I∈B(τ), 轻度树依赖随机向量(X)I的存在性∈根据Sklar\'sTheorem 2.1,τ相当明显。我们之前已经提到,一般来说,轻度依赖树的随机向量的分布不是唯一的。考虑到较小的树相关随机向量类,其存在性不明显。Arbenz等人[1]证明,在轻度依赖树的分布中,确实存在一个满足(2.3)的分布:定理2.10给出了聚合树模型(2.2),依赖树的随机向量(X)I∈τ存在,其联合分布是唯一的。证明见【1】第125页。

使用道具

16
nandehutu2022 在职认证  发表于 2022-6-27 11:27:34 |只看作者 |坛友微信交流群
我们还陈述了以下关于依赖于mildlytree的随机向量的一个重要性质的结果。命题2.11给出了聚合树模型(2.2)和一些固定的∈ B、 然后,对于所有轻度树依赖向量(X)I,向量(XI,1,…,XI,NI)的分布相等∈τ.证明Sklar定理2.1的简单应用。见[1]126页。特别是,根据命题2.11,总骨料X的分布对于任何轻度依赖树的随机向量(X)I也是一样的∈τ.第3章样本重新排序算法在大多数情况下是感兴趣的数量(例如,X的分布) 对于无法解析计算的聚集树模型,Arbenz等人[1]提出了一种用于轻度树相关性数值近似的采样算法。例如,通过该算法获得的样本可用于近似总骨料X的分布.在本章中,我们首先介绍了Arbenz等人提出的样本重新排序算法。然后,我们陈述了一些收敛结果,并在本章末尾进行了一个数值示例,提出了新的问题并激励了后续章节。3.1算法定义Arbenz等人[1]的采样算法使用自下而上的方法来实现轻度树依赖的数值近似。其基本思想可概括如下:1。模拟所有叶节点的独立边缘样本XI,I∈ L2、模拟来自CIF的所有分支节点的独立copula样本∈ B3、对于I∈ B、 根据第1步至第2步的经验裕度和经验总体,递归确定XIand(XI,1,…,XI,NI)分布的近似值。为了便于记法,让GI:RNI→ [0,1]对于I∈ B表示(XI,1,…,XI,NI)的联合分布函数,XI的子函数:GI(x,…,xNI)=P[XI,1≤ x、 ,十一、 NI公司≤ xNI]=CI(FI,1(x)。

使用道具

17
何人来此 在职认证  发表于 2022-6-27 11:27:37 |只看作者 |坛友微信交流群
,FI,NI(xNI))。3、样本重排序算法算法3.1 Fix n∈ N1、从叶节点XI、I生成n个独立样本∈ L和copulas CI,I∈ BoXkI~ FI,对于k=1,n、 oUkI=(英国,1I,…,英国,NII)~ CI,对于k=1,n、 2。确定经验利润FnI:R→ [0,1],I∈ L,byFnI(x)=nn∑k=1{XkI≤x} ,x∈ R、 和经验copulas CnI:[0,1]NI→ [0,1],I∈ B、 byCnI(u)=nn∑k=1(Rk,1In≤uRk,NIIn≤uN),对于u=(u,…,uNI)∈ [0,1]NI,其中Rk,iI是英国的排名,iI在setnUj内,iIonj=1:Rk,iI=n∑j=1nUj,iI≤英国,iIo。3、对于I∈ B、 递归定义为GIand FI的近似值:GnI(x,…,xNI)=CnI(FnI,1(x),FnI,NI(xNI)),对于(x,…,xNI)∈ RdandFnI(t)=ZRNI{x+…+xNI≤ t} dGnI(x,…,xNI),用于t∈ R、 事实证明,将经验copulas应用于经验利润率(用于GnI定义)可以有效地表示为样本排序。这个想法可以追溯到Iman和Conover[6],Arbenz等人[1]对此进行了改编:定理3.2在下文中,置换表示从{1,2,…,n}到{1,2,…,n}的双射映射让排列pIfor I∈ τ \\  通过pI确定,i(k)=Rk,iI,k=1,n、 3.2。收敛结果o递归确定样本XkI,k=1,n、 对于I∈ B byXkI公司=∑J∈C(I)X(pJ(k))J=X(pI,1(k))I,1+…+X(pI,NI(k))I,NI,其中X(k)j表示nxj的k阶统计量,XnJo:X(1)J≤ X(2)J。≤ X(n)J.然后是GnI,代表I∈ B、 还有FnI,因为我∈ τ、 满意度ygni(x,…,xNI)=nn∑k=1X(pI,i(k))i,i≤XI对于所有i=1,。。。,镍, (3.1)FnI(x)=nn∑k=1{XkI≤x} 。(3.2)证明见【1】第127页。算法3.1现在可以根据样本重新排序来制定。Westart独立模拟叶节点和连接函数,从而获得样本XkI,k=1,n、 对于I∈ L和UkI,k=1,n、 对于I∈ B

使用道具

18
何人来此 在职认证  发表于 2022-6-27 11:27:40 |只看作者 |坛友微信交流群
然后,我们使用排列pI,ito连接适当的顺序统计量,并定义GnIby(X(pI,1(k))I,1,X(pI,NI(k))I,NI),k=1,n(3.3)因此,通过加入适当的顺序统计量,可以使用置换PICA将正确的依赖结构引入最初独立的样本中。对于分支节点I∈ B、 成分总和确定了FIas XkI=X(pI,1(k))I,1+…+的原子X(pI,NI(k))I,NI。我们迭代地从树的底部到顶部重新排序。可以在[1]中找到一个插图示例。稍后,我们将提出另一种重新排序样本的方法。另一种方式似乎不太自然,也不太容易理解,但产生的原子完全相同,因此定理3.2的陈述仍然成立。此外,它允许我们就我们改进算法近似的轻度树依赖向量的联合分布得出一些结论。话虽如此,我们在下一节继续讨论一些收敛结果。3.2收敛结果在本节中,我们陈述了算法3.1的主要收敛结果。在这里,我们克制自己,提供一个深入的演绎和分析3。示例重新排序算法显示了以下结果,我们参考Mainik[7]以获得更一般设置中的详细推导。为了表述结果,我们需要一些额外的符号。对于连续边距和t∈ 定义BI(t)∈ [0,1]NIasBI(t)=n(FI,1(x),FI,NI(xNI)):(x,…,xNI)∈ RNI,x+。

使用道具

19
大多数88 在职认证  发表于 2022-6-27 11:27:43 |只看作者 |坛友微信交流群
+xNI=toLet Uδ(BI(t))表示BI(t)在[0,1]NI中的δ-邻域:Uδ(BI(t))=nx∈ [0,1]NI:kx- 对于某些y,yk<δ∈ BI(t)o。对于绝对连续的copulas CI,我们用CI表示密度:[0,1]NI→[0, ∞).定理3.3假设∈ B copulas CIare绝对连续且满足limδ→∞支持∈RZUδ(BI(t))cI(u,…,uNI)du···duNI=0。然后,对于每个分支节点I∈ B、 limn公司→∞supx公司∈RNI | GnI(x)- GI(x)|=0 P- a、 s.,limn→∞支持∈R | FnI(t)- FI(t)|=0 P- a、 美国证明见Mainik【7】。正确把握定理3.3的含义至关重要。定理3.3没有说明算法3.1中重新排序的样本是否接近(轻度)树依赖的随机向量。相反,它简单地告诉我们,只要满足连接函数的条件,样本就近似于分布GI,I∈ B、 具有轻度树依赖分布的特征。特别是,样本近似于分布F总骨料X的.3.3数值实验在前面的章节中,我们介绍了分层聚合树模型。到目前为止,关于这一主题的论文主要集中在X的总量上作为利息的数量。Arbenz等人[1]提出了重新排序算法3.1(包括定理3.2),该算法产生的样本近似于总骨料的分布(回忆定理3.3)。尚未解决的问题是,这些样本是否实际上近似于轻度依赖于树的3.3。数值实验,甚至树相关随机向量。在下文中,我们现在将重点转向这一相关问题。我们强调,以下内容尚未在之前的任何论文中讨论,并且超出了当前关于这一主题的理论结果。我们从一个数字激励示例开始讨论。

使用道具

20
可人4 在职认证  发表于 2022-6-27 11:27:47 |只看作者 |坛友微信交流群
该示例的结果令人惊讶,并给出了问题答案的第一个提示。定义模型首先是聚合树模型τ、 (FI)I∈L(τ),(C)I∈B(τ)需要特别说明。我们再次考虑潜在客户示例1.1中的情况。通过示例2.5,我们知道在该设置中,聚合树模型包含树τ={, (1), (1, 1), (1, 2) , (2, 1), (2, 2), (2)}; 四个单变量密度函数F1,1、F1,2、F2,1和F2,2;和三个二元copulac,Cand和C.假设F1,1、F1,2、F2,1和F2,2由均值为4,2,0,3的正态分布给出;方差3、4、10、2分别为:F1,1(x)=Φx个-4.√, F1,2(x)=Φx个-2.√,F2,1(x)=Φx个√, F2,2(x)=Φx个-3.√.进一步假设C,C正态copula与correlationmatricesR=1 0.70.7 1, R=1 0.50.5 1, R=1 0.20.2 1.请注意,在我们的模型中,所有叶节点都是法线,所有连接函数都是法线连接函数。因此,我们处理的是高斯聚合树模型。高斯聚集树模型具有唯一树相关向量(XI)I∈τ是多元正态分布,可以通过简单的递归公式显式计算(见[1]中的命题2.8])。对于树相关随机向量(XI)I∈τ、 我们根据[1]中的命题2.8推导出X的分布= (XJ)J∈L D()= (X1,1,X1,2,X2,1,X2,2)~N(u, Σ) 多变量正态分布,u=, Σ=3 2.4249 0.9502 0.32902.4249 4 1.1254 0.38960.9502 1.1254 10 2.23610.3290 0.3896 2.2361 2. (3.4)3. 样本重新排序算法Numerical resultWe现在将重新排序算法应用于上述聚合树模型。

使用道具

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-6-17 13:29