楼主: mingdashike22
1596 26

[量化金融] 最小二乘蒙特卡罗回归后期估计的快速收敛性 [推广有奖]

11
kedemingshi 在职认证  发表于 2022-5-4 23:28:09
现在,我们将介绍Thereess Later方法,并讨论与Regress now方法的差异。回想一下,我们假设x=gT(AT(Z))是从dd[0,T]toR\'映射的已知(可测量)函数,以及从r`toR\'映射的已知Borel可测量函数。下面的例子将说明标准的含义。也可将其与第2.1节中的对应项进行比较。例2.6。(欧洲电话与回归后)莱茨比一维和考虑anEuropean电话。然后x=(Z(T)-K) +,这里是执行价。那么,Xdoes只依赖于nz(T)。因此,我们可以对每个函数f取(f)=f(T)∈D[0,T],因此`=1。此外,gT由gT(x)=(x)给出-K)+。例2.7。(欧洲篮子选项,稍后进行回归)考虑D维EuroATf=Pdi=1fiTf∈D[0,T],因此`=1。与示例2.3比较,其中我们得到了d。此外,gT再次由gT(x)=(x)给出-K)+K为执行价。例2.8。(后面带有回归的亚洲期权)这与示例2.1相对应。为了读者的方便,并将其与示例2.4进行对比,我们在这里重复。LetZbe一维andX=“RTZ(u)du”-K×+,即执行价。然后就只能在RTZ(u)du上花费。因此,对于每个函数f,AT(f)=RTf(u)du∈D[0,T],因此`=1。与示例2.4进行比较,其中s=2。同样,我们有gT(x)=(x-K)+。例2.9。(轻度路径依赖选项,稍后回归)如例2.5所示。对于每一个函数f,n(f)=(f(u),f(T∈D[0,T],因此`=2。回想一下,在例2.5中,我们有s=1。以上示例说明了应用于后回归方法的符号。它们还表明,现在倒退和以后倒退之间可能存在根本性的区别。正如引言中已经提到的,与以后的回归相比,现在回归中要近似的函数在性质上可能有所不同。

12
何人来此 在职认证  发表于 2022-5-4 23:28:12
回想一下,在现在的回归中,未知函数g0,t(At(Z))是近似的,而在后来的回归中,已知函数gt(At(Z))是最初感兴趣的。虽然现在倒退和以后倒退的最终目标都是不同的。如例2.7、2.8、2.9及其“立即回归”对应项所示,在相同的问题设置下,待近似函数的维数可能在“立即回归”和“稍后回归”之间有所不同。待逼近函数的维数可能是选择现在回归和以后回归的一个决策标准。在第3节中,我们研究了两种估计量的收敛速度,并为使用回归后的估计量提供了有力的论据。假设支付函数的平方可积性,这意味着∈L-R`,B(R`),帕特(Z)。因此,根据与第2.1节相同的论点,X=gT(AT(Z))=∞Xk=1αlatkelatk(AT(Z)),其中(c)elaka∞k=1是L~R`,B(R`),PAT(Z)的可数正交基。请注意,与“立即回归”方法相比,byconstruction的投影误差为零。αlatk=EPhX elak(AT(Z))i给出的系数αlatkare。在回归方法中,我们使用筛子和近似值=∞Xk=1αLatkeLatkB通过一定数量的回归系数,即gKT=KXk=1αlatkelatk=αlatK\'TelatK,其中αlatK=(αlat,…,αlatK)TandelatK=(elat,…,elatK)T.定义通常由aKT得出的近似误差Aktas:=gT-gKTwe获得表达式x=gKT(AT(Z))+aKT(AT(Z)),(2.2),如前所述,该表达式不包含投影误差。还要注意的是,EP英镑gKT(AT(Z))aKT(AT(Z))·=0。需要再次强调的是,近似误差收敛到零→∞inL。对于回归,现在使用给定(模拟)sampleNx、ATz等的筛子,xN,ATzNgKTprojection“导致^gKT=^αlatK^TelatK,αlatK=uElatK^-1 LatK\'TX,X=(X,…,xN)TElatKN×KnthelatKATznn=,N

13
能者818 在职认证  发表于 2022-5-4 23:28:16
注意,^αlatk对应于通常的最小二乘估计量,它是从时间T的K个基函数的x回归中得到的。3使用筛子后回归的收敛速度在本节中,我们推导了使用筛子后回归的收敛速度,并对使用筛子后回归的收敛速度进行了评论。我们从回归估计量的分析开始。我们的证明方法遵循Newey(1997)。它的陈述部分遵循汉森诺恩的观点。我们在Newey(1997)的假设3中举例说明了这一点。d=(不要与我们在这里用于Z维度的d相混淆)的假设如下所示,在回归之后,有γ>0,α板条。t、 好的∈D’gT(x)-gKT(x)\'\'\'\'\'\'=supx∈燃气轮机(x)-αlatK\'TelatK(x)\'\'\'\'\'\'\'\'\'\'\'\'\'=O(K-γlat)(3.1)作为K→∞, 其中D是gT的域。请注意,条件(3.1)独立于概率度量P。从非参数的角度来看,这是完全有意义的,因为如果它是满的,收敛率知道P,因为它是模拟中使用的度量,并且由用户控制。因此,(3.1)要求Gtis有界或非紧,除非Gtis在LatK的跨度内。在美国期权定价的背景下,Stentoft(2004)通过明确忽略分布的远内和远外尾部来规避这个问题。尽管这在美式期权的背景下是一个合理的假设,但在其他应用领域,在整个领域获得结果肯定是受欢迎的。如我们所知,引脚3.1。有γ板条>0,α板条。t、 rEPhgT(在(Z)处)-(αlatK)TelatK(AT(Z))、i=sZR``gT(u)-(αlatK)TelatK(u)、dPAT(Z)(u)=sZR`aKT(u)dPAT(Z)(u)=O K-γlat×。请注意,假设3.1并不要求GT是有界的,也不要求它的域是isO-K-右侧的γlatc项与P无关。

14
nandehutu2022 在职认证  发表于 2022-5-4 23:28:22
如果条件(3.2)和假设3.1和3.2成立,我们有^αlatK(N)-αlatK(N)`T^αlatK(N)-αlatK(N)\'=oPK(N)-γlat×。到弗罗贝尼乌斯范数中的单位矩阵。引理3.2考虑了估计系数估计误差的收敛性。现在我们给出上述定理的证明。定理3.1的证明。首先,请注意假设3.1意味着P·ugT(在(Z)处)-αlatK'TelatK(AT(Z)),≤好的-Cauchy-Schwarz和thatE-Phelatk(AT(Z))gT(AT(Z))的γlat*(3.5)-(αlatK)TelatK(AT(Z))\'i=0,k=1,。。。,K因此,E~P·gT(AT(Z))-^gK(N)T(AT(Z)),=E)P·ugT(AT(Z))-αlatK(N)\'\'TelatK(N)(AT(Z)),+E!P·μαlatK(N)\'\'TelatK(N)(AT(Z))-^gK(N)T(AT(Z)),≤ 好的(N)-γlatc+^αlatK(N)-αlatK(N)`T^αlatK(N)-αlatK(N)\'=O~K(N)-γlat、+oPK(N)-γlat■=OP(K(N)-γlat),(3.6),其中不等式来自(3.5),第二等式来自引理3.2。一个近似误差e~P·ugT(AT(Z))-αlatK(N)`TelatK(N)(AT(Z)),,以及一个估计误差P·αlatK(N)`TelatK(N)(AT(Z))-^gK(N)T(AT(Z)),。值得再次强调的是,对于以后的回归,两者都完全由近似误差的速度和k(N)的增长率驱动。估计误差完全由近似误差的速度和k(N)的增长率驱动,这是因为方程(2.2)描述了一个非标准回归问题。事实上,随着噪声项方差的增加,即aT(aT(Z))收敛到零。我们将在本节末尾对此进行进一步评论。现在让我们用筛子讨论回归的收敛速度。我们在上面讨论过,在非参数环境中,GTAT是由较弱的人提出的。现在使用筛子的情况(略有)不同。这是我们感兴趣的,没有给出。

15
nandehutu2022 在职认证  发表于 2022-5-4 23:28:25
尽管g0,tdepends仅在(Z)处,将ZUP生成的信息扩展到时间t,但评估某些属性的问题可能相当复杂,因此人们倾向于将该问题视为非参数问题,即使已知。在这种情况下,收敛速度和获得这些速度所需的条件可以从Newey(1997)的定理1中获得。g0,我们在上面用筛子做了回归分析。条款3.1和条件(3.2)。假设3.3。现在有γ>0,αnowk。t、 rEPhg0,t(在(Z)处)-(αnowK)TenowK(At(Z))、i=sZRs、g0、t(u)-(αnowK)TenowK(u)、dPAt(Z)(u)=sZRsaK0,t(u)dPAt(Z)(u)=O-现在。我们还假设假设3.4。((X,At(Z)),(XN,At(ZN))是i.i.d.和Ph值p0,t(At(Z))、|At(Z)i=σ。介绍网络)hnow:N×N→R by@hnow(N,K):=NE@P·enowK(At(Z))、TenowK(At(Z)),。我们现在可以陈述定理3.2。让假设3.3和3.4得到满足。此外,假设有一个序列K:N→(hnow,N)→0作为N→∞. (3.7)然后是P·g0,t(At(Z))-^gK(N)0,t(At(Z)),=OPuK(N)N+K(N)-现在。(3.8)结果与Newey(1997)中的定理1一致,但需要较弱的假设;(2004)作为收敛速度,K(N)/N+K(N)-现在,在(3.8)中,γ并不独立于P。注意,在回归估计的收敛速度中出现了termK(N)/N。该项不出现在回归后期估计的收敛速度中。我们将在本节末尾进一步解释这种差异。定理3.2的证明基于以下两个引理。第一个引理与引理3.1非常相似。它的证明遵循引理3.1的证明,因此省略。第二个引理与后来回归的引理不同,它解释了为什么我们得到了termK(N)/Nin方程(3.8)。其证据见附录。引理3.3。

16
可人4 在职认证  发表于 2022-5-4 23:28:30
如果条件(3.7)和假设3.4成立,我们有“N”EnowK(N)、TEnowK(N)-IK(N)\'\'\'\'\'\'\'\'\'F=oP(1),其中| | | | | | | |又是弗罗贝尼乌斯规范。此外,λminuN~EnowK(N)、TEnowK(N)~P→其中λmin(A)再次表示矩阵A的最小特征值。引理3.4。如果条件(3.7)和假设3.3和3.4成立,我们有αnowK(N)-αnowK(N)×T^αnowK(N)-αnowK(N)、=OPuK(N)N¨+OP¨K(N)-现在。现在我们给出上述定理的证明。定理3.2的证明。与定理3.1的证明类似,首先观察假设3.3简化了P·g0,t(At(Z))-αnowK、TenowK(At(Z)),≤好的-γnow(3.9)作者:柯西-施瓦兹。此外,EPhenowk(At(Z))g0,t(At(Z))-αnowK、TenowK(At(Z))i=0,k=1,。。。,K因此,E~P·g0,t(At(Z))-^gK(N)0,t(At(Z)),=E ~P·αnowK(N)、TenowK(N)(At(Z))-^gK(N)0,t(At(Z)),+E)P·g0,t(At(Z))-(αnowK(N))TelatK(N)(At(Z)),≤^αnowK(n)-αnowK(n)×T^αnowK(n)-αnowK(N)、+O(N)-γnow=OPuK(N)N¨+O¨K(N)-γ现在是(3.10),其中不等式来自(3.9),第二等式来自引理3.4。至于后来的回归(3.10)中的第一个等式说明,现在的回归也会受到两个误差的影响:近似误差EP·g0,t(At(Z))-(αnowK(N))TelatK(N)(At(Z)),,以及一个估计误差eP·αnowK(N)、TenowK(N)(At(Z))-^gK(N)0,t(At(Z)),。注意,对于以后的回归,近似误差也由近似误差的速度和k(N)的增长率驱动。然而,还要注意与后面的回归相比的差异:估计误差是由k(N)和近似误差的比率驱动的。这种差异也可以从以下方程式中看出,其中我们省略了上标now和lat(αK)-αK)=(ETKEK)-1ETK(X)-EKαK)=(ETKEK)-1ETK((X)-Eα)+(Eα-EKαK)=(ETKEK)-1ETK(p+aK),其中是一个包含所有基函数的有限维矩阵,α是后面的真应力。

17
可人4 在职认证  发表于 2022-5-4 23:28:33
然而,现在的回归不等于零。此外,无论是现在回归还是以后回归,近似误差的方差都收敛到零。然而,从附录A中引理3.4的证明中可以看出,正是投影误差导致了现在回归中的估计误差。由于后回归的均方误差中没有termK(N)/Nin,因此后回归估计可能比后回归估计收敛得更快。我们故意在这里“潜在地”陈述,因为最终收敛速度取决于γnowγ在确定γnow和γlat中的重要作用。然而,很明显,回归NowN-1g0,tapproximation错误消失,剩下rateN-1.相反,如果条件(3.2)充满K(N),则在回归后期∝n对于某些0<a<1,则回归的收敛速度随后等于n-aγlat.我们可以看到,对于a和γlatitis的正确组合,可能实现比n更快的收敛速度-1.第4节将提供一个示例。最后,我们评论了一个事实,即所讨论的收敛速度与稍微不同的问题有关。现在回归估计的收敛速度指的是对条件期望函数g0,t的收敛速度。相反,所讨论的后回归估计的收敛速度指的是对支付函数x的收敛速度。正如在《后回归》第2.2节中所讨论的,我们通过将条件期望算子应用于估计的支付函数^gK(N)T来实现对条件期望函数的近似。因此,只要回归后估值器的条件期望与条件期望x的条件期望之比,即g0,t(At(Z))由回归后的估计量对X的收敛性表示。

18
可人4 在职认证  发表于 2022-5-4 23:28:36
更明确地说,我们有eP·g0,t(At(Z))-E)Ph^gK(N)T(AT(Z))\'Fti,=E)P·E)PhX-在(184)英尺≤ EP·EP·X-^gK(N)T(AT(Z))\'Ft,-^gK(N)T(AT(Z)),,其中第一个不等式来自条件期望的Jensen不等式,最后一个等式使用期望的投影定律。4个正交分段线性函数如Sieves在这一节中,我们证明了回归的均方收敛速度比n快-1.为了在一个非常简单的设置中提出这项索赔,并避免与我们的索赔无关的技术问题,我们考虑一个紧凑的间隔。收敛性这里我们考虑一个由分段线性函数组成的基,对于这个基,为了建立收敛速度,构造和分析都很简单。此外,重要的是,建议的基础是通过正交构造,并且可以轻松设置。此外,定理3.1的结果可以显式地计算分段线性函数,因为导出的γLat适用于一大类函数。现在,我们用分段线性函数作为筛选,概述了回归后的估计。LetD=[a,a] R注意到G T(在(Z)处)的支撑。基于非重叠线性函数构造了一个正交基函数(D,B(D),~PAT(Z))。我们需要以下假设来构建我们的基本功能消费4.1。gT(AT(Z))有一个密度w.r.t.勒贝格测度,它是D上的一个正连续函数。然后,域被切分为kintervals,[bk,bk+1),k=,…,k+1,这样pr(bk≤ 在(Z)<bk+1)=1/K时,k=,。。。,K.假设4.1确保作为截断参数Kgrows,间隔可以任意小,并覆盖每个概率1/K。定义K非重叠指示器功能LATK(u):=(1如果u∈[bk,bk+1)0 otherwisefork=,…,K。通过构造,指示函数是正交的。

19
大多数88 在职认证  发表于 2022-5-4 23:28:40
在每个区间上,现在定义了两个基函数:elat0k(u):=C0klatk(u)elat1k(u):=C1klatk(u)(u)-ck),其中选择C0k、C1k和ck,使得E0k(AT(Z))和1j(AT(Z))是正交的k、 j.因此,C0k=pK,C1k=1/qEP.latk(AT(Z))(AT(Z)-ck)·和ck=kep[latk(AT(Z))AT(Z)]。通过构造,我们得到以下正交性结果Phelat0k(AT(Z))elat0j(AT(Z))i=δk jPhelat1k(AT(Z))elat1j(AT(Z))i=δk jPhelat0k(AT(Z))elat1j(AT(Z))i=0,其中δk j表示Kronecker三角洲。假设4.2。GT在(a,a)上是两次连续可微的,并且存在aB<∞苏普∈(a,a)‘gT(u)’≤引理4.1。如果假设4.1和4.2成立,确定性近似误差为K→∞;rEPhgT(在(Z)处)-gKT(AT(Z))、i=O(K-4).证据见附录A。因此,假设3.1满足γlat=4。对于方程(3.2)我们获得的方程(3.2)我们获得的方程(3.2)我们获得的方程(3.2)我们获得的(3.2)我们获得的(3.2)我们获得的(3.2)我们获得的(N,K(N,K(N)N)N(N,K(N)N)N(N)K(N)N)N)N(N)N)N(N)N)N(N)K(N)N)K(N)N)N)N)N(N(N)X)X(N)X(N)X)X(N)X)X(N)X)的=1(N)K)K(N)j)K(N)j)X=1(N)X=1(N)K(N)的=1(N)的(N)的(N)的(N)的=1)的)的)的=1(N(N)的(N)的(N)的(N)的在(Z)处+2K(N)1latk(在(Z)处)C1k(在(Z)处)-ck)+C1klatk(AT(Z))(AT(Z)-ck)i=NK(N)Xk=1K(N)+2K(N)+C1kEPhlatk(AT(Z))(AT(Z)-ck)i'≤3k(N)N+K(N)Nmaxk在(Z)处,在(Z)处-ck)·EP¥latk(AT(Z))(AT(Z)-ck)℃. (4.1)假设4.1确保每个任意间隔上有足够的变化,使得(4.1)中的分离器大于零。此外,它确保方程(4.1)最后一行中的最后一项不会比方程(4.1)最后一行中的第一项增长更快。此外,还可以确定具体的增长率。引理4.2。如果假设4.1得到满足,则以下结果保持SMAX1≤K≤K(N)EP.latk(AT(Z))(AT(Z)-ck)·EP¥latk(AT(Z))(AT(Z)-ck)℃≤O(K(N))。证据

20
可人4 在职认证  发表于 2022-5-4 23:28:43
参见附录A。因此,通过结合引理4.2和方程式(4.1)~hlat(N,K(N))≤OuK(N)N。~hlat(N,K(N))的充分条件→0 asN→ ∞这是K(N)∝ Na,定理3.1中的<1/2条件(3.2)成立。现在,定理3.1是适用的,并给出了均方P·gT(AT(Z))中的收敛率-^gK(N)T(AT(Z)),=O@P(K(N)-4). (4.2)图1:用K到30回归后期收敛图。我们立即看到叉子(N)∝ Na和Choosing仅略小于1/2 weN-2.N的蒙特卡罗速率-1.我们现在来看看回归后的估计器,它使用正交分段线性函数作为特定基础随机变量的筛选。布朗运动我们认为布朗运动W(T)是函数gt(W(T))的基础,函数gt(W(T))满足方程(4.2)的必要条件。我们考虑w(T)Kbk,bk+1,k=,KK|w|D=|zPWT∈D~nw=exp-wTp2πt然后,再次选择k(N)∝ 只有略小于1/2的Na产生的均方误差在概率上几乎以N的速率收敛-2.图1给出了K到30和N=100 K2时X=tanh(W(10))的收敛性。01.我们看到,我们已经可以在有限样本中实现快速收敛。图2给出了支付函数的均方误差,其中基函数的数量固定为k=5,只有样本量增长到10。这个例子说明,如果只增加样本量,均方误差不会进一步收敛。随着采样误差的增加,基函数的数量也在增加。图2:K=5固定的回归后期收敛图。5结论本文对回归后的估计量进行了讨论,并与目前比较流行的回归后的估计量进行了比较。两种估计器都参考LSMC解决方案。通过几个例子,阐明了“立即回归”和“以后回归”估计器的功能。

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
扫码
拉您进交流群
GMT+8, 2026-2-1 23:23