|
两个独立项的乘积可以由imt来接受→∞经验θX(t)∧ τk*) - (θu+θ)(t)∧ τk*)= 1{τk* <∞}经验θk*- (θu+θ)τk*, (41)其中1{τk* <∞}=(1)如果τk*< ∞如果τk为0*= ∞.取方程40中的极限,并将极限与期望互换,作为支配收敛定理的结果,我们得到:{τk* <∞}exp(θk)*- (θu+θ/2)τk*)= 1(42)E[1{τk* <∞}E-(θu+θ/2)τk*] = E-θk*,这适用于(θu+θ/2)>0和θ>0。对于u>0的情况(即α- rf>σ/2),我们可以取方程42中θ两边的极限↓ 产生P(τk)的0*< ∞) = 1.然而,对于u<0和u>- θ/2,θ只能收敛到正常数θ↓ -2u,我们得到[1{τk* <∞}] = e2uk*< 1,对于u<0(43),因此P(τk*< ∞) < 1.情况的蒙特卡罗实验:0<α- rf<σ/2我们证明,对于0<α,我们没有获得统计套利- rf<σ/2,通过买入并持有(多头)直至障碍策略。考虑由α=0.05,rf=0.04,k=0.05,σ=0.2,N=100 00,M=252给出的参数。在图E10中,我们绘制了所考虑交易策略的平均值、时间平均方差和损失概率的时间演化图。我们观察到,从等式33中给出的分析公式中获得的损失概率与蒙特卡罗估计值非常接近。我们还绘制了当T→ ∞, 如等式34中的分析公式所示。在这个例子中,统计套利并不是简单地得到的,因为对于长距离障碍策略,只有当我们有α时,损失的概率才衰减为零-rf>σ/2a如等式33所示。
|