|
(10) 在左手边S(Gt;g+)应替换为S(Gt;g+),右侧ln(g+σ)替换为lng+σg++σ。定理6。如果u+满足某些τ>0的变分源条件(17),则S=Sτ的非线性Tikho-nov正则化(6)具有全局极小值bFα,并且选择正则化参数,使得α-1.∈ -( -Λ)2ρ√N, (18) 然后我们就有了eEhDf*f)i(bf)R+Λ√N, N→ ∞. (19) 为了证明牛顿型迭代的收敛性,我们还必须施加一个与我们的数据误差项相适应的切向锥条件。LetTτ(u;v):=(KL(u+τ,v+τ)如果v≥ -τ/2∞ 其他的我们假设对于所有的f,g∈ bctctτu+;F(g)- ηTτu+;F(F)≤ Tτu+;F(F)+F′[F](g)- f)≤ CtccTτu+;F(g)+ ηTτu+;F(F)(20) η足够小且Ctcc>1。我们还设置了Sτ(Φn;v):=∞ 如果v≥ -τ/2. 然后我们可以在[24]中展示定理7。让我们的假设(17)、(20)成立。Ifbfkis由迭代牛顿法(7)定义,其中k∈ N是最大的指数,因此α-1k≤ 啜饮-(-Λ)2ρ√N, (21)SDEs 11THENHDF中的参数识别*R(buk,f+)i=OΛ√N. (22)备注1。(i) 对于迭代正则化的Gauss-Newton方法和Ldata fidelity项,存在相关结果。这些定理不是(20),而是假设切向锥条件(8)。Ka ltenbacherand Hofmann[26]、Hohage and Werner[24]或Dunker等人[14]证实了类似的结果。二次数据项的收敛率与(22)中的比率进行比较。(ii)选择规则(21)使用了关于指数函数∧的先验信息,这在实践中通常不可用。[24]中显示,可以使用数据驱动的Lepskii型参数选择。在最终的收敛速度中,只有对数因子最慢:EhDf*R(bfkLepskii,f+)i=OΛln(n)-1)√N.4.
|