|
这里,代替φθ,γ(f)所需的强假设→ φ(f),收敛φmθ,γ(f)→ φm(f)可以通过假设神经网络的所有参数集都是紧的来表示。备注3.5。在引理3.3的假设下,命题2.3暗示φm(f)→ φ(f)形式→ ∞. 此外,根据定理2.2,收敛φθ,γ(f)的要求,对于每个ε>0,都存在ε-优化器→ γ的φ(f)→ ∞ 持有。在两种假设下,命题2.4得出φmθ,γ(f)→ φ(f)表示最小值{m,γ}→ ∞. 收敛φmθ,γ(f)→ m的φθ,γ(f)→ ∞ 是一个微不足道的后果。示例3.6。设X=[0,1],u=u=δ,f(X,X)=-|x个- x |。设Q=π(u,u)为X中所有度量值的集合,其中包含第一个边缘u和第二个边缘u,因此φ(f)=supu∈∏(u,u)Zfdu显然,φ(f)=f(0,0)=0。请注意,Q={u u}使u=u u= δ(0,0).考虑两种可能的参考度量,θ(1)=U([0,1])是[0,1]上的均匀分布,θ(2)=u u= δ(0,0). 对于θ(2),很明显,定理2.2中所要求的ε优化器的存在性已经给出,因为θ(2)本身就是φ(f)的优化器。因此φθ(2),γ(f)→ γ的φ(f)→ ∞ 持有。另一方面,不存在ν∈ 带ν的∏(u,u) θ(1),因此φθ(1),γ(f)=-∞. 然而,通过首先用φm(f)近似φ(f),函数变得更平滑:粗略峰值,边缘约束稍微放松。这在研究双公式φθ(1),γ(f)=infh,h时变得很明显∈Cb([0,1])nh(0)+h(0)+Zβγ(f- h类- h) dθ(1)oφmθ(1),γ(f)=infh,h∈Nl,1,m(Ξm)nh(0)+h(0)+Zβγ(f- h类- h) dθ(1)虽然很容易在Cb([0,1])中找到函数序列,使0处的值变为负值,但惩罚项保持有界,但如果激活函数是连续的,参数集是紧凑的,那么对于Nl,1,m(Ξm)中的函数,这是不可能的。
|