|
虽然两者都依赖于经验过程理论,但第一种方法使用的是收缩不等式,它比第二种基于VC维度的证明提供了更严格的上界。基于经验过程理论的证明表明,DNN中预测和解释损失的估计误差可以是有界的,或者至少由土地规则化控制。我们认为这一部分是至关重要的,因为经验过程理论为依赖于用于个人选择建模的高维统计工具的未来研究提供了新的基础。我们在下面的章节中只列出了关键命题,附录II中提供了详细的证明。定义7。经验Rademacher复杂性定义为^Rn(F | S)=Ehsupf∈FNNXi=1if(xi)一(15)我∈ {+1, -1} 概率为[0.5,0.5];F | SDE注意到投射到样本S的函数类F。命题2。^f的估计误差可由Rademacher复杂度上界[L(^f)- L(f*F) ]≤ 2ES^Rn(lo F | S)(16)提案2的证明见附录II。A、 Rademacher复杂性度量数据集S上函数类F条件的复杂性。命题2表明,估计误差可以由函数类l的复杂性上界oF、 定义为loF={lof(x)| f(x)∈ F} 。直观地说,随着函数类f变得更大,很难搜索最佳模型^f。Italso与传统统计学一致,因为VC维度越高或参数越多(函数类越复杂),估计误差越大。具体而言,命题2可用作预测和解释损失估计误差的上限:命题3。预测损失的估计误差可以(间接)为上界[L0/1(^f)-^Lγ(^f)]≤γES^Rn(F | S)(17)命题4。
|