|
通过将图8与图9(b)(d)进行比较,也可以将其可视化。3.3十维示例为了说明深度学习算法的稳健性,我们在本节中考虑了一个十维综合示例,对于该示例,使用我们之前工作中的方法[33]将存在计算时间不稳定的问题。为了便于比较,我们构建了如下示例,可以访问真正的C类。设L=3个曲面,X=[-1,1]d,d=10。我们使用的曲面包括嵌入的Hartmann 6-D函数、重新缩放的Styblinski-Tang函数和重新缩放的Trid函数,如表4所示。哈特曼6-D函数有6个局部极小值和一个全局极小值atx*= (0.20169, 0.150011, 0.476874, 0.275332, 0.311652, 0.6573).我们将此函数嵌入到十维空间中,作为我们的u(x)。原始Styblinski Tang函数f(x)=Pdi=1xi- 16xi+5XI通常在[-5,5]数据,全局最小atx*= (-2.903534, . . . , -2.903534). 我们重新缩放域和函数,使其与Hartmann 6相比较。这同样适用于Trid函数。我们使用干净数据和噪声数据训练的不同层次的神经网络来研究该示例,并在表5中给出了训练和泛化精度,其中第一个数字是训练精度,第二个括号中是泛化精度。我们注意到,与之前的1-D和2-D示例类似,当使用干净的数据对神经网络进行训练时,训练精度优于泛化精度,如图8所示:预测的X=[-2,2]使用UNet。黑色实线是真实的分类C(x,x),彩色区域表示使用M=576训练数据估计的最小指数。在标准的深度学习理论中,当神经网络被噪声数据训练时,其泛化精度更好。
|