|
图2的下一行显示了选择概率和输入变量之间的关系,输入变量的样本大小从100到1000000不等。在每个子图中,黑色曲线代表真实的s*(x) ;每条红色曲线表示DNN的估计函数^s(x),每条蓝色曲线表示BNL的估计函数^s(x)。随着样本量的增加,DNN和BNL中预测和解释损失的估计误差均收敛到零,DNN估计误差的收敛速度仅略慢于BNL,如图2a至2d所示。毫不奇怪,估计误差总是随着样本量的增加而减少,因为等式17和18意味着较大的样本量会导致较小的样本外预测和解释损失。在场景1,f中是什么*Fis与f相同*. 因此L(f*F) 由黑色虚线表示(a)预测损失(20 Var)(b)预测损失(50 Var)(c)解释损失(20Var)(d)解释损失(50Var)(e)选择概率曲线(20 Var);样本量=100、1000、10000、100000、1000000图。2、场景1。上排:比较DNN和BNL的预测和解释损失;下一行:可视化选择概率如何随输入变化;红色曲线:DNN,蓝色曲线:BNL,黑色曲线:真实模型。上一行中的图与表1中的理论框架对应:红色和黑色曲线之间的差异是DNN的预测/解释损失,由于近似误差为零,因此仅等于这种情况下的估计误差。令人惊讶的是,DNN的收敛速度仅略慢于BNL,尤其是从经典统计角度来看,因为DNN中的参数数量是简约BNL模型的2000倍。
|