|
注意,随着历元数的增加,训练损失和验证损失都会减少;这很好地表明,预测性能会随着时代数量的增加而提高,而不会过度匹配【Kinh Gian Do等人,2018年,过度匹配部分,第619页】。唯一的例外是图5,输入长度为300或500;请注意,这两种情况也对应于较大的均方根误差值。然而,回想一下,我们的校准方案使用长度为100的输入向量,因此这不会给实际使用带来任何实际问题。16亨利·斯通图3。离散H的损失图。校准粗糙波动率模型:卷积神经网络方法17图4。H的损失图~ 均匀(0.0,0.5)。18亨利·斯通图5。H的损失图~ β(1,9)。校准粗糙波动率模型:卷积神经网络方法19附录B。η6=1的rBergomi损失图我们现在绘制每个历元的训练损失和验证损失(MSE),如上所述,对于离散H和η的rBergomi模型∈ 图6中的{0.25、0.8、1.3、2.5}。我们将输入向量长度固定为100。对于每个η值,训练损失和验证损失均随时间的推移而减少。图6:。离散H和η的损失图∈ {0.25, 0.8, 1.3, 2.5}.20 HENRY Stone附录C.rBergomi损失图,含η~ 均匀(0,3)和H~ Beta(1,9)我们现在绘制每个时期的训练损失和验证损失(MSE),如上所述,对于带有η的rBergomi模型~ 均匀(0,3)和H~ 每个示例路径的Beta(1,9),如图7所示。我们将输入向量长度固定为100。注意,训练损失和验证损失都随着每个历元而减少。图7:。η损失图~ 均匀(0,3)和H~ β(1,9)。校准粗糙波动率模型:卷积神经网络方法21附录D。
|