|
我们将偏差初始化为0,并将TensorFlow函数“tf.truncated\\u normal”集的初始权重设置为“0”和标准偏差“M/1”(M是前一层的大小)。表3:。神经网络的结构。神经网络体系结构层数隐藏层脱落DNN8\\U 1100-100-50-50-10-1050%DNN8\\U 2100-100-70-70-50-50DNN8\\U 3120-120-70-20-20DNN8\\U 4120-120-80-80-40-40DNN5\\U 1100-50-1050%DNN5\\U 3120-70-20DNN5\\U 4120-80-40NN3\\U DO\\U 150%NN3\\U DO\\U 2NN3\\u DO\\u 3NN3\\u DO\\u 4NN3\\u 10%NN3\\u 2NN3\\u 3NN3\\u 4支持向量回归和随机森林。支持向量回归(SVR)和随机森林(RF)是用scikit learn实现的。SVR的问题定义是-SVR[15]是用类“sklearn.svm.SVR”实现的。对于超参数C、gamma、epsilon,我们实现了C的24种组合模式 {0.1,1.0,10.0},γ {0.0001,0.001,0.01,0.1},ε {0.01, 0.1}. 作为一个接口,我们使用径向基函数(RBF)作为核的类型。我们还将RF定义为回归问题[16],并使用scikit learn中的类“sklearn.essemble.RandomForestRegressor”实现。对于超参数max\\u特性max\\u depth,我们实现了由16个max\\u特性组合模式添加的37个模式 {5、10、15、20},最大深度 {3、5、7、9}和21种max\\U特征组合模式 {25、30、35},最大深度 {3, 5, 7, 9, 11, 15, 20}.作为交叉点,我们将n\\u估计器(树数)设置为1000.4实验结果4.1浅层与深层神经网络稳定4显示了表3所列神经网络模式的结果。所有值均为每月平均值。我们对H:p进行了单侧测试 50%对H:p 50%用于方向。每组4个图案的最佳值以粗体显示,每列中的最佳值也加下划线。首先,我们看一下CORR。
|