|
输入层将输入值分配给隐藏层中的单元,而输出层中的单元计算来自隐藏层的输入的加权和,以产生更高的概率。尽管没有大小限制的ANN是任何连续函数的通用逼近器[44],但随着ANN大小的增加,计算时间呈指数增长,其可预测性降低。此外,判别分析和logit/probit分析实际上可以与非常简单的ANN[68,70]相关:即具有阈值和logistic激活功能的所谓单层感知机(即无隐藏层)。本文使用具有三个自由参数的基本SLFN:隐藏层中的单元数、最大迭代次数和权重衰减。第一个参数控制网络的复杂性,而最后两个参数用于控制学习算法的收敛方式。在学术预警文献中,人工神经网络的使用相当普遍。极限学习机器(ELM)。正如Huang等人[46]所介绍的,ELM指的是用于训练SLFN型神经网络的特定清除算法。与传统的迭代学习算法不同,ELM算法将输入权重随机化,并通过分析确定网络的输出权重。当使用该算法进行训练时,SLFN通常需要隐藏层中更多的单元,但计算时间大大减少,由此产生的神经网络可能具有更好的泛化能力。本文考虑了两个自由参数:隐层单元数和网络中使用的激活函数类型。据我们所知,我们不知道以前ELM算法在crisisprediction中的应用。支持向量机(SVM)。
|