|
重要的是,这些经过训练的神经网络可能具有非常相似的预测性能,因此研究人员很难选择最终模型进行解释。第三,DNN中的选择概率函数可能是局部不规则的,因为它们的梯度可以是爆炸的,或者函数本身是非单调的,这两个都是在鲁棒DNN框架下讨论的。当选择概率函数的梯度呈爆炸式增长时,很容易找到敌对输入x,即-接近初始x(| | x- x | | p≤ ) 但它被错误地预测为与最初的x不同的标签,具有很高的可信度。这种类型的系统并不健壮,因为它们很容易被敌对的例子x所愚弄。事实上,已经发现DNN缺乏健壮性【76100】。即使是一个小的 当正确的标签应与初始输入图像x相同时,输入图像x引入扰动,DNNs将新生成的图像x标记为具有极高可信度的错误类别[100,37]。因此,DNN缺乏稳健性意味着可选择函数和梯度的局部不规则模式,这是DNN解释的关键信息。XXXXX SSS图。1、前馈DNN架构(7个隐藏层*100个神经元)3。模型3.1。DNNs用于选择分析DNNs可用于选择分析。让我们*k(xi)表示单个i从[1,2,…,k]个备选方案中选择备选方案k的真实概率,其中xidenoting输入变量:s*k(xi):Rd→ [0, 1]. 个人i的选择yi∈ {0,1}Kis从多项式随机变量中采样*k(xi)选择k的概率。将DNN应用于选择分析,选择概率函数为:sk(xi)=eVikPjeVij(1),其中Vijand Vikare是DNN Softmax激活函数的第j和第k个输入。Vik采用逐层形式:Vik=(gkmo 克-1.
|