楼主: 时光人
691 0

什么是神经网络? [推广有奖]

  • 3关注
  • 34粉丝

院士

23%

还不是VIP/贵宾

-

威望
1
论坛币
26907 个
通用积分
428.9260
学术水平
95 点
热心指数
109 点
信用等级
91 点
经验
39960 点
帖子
1629
精华
3
在线时间
579 小时
注册时间
2019-2-25
最后登录
2023-4-26

相似文件 换一批

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
神经网络的大多数介绍性文字在描述它们时都会提起大脑的类比。在不深入研究大脑类比的情况下,我发现将神经网络简单描述为将给定输入映射到所需输出的数学函数会更容易。
神经网络由以下组件组成
一个输入层,X
任意数量的隐藏层
的输出层,ŷ
每个图层W和b之间的一组权重和偏差
每个隐藏层σ的激活函数的选择。在本教程中,我们将使用Sigmoid激活函数。
下图显示了2层神经网络的体系结构(请注意,在计算神经网络的层数时,通常不包括输入层)

1_sX6T0Y4aa3ARh7IBS_sdqw.png

2层神经网络的架构

在Python中创建神经网络类很容易。

  1. class NeuralNetwork:
  2.     def __init__(self, x, y):
  3.         self.input      = x
  4.         self.weights1   = np.random.rand(self.input.shape[1],4)
  5.         self.weights2   = np.random.rand(4,1)                 
  6.         self.y          = y
  7.         self.output     = np.zeros(y.shape)
复制代码

训练神经网络
输出ŷ一个简单的2层的神经网络是:
1_E1_l8PGamc2xTNS87XGNcA.png
您可能会注意到,在上式中,权重W和偏差b是影响输出ŷ的唯一变量。
自然,权重和偏差的正确值确定了预测的强度。根据输入数据微调权重和偏差的过程称为训练神经网络。
培训过程的每个迭代都包括以下步骤:
  • 计算预测输出ŷ,称为前馈
  • 更新权重和偏差,称为反向传播

下面的顺序图说明了该过程。
1_CEtt0h8Rss_qPu7CyqMTdQ.png
前馈
正如我们在上面的序列图中所看到的,前馈只是简单的演算,对于基本的2层神经网络,神经网络的输出为:
1_E1_l8PGamc2xTNS87XGNcA (1).png

让我们在我们的python代码中添加一个前馈函数即可做到这一点。请注意,为简单起见,我们假设偏差为0。

  1. class NeuralNetwork:
  2.     def __init__(self, x, y):
  3.         self.input      = x
  4.         self.weights1   = np.random.rand(self.input.shape[1],4)
  5.         self.weights2   = np.random.rand(4,1)                 
  6.         self.y          = y
  7.         self.output     = np.zeros(self.y.shape)

  8.     def feedforward(self):
  9.         self.layer1 = sigmoid(np.dot(self.input, self.weights1))
  10.         self.output = sigmoid(np.dot(self.layer1, self.weights2))
复制代码
但是,我们仍然需要一种方法来评估我们的预测的“良好”(即,我们的预测有多远)?该损失函数允许我们这样做。
损失函数
有许多可用的损失函数,而问题的性质应决定我们对损失函数的选择。在本教程中,我们将使用简单的平方和错误作为损失函数。
1_iNa1VLdaeqwUAxpNXs3jwQ.png

即,平方和误差仅是每个预测值与实际值之差的和。差异是平方的,以便我们测量差异的绝对值。
我们训练的目标是找到使损失函数最小化的最佳权重和偏差。
反向传播
现在,我们已经测量了预测的误差(损失),我们需要找到一种方法将误差传播回来,并更新权重和偏差。
为了知道适当的量来调整权重和偏差,我们需要知道损失函数相对于权重和偏差的导数。
回想微积分,函数的导数就是函数的斜率。

1_3FgDOt4kJxK2QZlb9T0cpg.png

如果我们有导数,我们可以简单地通过增加/减少它来更新权重和偏差(请参见上图)。这称为梯度下降。
但是,由于损失函数的方程式不包含权重和偏差,因此我们无法直接计算损失函数相对于权重和偏差的导数。因此,我们需要链式规则来帮助我们进行计算。
1_7zxb2lfWWKaVxnmq2o69Mw.png
用于计算损失函数相对于权重的导数的链式规则。请注意,为简单起见,我们仅显示了假设为1层神经网络的偏导数。
这很丑陋,但它使我们能够获得所需的值-损失函数相对于权重的导数(斜率),以便我们可以相应地调整权重。
现在我们有了,让我们将反向传播功能添加到我们的python代码中。
  1. class NeuralNetwork:
  2.     def __init__(self, x, y):
  3.         self.input      = x
  4.         self.weights1   = np.random.rand(self.input.shape[1],4)
  5.         self.weights2   = np.random.rand(4,1)                 
  6.         self.y          = y
  7.         self.output     = np.zeros(self.y.shape)

  8.     def feedforward(self):
  9.         self.layer1 = sigmoid(np.dot(self.input, self.weights1))
  10.         self.output = sigmoid(np.dot(self.layer1, self.weights2))

  11.     def backprop(self):
  12.         # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1
  13.         d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output)))
  14.         d_weights1 = np.dot(self.input.T,  (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1)))

  15.         # update the weights with the derivative (slope) of the loss function
  16.         self.weights1 += d_weights1
  17.         self.weights2 += d_weights2
复制代码
全部放在一起

现在,我们已经有了用于执行前馈和反向传播的完整python代码,让我们将神经网络应用于示例,看看它的效果如何。

1_HaC4iILh2t0oOKi6S6FwtA.png

我们的神经网络应该学习代表此功能的理想权重集。请注意,仅通过检查就可以算出权重并非完全无关紧要。
让我们训练神经网络进行1500次迭代,看看会发生什么。查看下面的每次迭代损耗图,我们可以清楚地看到损耗单调地向最小值减小。这与我们之前讨论的梯度下降算法是一致的。

1_fWNNA2YbsLSoA104K3Z3RA.png

让我们看一下1500次迭代后神经网络的最终预测(输出)。
1_9oOlYhhOSdCUqUJ0dQ_KxA.png
1500次训练迭代后的预测
我们做到了!我们的前馈和反向传播算法成功地训练了神经网络,并且预测收敛于真实值。
请注意,预测值和实际值之间存在细微差异。这是理想的,因为它可以防止过度拟合,并使神经网络可以更好地概括未见数据。
下一步是什么?
对我们来说幸运的是,我们的旅程还没有结束。关于神经网络和深度学习还有很多东西要学习。例如:
除了Sigmoid函数外,我们还可以使用其他哪些激活函数?
训练神经网络时使用学习率
使用卷积进行图像分类任务

最后的想法
从头开始,我当然已经学到了很多有关编写自己的神经网络的知识。
尽管诸如TensorFlow和Keras之类的深度学习库使在不完全了解神经网络的内部运作的情况下轻松构建深层网络,但我发现对于有抱负的数据科学家加深对神经网络的了解是有益的。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:神经网络 神经网 Application Derivative function

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-20 07:11