本质上,我们从一个人为的情况开始,我们使用一种人为的慢速(在本章中称为“冰川”)方法来训练一个神经网络
虽然这种策略在现实生活中并不实用,但以这种方式开始会使反向传播更容易解释
目标是训练为给定输入分配标签的分类器。如果预测与我们之前确定的标签匹配,我们将继续下一个样本。如果预测错误,我们会改变网络以帮助它下次做得更好。关键在于我们如何改变网络
神经网络可以看作是神经元的巨大集合。每个神经元进行自己的小计算,然后将其结果传递给其他神经元。当神经元被组织成一组层时,就没有学习算法。反向传播算法为神经网络提供了一种学习机制
因此,我们可以从这种缓慢/缓慢的训练方式开始。虽然这种方法是假设性的,但它为我们提供了一个可以改进的起点。
由数千个相互连接的神经元组成的网络旨在将每个输入分类为五个类别之一。因此,网络有五个概率输出。神经网络的权重是随机分配的。当我们将第一条数据作为输入运行到神经网络中时,连接神经元的连续层的输出级联并为神经网络产生整体输出。这个概率值代表一个标签(五个类别之一)。
此时,预测很可能是错误的,因为网络未经训练。代表不匹配程度的数字是损失或错误分数。
现在,让我们讨论一下“慢”的学习方式。
我们先取一个小的随机数
接下来我们随机选择一个权重
然后我们用随机数更新这个权重
然后,我们重新评估导致相同权重级联的样本,但现在一个权重的随机变化很小
我们可以继续这个随机选择值和轻推权重的过程,直到结果有所改善
尽管我们在每次迭代中都在改进,但过程非常缓慢
那么,我们怎样才能让这个训练过程更快呢?
这就是网络参数发生其他变化的地方,例如激活函数、学习率、小批量等
| 相关帖子DA内容精选 |


雷达卡



京公网安备 11010802022788号







