机器学习的经典代表算法总结
AdaBoost
Adaptive Boosting
或称为AdaBoost,
是多种学习算法的融合。 它是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类 器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终 分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根 据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的 准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层 分类器进行训练,然后将每次训练得到的分类器融合起来,作为最终 的决策分类器。
AdaBoost
是最常用的算法,它可用于回归或者分类算法。相比其 他机器学习算法,它克服了过拟合的问题,通常对异常值和噪声数据 敏感。为了创建一个强大的复合学习器,
AdaBoost
使用了多次迭代。 因此,它又被称为
"Adaptive Boosting"
通过迭代添加弱学习器,
AdaBoost
创建了一个强学习器。一个新的弱学习器加到实体上,并且 调整加权向量,作为对前一轮中错误分类的样例的回应。得到的结果, 是一个比弱分类器有更高准确性的分类器。
AdaBoos ...


雷达卡


京公网安备 11010802022788号







