背景
首先,我们探讨概率论背后的一些背景
概率作为不确定性的量度
概率是不确定性的量度。概率适用于机器学习,因为在现实世界中,我们需要使用不完整的信息进行决策。因此,我们需要一种量化不确定性的机制-概率为我们提供了。使用概率,我们可以对不确定因素进行建模,例如金融交易和许多其他业务流程中的风险。相反,在传统编程中,我们处理确定性问题,即解决方案不受不确定性的影响。
事件的可能性
概率量化了事件发生的可能性或信念。概率理论具有三个重要概念:偶数 t-分配了概率的结果;该样本空间,其代表了一系列的事件和可能的结果概率函数,其概率映射到一个事件。概率函数指示绘制样本空间一部分的事件的可能性。该概率分布表示样本空间中所有事件的形状或分布。事件的概率可以通过计算事件的所有发生次数并将它们除以事件的总可能结果来直接计算。概率是一个小数值,其值在0到1之间,其中0表示没有概率,而1表示完全概率。
两门概率论
有两种解释概率的方式:考虑事件实际可能性的频繁概率和考虑我们相信事件将发生的强烈程度的贝叶斯概率。频繁概率包括统计推断中使用的p值和置信区间等技术,以及用于参数估计的最大似然估计。
频繁使用的技术基于计数,而贝叶斯技术则基于信念。在贝叶斯方法中,根据证据和个人信念将概率分配给事件。贝叶斯技术基于贝叶斯定理。贝叶斯分析可用于对之前未发生或不经常发生的事件进行建模。相比之下,常客技术是基于采样的,因此是事件发生的频率。例如,p值表示较大的P值在0和1之间的数字-越数据符合零假设。p值越小,数据越符合备用假设。如果p值小于0.05,则我们拒绝原假设,即接受替代假设。
应用领域
在这种背景下,让我们探索概率如何应用于机器学习
抽样-处理不确定性过程
概率构成抽样的基础。在机器学习中,不确定性可以通过多种方式产生-例如,数据中的噪声。概率提供了一组用于对不确定性进行建模的工具。由于观测值的变化,测量误差或其他来源,可能会产生噪声。噪声影响输入和输出。
除了样本数据中的噪声外,我们还应考虑偏差的影响。即使对观测值进行统一采样,即采样中不假设任何偏差,其他限制也会引入偏差。例如,根据定义,如果我们从该国家的特定区域中选择一组参与者。样本偏向该区域。我们可以通过在全国范围内纳入更多区域来扩大数据的样本范围和方差。我们需要平衡方差和偏差,以便选择的样本可以代表我们要建模的任务。
通常,我们会得到一个数据集,即我们无法控制该数据集的创建和采样过程。为了解决对采样的控制不足,我们将数据分为训练集和测试集,或者使用重采样技术。因此,当我们对问题域的覆盖范围不完整时,涉及概率(通过采样)。
模式识别
模式识别是机器学习的关键部分。从贝叶斯的角度来看,我们可以将机器学习视为模式识别问题。在模式识别中,克里斯托弗·毕晓普(Christopher Bishop)提出了贝叶斯的观点,并针对无法给出确切答案的情况提出了近似的推理算法。出于与上述相同的原因,概率理论是模式识别的关键部分,因为它有助于迎合噪声/不确定性和样本的有限大小,并将贝叶斯原理应用于机器学习。
培训-用于最大似然估计
许多迭代式机器学习技术(例如最大似然估计(MLE))都是基于概率论的。MLE用于在线性回归,逻辑回归和人工神经网络等模型中进行训练。
开发特定算法
概率构成诸如朴素贝叶斯分类器之类的特定算法的基础
超参数优化
在诸如神经网络之类的机器学习模型中,超参数通过诸如网格搜索之类的技术进行调整。贝叶斯优化也可以用于超参数优化。
模型评估
在二元分类任务中,我们预测单个概率得分。模型评估技术要求我们根据预测的概率总结模型的性能。例如–诸如对数损失之类的聚合度量需要对概率论的理解
应用研究领域
概率构成了许多领域的基础,例如应用数学的物理学,生物学和计算机科学。
推理
概率是推理的关键部分-惯常论者的MLE和贝叶斯论的贝叶斯推理
结论
正如我们在上面看到的,概率学习在机器学习的许多领域都适用。但是,它们在机器学习的典型编码程序中并不是那么普遍。在上一个博客中,我们在相关性与因果关系的背景下讨论了这种趋势。我怀疑这是真的,也就是说,对于大多数开发人员而言,起点是已经提供的数据集。相反,如果您进行博士学位实验/论文–通常必须从头开始进行实验。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


雷达卡



京公网安备 11010802022788号







