概率建模
概率模型是由数据变量的联合分布参数化的生成数据模型:P(x1, x2, ..., xn, y1, y2, ...,yn|θ) 其中 X 是观察到的数据,y:潜在变量,θ a范围。
P(y1,…,yn|x1,…,xn, θ) = P(x1,…,xn, y1,…,yn|θ)(联合) / P(x1,…,xn|θ)(边际概率)
学习
学习阶段使用最大似然进行:
θML = argmax θ P(x1,…,xn|θ)
目的是找到一个使观测数据的概率最大化的参数 θ。
预测
P(xn+1, yn+1|x1,…,xn, θ)
目标是计算给定观察数据集的潜在属性的条件分布。
分类
目标是找到一个类,在给定学习参数 θ 的情况下,最大化未来数据的概率:
argmax c P(xn+1|θc )
概率建模中使用的一些标准算法是 EM 算法、MCMC 采样、连接树等。
11、GMM:高斯混合模型
在二维变量空间中,高斯分布是使用两个具有正态分布的随机变量构建的二元正态分布,每个变量都通过其均值和标准差进行参数化。
在我看来,高斯分布之所以如此重要,是因为它使计算(例如,线性代数计算)变得毫不费力。然而,它并不是实际应用的完美模型。
3d 空间中的高斯及其投影
高斯混合模型是一种半参数模型(有限数量的参数随数据增加。)用作软聚类算法,其中每个聚类对应于一个生成模型,旨在发现概率分布的参数(例如,平均值,给定集群的协方差、密度函数……)(它自己的概率分布控制每个集群)。学习的过程是将高斯模型拟合到数据点。高斯混合模型假设集群在 n 维空间中呈正态分布。
一维空间中的协方差矩阵和高斯公式
为了说明一维空间中的混合模型,假设有两个具有正态分布的信息源,其中从每个源收集了 n 个样本。为了估计每个高斯分布的平均值,取观测值的总和,然后将它们除以收集的样本数(经验平均值。),同样用于估计其他参数。
当有 k 个高斯模型时,问题就出现了,并且没有给出观测值来自何处的信息;弄清楚如何将点划分为 k 个簇并不容易。因此,几乎不可能估计每个高斯参数。但是,如果预定义了高斯参数(均值,方差),则可以解决此问题。
这就是 EM 方法试图解决的问题。


雷达卡

京公网安备 11010802022788号







