【Scikit-Learn 中文文档】高斯混合模型 - 无监督学习 - 用户指南 | ApacheCN

时间:2022-04-21
本文章向大家介绍【Scikit-Learn 中文文档】高斯混合模型 - 无监督学习 - 用户指南 | ApacheCN,主要内容包括2.1. 高斯混合模型、2.1.2. 变分贝叶斯高斯混合、基本概念、基础应用、原理机制和需要注意的事项等,并结合实例形式分析了其使用技巧,希望通过本文能帮助到大家理解应用这部分内容。

2.1. 高斯混合模型

sklearn.mixture 是一个应用高斯混合模型进行非监督学习的包,支持 diagonal,spherical,tied,full四种协方差矩阵 (注:diagonal指每个分量分布有各自不同对角协方差矩阵,spherical指每个分量分布有各自不同的简单协方差矩阵, tied指所有分量分布有相同的标准协方差矩阵,full指每个分量分布有各自不同的标准协方差矩阵) ,它对数据进行抽样,并且根据数据估计模型。同时包也提供了相关支持,来帮助用户决定合适的分量分布个数。

2-分量 高斯混合模型: 数据点,以及模型的等概率线。

高斯混合模型是一个假设所有的数据点都是生成于一个混合的有限数量的并且未知参数的高斯分布的概率模型。 我们可以将混合模型看作是k-means聚类算法的推广,它利用了关于数据的协方差结构以及潜在高斯中心的信息。

对应不同的估算策略,Scikit-learn 实现了不同的类来估算高斯混合模型。 详细描述如下:

2.1.1. 高斯混合

GaussianMixture 对象实现了用来拟合高斯混合模型的 期望最大化 (EM)

算法。它还可以为多变量模型画置信椭圆,以及计算BIC(Bayesian Information Criterion,贝叶斯信息准则) 来评估数据中聚类的数量。

GaussianMixture.fit 方法提供了从训练集应用高斯混合模型进行机器学习的方法。

给定测试集,使用 GaussianMixture.predict 方法,可以预测每个样本最有可能对应的高斯分布分量。

GaussianMixture 自带了选项来限制不同的估计协方差类型:spherical(每个分量分布有各自不同的简单协方差矩阵), diagonal(每个分量分布有各自不同对角协方差矩阵),tied(所有分量分布有相同的标准协方差矩阵),或 full(每个分量分布有各自不同的标准协方差矩阵)。

示例:

2.1.1.1. 优缺点 GaussianMixture

2.1.1.1.1. 优点

速度:

是混合模型学习算法中最快的算法。

无偏差性:

这个算法仅仅只是最大化可能性,并不会使均值偏向于0,或是使聚类大小偏向于 可能适用或者可能不适用的特殊结构。

2.1.1.1.2. 缺点

奇异性:

当每个混合模型没有足够的点时,估算协方差变得困难起来,同时算法会发散并且找具有无穷大似然函数值的解, 除非人为地对协方差进行正则化。

分量分布的数量:

这个算法将会总是用所有它能用的分量(component,每一个高斯分布称为一个分量), 所以在没有外部线索的情况下需要留出数据(held-out data,将数据集分为两个互斥的集合,分别是训练集和测试集), 或者信息理论标准来决定用多少分量。

2.1.1.2. 选择经典高斯混合模型中的分量数

BIC(Bayesian Information Criterion,贝叶斯信息准则)可以用来高效地选择高斯混合的分量数。 理论上,它仅当在近似状态下可以恢复正确的分量数(即如果有大量数据可用,并且假设这些数据实际上是一个混合高斯模型独立同分布 生成的)。注意:使用 变分贝叶斯高斯混合 可以避免高斯混合模型中分量数目的选择。

示例:

2.1.1.3. 估计算法期望最大化(EM)

在从无标签的数据中应用高斯混合模型主要的困难在于,通常不知道哪个点来自哪个潜在分量 (如果可以获取到这些信息,就可以很容易通过相应的数据点,拟合每个独立的高斯分布)。 期望最大化(Expectation-maximization,EM) 是一个理论完善的统计算法,其通过迭代方式来解决这个问题。首先,假设一个随机分量 (随机地选择一个中心点,可以用k-means算法得到,或者甚至就直接地随便在原点周围选取), 并且为每个点计算由模型的每个分量生成的概率。然后,调整模型参数以最大化模型生成这些参数的可能性。 重复这个过程,该算法保证过程中的参数总会收敛到局部最优解。

2.1.2. 变分贝叶斯高斯混合

:class:`BayesianGaussianMixture`对象实现了具有变分的高斯混合模型的变体推理算法。 这个API和 :class:`GaussianMixture`相似。

2.1.2.1. 估计算法: variational inference

变分推理是期望最大化(EM)的扩展,它最大化模型证据(包括先验)的下界,而不是数据似然函数。 变分方法的原理与期望最大化相同(二者都是迭代算法,在寻找由混合产生的每个点的概率和 根据所分配的点拟合之间两步交替),但是变分方法通过整合先验分布信息来增加正则化限制。 这避免了期望最大化解决方案中常出现的奇异性,但是也对模型带来了微小的偏差。 变分方法计算过程通常明显较慢,但通常不会慢到无法使用。

由于它的贝叶斯性质,变分算法比预期最大化(EM)需要更多的超参数(即先验分布中的参数),其中最重要的就是 浓度参数 weight_concentration_prior 。指定一个低浓度先验(concentration prior), 将会使模型将大部分的权重放在少数分量上,其余分量的权重则趋近0。而高浓度先验(concentration prior)将使 混合模型中的大部分分量都有一定的权重。

:class:`BayesianGaussianMixture`类的参数实现提出了两种权重分布先验: 一种是狄利克雷分布(Dirichlet distribution)有限混合模型, 另一种是狄利克雷过程(Dirichlet Process)无限混合模型。 在实际应用上,狄利克雷过程推理算法(Dirichlet Process inference algorithm) 是近似的,并且使用截尾分布(truncated distribution)与固定最大分量数(称之为Stick-breaking representation)。 使用的分量数实际上几乎总是取决于数据。

下图比较了不同类型的权重浓度先验(weight concentration prior,参数 weight_concentration_prior_type ) 不同的 weight_concentration_prior 值获得的结果。 在这里,我们可以发现``weight_concentration_prior``参数的值对获得的有效的激活分量数(即权重较大的分量分布的数量)有很大影响。 我们也能注意到当先验是’dirichlet_distribution’类型时,大的浓度权重先验(concentration weight prior) 会导致更均匀的权重,然而’dirichlet_process’类型(默认类型)却不是这样。

下面的例子将具有固定数量分量的高斯混合模型与 狄利克雷过程先验(Dirichlet process prior)的变分高斯混合模型进行比较。 这里,典型高斯混合模型被指定有5个分量,但数据集是由2个分量分布生成。 我们可以看到,具有狄利克雷过程的变分高斯混合可以将自身限制在2个分量, 而高斯混合必须按照用户先验设置的固定数量的分量来拟合数据。 在例子中,用户选择了 n_components=5 ,这与真正的toy dataset(有noise的数据)的生成分量不符。 稍微观察就能注意到,狄利克雷过程先验(Dirichlet process prior)的变分高斯混合模型可以采取保守的 立场,仅仅拟合一个分量。

在下图中,我们将拟合一个并不能被高斯混合模型很好描述的数据集。 调整`BayesianGaussianMixture`类的参数``weight_concentration_prior``, 这个参数决定了用来拟合数据的分量数。我们在最后两个图上展示了从两个混合(resulting mixtures) 产生的随机抽样。

示例:

BayesianGaussianMixture 下的变分推理的优缺点

2.1.2.1.1. 优点

自动选择:

当 weight_concentration_prior 足够小以及 n_components 比模型需要的更大时,变分贝叶斯混合模型计算的结果可以让一些混合权重值趋近0。 这让模型可以自动选择合适的有效分量数。这仅仅需要提供分量的数量上限。但是请注意,“理想”的激活分量数 只在应用场景中比较明确,在数据挖掘参数设置中通常并不明确。

对参数数量的敏感度较低:

与总是用尽可以用的分量,因而将为不同数量的组件产生不同的解决方案有限模型不同, 变分推理狄利克雷过程先验(Dirichlet process prior)变分推理(weight_concentration_prior_type='dirichlet_process') 改变参数后结果并不会改变太多,使之更稳定和更少的调谐(tuning)。

正则化:

由于结合了先验信息,变分解的病理特征(pathological special cases) 少于期望最大化(EM)的解。

2.1.2.1.2. 缺点

速度:

变分推理所需要的额外参数化使推理速度变慢,尽管并没有慢很多。

超参数:

这个算法需要一个额外的可能需要通过交叉验证进行实验调整的超参数。

偏差:

在推理算法存在许多隐含的偏差(如果用到狄利克雷过程也会有偏差), 每当这些偏差和数据之间不匹配时,用有限模型可能可以拟合更好的模型。

2.1.2.2. 狄利克雷过程(The Dirichlet Process)

这里我们描述了狄利克雷过程混合的变分推理算法。狄利克雷过程是在*具有 无限大,无限制的分区数的聚类*上的先验概率分布。 相比于有限高斯混合模型,变分技术让我们在推理时间几乎没有惩罚(penalty)的情况下 纳入了高斯混合模型的先验结构。

一个重要的问题是Dirichlet过程是如何实现用无限的,无限制的簇数,并且结果仍然是一致的。 本文档不做出完整的解释,但是你可以看这里`stick breaking process <https://en.wikipedia.org/wiki/Dirichlet_process#The_stick-breaking_process>`_ 来帮助你理解它。stick breaking(折棍)过程是Dirichlet过程的衍生。我们每次从一个单位长度的 stick开始,且每一步都折断剩下的一部分。每次,我们把每个stick的长度关联到落入一组混合的点的比例。 最后,为了表示无限混合,我们关联最后每个stick的剩下的部分到没有落入其他组的点的比例。 每段的长度是随机变量,概率与浓度参数(concentration parameter)成比例。较小的浓度值 将单位长度分成较大的stick段(即定义更集中的分布)。较高的浓度值将生成更小的stick段 (即增加非零权重的分量数)。

Dirichlet过程的变分推理技术,在对该无限混合模型进行有限近似情形下,仍然可以运用。 用户不必事先指定想要的分量数,只需要指定浓度参数和混合分量数的上界 (假定上界高于“真实”的分量数,仅仅影响算法复杂度,而不是实际上使用的分量数)。

中文文档: http://sklearn.apachecn.org/cn/stable/modules/mixture.html

英文文档: http://sklearn.apachecn.org/en/stable/modules/mixture.html

官方文档: http://scikit-learn.org/stable/

GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个 Star,我们一直在努力)

贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者

关于我们: http://www.apachecn.org/organization/209.html

有兴趣的们也可以和我们一起来维护,持续更新中 。。。

机器学习交流群: 629470233