再免费多看一章--k-means++

时间:2022-05-08
本文章向大家介绍再免费多看一章--k-means++,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

在k-means算法里开始选取的聚类中点是随机的,每次都会照成不同的聚类结果。有一个解决方案叫做k-means++,可以有效的选择初始聚类中心点。参考 http://theory.stanford.edu/~sergei/papers/kMeansPP-soda.pdf

在《白话大数据与机器学习》里使用了sklearn里的KMeans来处理数据, 默认使用的就是k-means++: 训练模型 clf = KMeans(n_clusters=3, init=’k-means++’).fit(x, y)


这里我们来实现一下k-means++算法,看看该算法具体是如何实现的。

1 训练模型 使用kmeans++算法初始化聚类中点: 假设有一个数据集合X,里面有N条记录。

[x1, x2, x3, x4, x5, x6, ...]

第一次从X中随机取一条记录xi,当做聚类的第一个中心点。 然后重复以下步骤: 对每条记录,计算其与最近的一个中点之间的距离D(xn)并保存到一个数据组里,计算距离公式有很多,欧式距离,曼哈顿距离等。

D(x) = [D(x1), D(x2), D(x3), D(x4), D(x5), D(x6), ...]

对计算得到的距离加和

Sum(D(x))

然后再用D(x)里的各条记录分别除以距离加和值 D(xn)/Sum(D(x))

[D(x1)/Sum(D(x)),   
 D(x2)/Sum(D(x)),  
 D(x3)/Sum(D(x)),   
 D(x4)/Sum(D(x)),  
 D(x5)/Sum(D(x)),   
 D(x6)/Sum(D(x)),   ... ...]

得到下面这样的概率分布数组

[P(x1), 
 P(x2), 
 P(x3), 
 P(x4), 
 P(x5), 
 P(x6), 
 ...]

接着计算累加和

[P(x1),  
 P(x1) + P(x2),  
 P(x1) + P(x2) + P(x3),  
 P(x1) + P(x2) + P(x3) + P(x4),  
 P(x1) + P(x2) + P(x3) + P(x4) + P(x5),  
 P(x1) + P(x2) + P(x3) + P(x4) + P(x5) + P(x6),  
 ... ...]

从该数组中随机取一条记录,用它的下标在记录X中取值 当做下一个聚类中心点。

当聚类中心点初始完毕之后接下来就是使用k-means算法,聚拢各类: 计算所有点和各个中心点之间的距离,取离自己最近的中心点归为那个聚类。

{0: [x1, x2, x3],  
 1: [x4, x5, x6],  
 ......}

重新计算各个簇的中点,取各个特征列的均值,得到新的中心点。

[(x1 + x2 + x3) / 3, 
 (x4 + x5 + x6) / 3, 
 ...]

重复上述步骤 直到没有中心点移动。

完整代码可以访问https://github.com/azheng333/Ml_Algorithm.git进行下载。