K-means类聚算法从原理到实战

K-means类聚算法(K-means clustering)是一种原理简单、功能强大且应用广泛的无监督机器学习技术。无监督机器学习技术是指无需标签即可从数据集中做推理,得到推理结果。

K-means类聚算法的目标是将数据集中的数据根据相似性分类,类别数为k,每类会有一个聚类中心(centroid)。数据间的相似性通常用“欧几里得距离(Euclidean Distance)”来定义,当然也可以设计其它的度量方式。

K-means 的算法步骤为:

  1. 定义目标聚类数K,例如,k=3
  2. 随机初始化的 k 个聚类中心(controids)
  3. 计算每个数据点到K个聚类中心的Euclidean Distance,然后将数据点分到Euclidean Distance最小的对应类聚中心的那类
  4. 针对每个类别,重新计算它的聚类中心;
  5. 重复上面 3-4 两步操作,直到达到某个中止条件(迭代次数、最小误差变化等)

K-means算法的可视化,请参考:https://stanford.edu/class/engr108/visualizations/kmeans/kmeans.html

K-means算法的可视化

K-means算法可以直接调用sklearn的KMeans类来实现,范例代码如下:

import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans

df = pd.DataFrame({"x": [25, 34, 22, 27, 33, 33, 31, 22, 35, 34, 67, 54, 57, 43, 50, 57, 59, 52, 65, 47, 49, 48, 35, 33, 44, 45, 38, 43, 51, 46],
                   "y": [79, 51, 53, 78, 59, 74, 73, 57, 69, 75, 51, 32, 40, 47, 53, 36, 35, 59, 59, 50, 25, 20, 14, 12, 20, 5,  29, 27, 8,  7]
})

kmeans = KMeans(n_clusters=3).fit(df)
centroids = kmeans.cluster_centers_
# 打印类聚中心
print(type(centroids), centroids)

# 可视化类聚结果
fig, ax = plt.subplots()
ax.scatter(df['x'],df['y'],c=kmeans.labels_.astype(float),s=50, alpha=0.5)
ax.scatter(centroids[:, 0], centroids[:, 1], c='red', s=50)
plt.show()
K-means范例运行结果

推荐阅读更多精彩内容