kmeans聚类需先导入模块、准备二维数据,再实例化并拟合模型获取标签和质心;fit_predict可一次性完成训练与预测;可用calinski-harabasz分数评估效果;kmeans++初始化提升稳定性;二维数据可结合散点图可视化簇分布与质心。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

一、使用KMeans类执行聚类分析
当您希望对未标注的多维数据自动划分结构相似的子集时,Scikit-learn 提供的 KMeans 类可直接完成质心初始化、分配与迭代更新全过程。该方法依赖欧氏距离度量样本相似性,并以最小化簇内平方和(SSE)为目标。
1、导入必要模块:from sklearn.cluster import KMeans;import numpy as np。
2、准备输入数据 X,确保其为二维数组形状(n_samples, n_features),例如通过 make_blobs 生成模拟数据或加载真实特征矩阵。
3、实例化模型:kmeans = KMeans(n_clusters=4, random_state=42, max_iter=300),其中 n_clusters 必须由用户预先指定,random_state 保障结果可复现。
4、拟合模型:kmeans.fit(X),此操作将执行完整迭代直至收敛或达最大迭代次数。
5、获取结果:labels = kmeans.labels_ 返回每个样本所属簇的整数标签;centroids = kmeans.cluster_centers_ 返回 K 行 d 列的质心坐标数组。
二、手动调用 fit_predict 方法实现端到端聚类
fit_predict 是 fit 与 predict 的组合操作,适用于无需保留训练状态、仅需一次性获得聚类标签的场景。它避免了显式调用两次接口,提升代码简洁性与执行效率。
1、构造 KMeans 实例并设定参数,如 n_clusters=3、init='k-means++' 以改善初始质心选择质量。
2、直接调用 y_pred = kmeans.fit_predict(X),该语句内部先完成聚类中心学习,再立即对全部输入样本分配簇标签。
3、输出 y_pred 为长度等于样本数的一维数组,每个元素取值范围为 0 至 n_clusters−1,不可直接解释为类别语义,仅表示簇归属关系。
三、结合评估指标验证聚类效果
仅获取标签不足以判断聚类质量,需借助外部或内部指标量化分离度与凝聚度。Calinski-Harabasz 分数(CH 分数)是常用外部评估指标之一,值越大表明簇间离散度越高、簇内紧密度越强。
1、在已有真实标签 y_true 的情况下(如 Iris 数据集),可调用 from sklearn.metrics import adjusted_rand_score 计算调整兰德指数。
2、若无真实标签,则使用 from sklearn.metrics import calinski_harabasz_score,传入原始数据 X 和预测标签 y_pred。
3、执行 score = calinski_harabasz_score(X, y_pred),返回标量值;该分数不具绝对阈值,仅用于同数据集下不同 K 值或不同初始化策略间的相对比较。
四、采用 KMeans++ 初始化提升稳定性
KMeans 对初始质心敏感,随机初始化易陷入局部最优。KMeans++ 通过概率加权方式选取初始中心,使彼此间距更大,从而提高收敛至全局较优解的概率。
1、在 KMeans 构造时显式设置 init='k-means++',这是 scikit-learn 0.24+ 版本的默认选项。
2、该策略首步随机选一个点作为首个中心;后续每步按与已选中心最小距离的平方成正比的概率分布选取新中心。
3、相比 init='random',KMeans++ 显著降低多次运行结果的方差,尤其在簇结构不均衡时优势明显。
五、可视化聚类结果辅助判读
对于二维或经降维至二维的数据,散点图能直观呈现簇分布形态、重叠程度及质心位置,是调试与汇报的关键环节。
1、使用 matplotlib.pyplot.scatter 绘制原始数据点,c 参数设为 y_pred 实现按簇着色,s 参数控制点大小。
2、叠加质心点:plt.scatter(centroids[:, 0], centroids[:, 1], c='red', marker='X', s=200, alpha=0.9)。
3、添加坐标轴标签与标题,确保图形信息完整;注意仅当前两个特征可用于二维绘图,高维数据需先使用 PCA 或 t-SNE 降维。










