K-means算法介绍
简单来说,K-means算法是一种无监督算法,不需要事先对数据集打上标签,即ground-truth,也可以对数据集进行分类,并且可以指定类别数目
牧师-村民模型
K-means 有一个著名的解释:牧师—村民模型:
有四个牧师去郊区布道,一开始牧师们随意选了几个布道点,并且把这几个布道点的情况公告给了郊区所有的村民,于是每个村民到离自己家最近的布道点去听课。
听课之后,大家觉得距离太远了,于是每个牧师统计了一下自己的课上所有的村民的地址,搬到了所有地址的中心地带,并且在海报上更新了自己的布道点的位置。
牧师每一次移动不可能离所有人都更近,有的人发现A牧师移动以后自己还不如去B牧师处听课更近,于是每个村民又去了离自己最近的布道点……
就这样,牧师每个礼拜更新自己的位置,村民根据自己的情况选择布道点,最终稳定了下来。
牧师的目的非常明显,就是要让每个来上自己课的村民走的路程最少
算法步骤
指定k个中心点
更新数据点所属类别:计算每个数据点到这k个点的欧氏距离,距离最小即为这个数据点的类别
更新中心点坐标:对每一个类别的数据点求平均,平均值即为新的中心点位置
伪代码
获取m个n维的数据 随即选取k个点作为初始中心点 while keep_changing: for i in range(m): for j in range(k): 计算每个点到center的距离 判断离哪个点更近 for center in range(k): 更新类别中心点的坐标
用Python实现K-means聚类算法
import numpy as np
import matplotlib.pyplot as plt
import sklearn.datasets as datasets
def create_data():
X,y = datasets.make_blobs(n_samples=1000,n_features=2,centers=[[1,0],[5,4],[2,3],[10,8],[7,4]])
return X,y
def init_centers(data,k):
m, n =data.shape
# m 样本个数,n特征个数
center_ids = np.random.choice(m,k)
centers = data[center_ids]
return centers
def cal_dist(ptA,ptB):
return np.linalg.norm(ptA-ptB)
def kmeans_process(data,k):
centers = init_centers(data, k)
m, n = data.shape
keep_changing = True
pred_y = np.zeros((m,))
iteration = 0
while keep_changing:
keep_changing = False
# 计算剩余样本所属类别
for i in range(m):
min_distance = np.inf
for center in range(k):
distance = cal_dist(data[i,:],centers[center,:])
if distance
效果图

本文来自csdn,观点不代表一起大数据-技术文章心得立场,如若转载,请注明出处:https://blog.csdn.net/weixin_40756000/article/details/116484391
更多内容请访问:IT源点
注意:本文归作者所有,未经作者允许,不得转载