聚类算法简单总结

简介: 聚类 在无监督学习中,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律。在这类任务中,常用的算法是聚类(cluster)算法。聚类算法试图将样本划分为若干个通常是不相交的子集,每个子集表明一个簇,也叫类别,通过这样的操作,可以将无规律的样本划分为一堆堆的样本子集合。

聚类

在无监督学习中,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律。在这类任务中,常用的算法是聚类(cluster)算法。
聚类算法试图将样本划分为若干个通常是不相交的子集,每个子集表明一个簇,也叫类别,通过这样的操作,可以将无规律的样本划分为一堆堆的样本子集合。簇所对应的概念语义及个数需要由使用者把握和命名。

性能度量

聚类要求,簇内相似,簇间尽可能不同。直白一点的意思是,我们希望物以类聚,即簇内的样本之间相似度要高,而簇间的样本相似度要低。如何度量相似度?一般而言是使用距离来度量。最常用的是使用闵可夫斯基距离:
image

P=2时候,闵可夫斯基距离变为欧氏距离:
image

p=1时候,闵可夫斯基距离变为曼哈顿距离:
image

p=0时候,闵可夫斯基距离变为切比雪夫距离:
image

  • 样本之间距离越大,说明样本之间相似度越低
  • 样本之间距离越小,说明样本之间相似度越高

聚类算法

k-means聚类
算法大致流程如下:

  • 第一步,设定k值,表明要划分为k簇,这也是算法唯一的一个超参数;
  • 第二步,从数据集中随机选择k个样本出来作为初始化的簇中心,这里注意,初始化的好坏会对最终结果有影响!
  • 第三步,计算每个样本与这些簇中心的距离,样本离哪个簇中心最近,就将其划分为哪一簇;
  • 第四步,根据每一簇的样本计算均值,并更新该簇的簇中心。
  • 重复上述第三步和第四步,直到达到簇中心不再变化表明算法稳定。

学习向量量化(LVQ)
学习向量量化试图找到一组原型向量来刻画聚类结构,但是LVQ假设样本带有类别标记,学习过程中利用样本的监督信息来辅助聚类。
算法大致流程:

  • 第一步: 初始化一组原型向量,并且对每个原型向量都预设有类别标记;
  • 第二步:从样本中随机选择样本,计算样本与原型向量之间的距离,找出与之最相近的原型向量;
  • 第三步:如果上述步骤的原型向量的预设标签与假设的标签一致的话,对原型向量进行更新,让更新后的原型向量更接近样本;如果上述步骤的原型向量的预设标签与假设的标签不一致的话,对原型向量进行更新,让更新后的原型向量更远离样本;
  • 重复进行第二步和第三步,直到满足停止条件。

高斯混合聚类
高斯混合聚类采用概率模型来表达聚类原型,簇划分的原则是原型对应的后验概率。
使用EM算法来求解最大后验概率。

密度聚类
密度聚类,即基于密度的聚类。假设样本的聚类结构可以通过样本分布的紧密程度来表达。密度聚类算法考察样本之间的可连接性,并基于可连接扩展聚类簇以获得最终的聚类结果。
DBSCAN(density-based-spatial clustering of applications with noise)
这里有些概率要理解:

  • 邻域:画一个圈包含的样本;
  • 核心对象:样本多大的圈能至少包含MinPts个样本,这样的样本叫做核心对象;
  • 密度直达:样本A在样本B的邻域中,则B是核心对象,A由B密度直达;
  • 密度可达:可以传递的那种;
    算法思想是由密度可达关系导出最大的密度相连样本集合作为一个簇。

算法大致流程:

  • 第一步:先根据领域找到所有的核心对象;
  • 第二步:以任一核心对象为出发点,找出与其密度可达的样本生成聚类簇,直到所有核心对象都被访问过;
  • 第三步:然后从数据集中将这些圈好的样本去掉,开始下一轮;
  • 重复进行第二步和第三步,直到所有的核心对象都被访问过。

层次聚类
层次聚类试图在不同层次上对数据进行划分,从而形成树形的聚类结构,可以采取自上而下或者自下而上的分拆策略。
AGNES(Agglomerative Nesting)是采用自下而上的层次聚类算法。
算法思想是将数据集中每个样本看作是一个初始聚类簇,然后在算法运行的每一步中找到距离最近的两个聚类簇进行合并,不断重复,直到达到设定的簇数。
最小距离:由两个簇最近样本决定
最大距离:由两个簇最远样本决定
平均距离:由两个簇的所有样本决定
算法大致流程:

  • 第一步:设置当前的簇数;
  • 第二步:当簇数大于想要的簇数时候,找出距离最近的两个簇数,合并两个簇数为一个簇数,并对合并得到的聚类簇的距离进行更新
  • 第三步:不断重复上述过程,直到达到想要的簇数;

参考文献

目录
相关文章
|
3月前
|
机器学习/深度学习 算法 数据挖掘
讲解机器学习中的 K-均值聚类算法及其优缺点。
讲解机器学习中的 K-均值聚类算法及其优缺点。
|
3月前
|
机器学习/深度学习 算法 数据挖掘
机器学习中的 K-均值聚类算法及其优缺点
机器学习中的 K-均值聚类算法及其优缺点
115 0
|
4月前
|
算法 数据挖掘 计算机视觉
Python利用K-Means算法进行图像聚类分割实战(超详细 附源码)
Python利用K-Means算法进行图像聚类分割实战(超详细 附源码)
99 0
|
30天前
|
机器学习/深度学习 算法 数据可视化
请解释Python中的K-means聚类算法以及如何使用Sklearn库实现它。
【2月更文挑战第29天】【2月更文挑战第104篇】请解释Python中的K-means聚类算法以及如何使用Sklearn库实现它。
|
3天前
|
数据采集 算法 数据可视化
R语言聚类算法的应用实例
R语言聚类算法的应用实例
80 18
R语言聚类算法的应用实例
|
7天前
|
算法 数据可视化 数据挖掘
使用Python实现DBSCAN聚类算法
使用Python实现DBSCAN聚类算法
139 2
|
9天前
|
算法 数据可视化 数据挖掘
使用Python实现K均值聚类算法
使用Python实现K均值聚类算法
15 1
|
29天前
|
机器学习/深度学习 算法 数据可视化
探索Python中的聚类算法:DBSCAN
探索Python中的聚类算法:DBSCAN
20 0
|
30天前
|
算法 数据挖掘
K-means聚类算法是如何实现的?
K-Means算法包括:随机选K个初始质心,将数据点分配到最近质心的簇,更新簇均值作为新质心,重复此过程直到质心变化足够小或达到最大迭代次数。对初始选择敏感,需多次运行取最优结果。
8 0
|
30天前
|
机器学习/深度学习 算法 数据可视化
探索Python中的聚类算法:K-means
探索Python中的聚类算法:K-means
64 4