聚类

聚类的概念

聚类是一种无监督机器学习方法,它基于数据的内部结构寻找观察样本的自然族群(即集群),常用于新闻分类、推荐系统等。聚类的特点是训练数据没有标注,通常使用数据可视化评价结果。

聚类分析仅根据在数据中发现的描述对象及其关系的信息,将数据对象分组。其目标是,组内的对象相互之间是相似的(相关的),而不同组中的对象是不同的(不相关的)。组内的相似性(同质性)越大,组间差别越大,聚类就越好。

聚类的方法

聚类的常用方法包括:

  • 划分聚类法K均值:是基于原型的、划分的聚类技术。它试图发现用户指定个数K的簇(由质心代表)。
  • 层次聚类。凝聚的层次聚类:开始,每个点作为一个单点簇;然后,重复地合并两个最靠近的簇,直到产生单个的、包含所有点的簇。
  • 基于密度的聚类, DBSCAN是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。低密度区域中的点被视为噪声而忽略,因此DBSCAN不产生完全聚类。

常用的聚类数据集

常用的聚类数据集包括

  • scikit-learn blob: 简单聚类
  • scikit-learn circle: 非线性可分数据集
  • scikit-learn moon: 更复杂的数据集

聚类的性能度量

我们希望聚类结果的“簇内相似度”高“簇间相似度”低

其性能度量大致有两类:

  • 将聚类结果与某个“参考模型”进行比较。称为“外部指标”。

  • 直接考查聚类结果而不利于任何参考模型。称为“内部指标”。

外部指标

对数据集,假定通过聚类给出的簇划分为,参考模型给出的簇划分为。相应的,令λ与分别表示与对应的簇标记向量。注意的是,参考模型给出的划分类别数量不一定等于通过聚类得到的数量。

样本两两配对:

1.

2.

3.

4.

集合SS包含了C中隶属于相同簇且在C′中也隶属于相同簇的样本对,集合SD包含了在C中隶属于相同簇但在$C_T$中隶属于不同簇的样本对 .

Jaccard系数:

FM指数:

Rand指数:

上述性能度量的结果值均在[0,1]区间,值越大越好。

内部指标

考虑聚类结果的簇划分,定义:

我们在上面的式子中,dist是计算两个样本之间的距离,$\mu$代表簇的中心点 ,avg(C)代表簇内样本间的平均距离,diam(C)对应与簇C内样本间的最远距离,对应与簇 i 和簇 j 最近样本间的距离;对应与簇 i 和 j 中心点间的距离。

基于上面的指标,推出下面几个内部指标

显然,DBI的值越小越好,DI值越大越好

相似度/距离度量

“距离度量”需满足一些基本性质,如非负性、同一性、对称性和直递性。最常用的是闵可夫斯基距离、欧氏距离(p=2)和曼哈顿距离(p=1)(后两者其实都是闵可夫斯基距离的特例)。

闵可夫斯基距离只可用于有序属性,对无序属性可采用VDM(Value Difference Metric)。

计算方法总结:

  • 闵可夫斯基距离Minkowski/欧式距离:

  • 杰卡德相似系数(Jaccard):

  • 余弦相似度(cosine similarity):

  • Pearson相似系数:

  • 相对熵(K-L距离):

  • Hellinger距离:

聚类的基本思想

给定一个有N个对象的数据集,构造数据的K个簇,$k≤n$,满足下列条件:

  • 每一个簇至少包含一个对象
  • 每一个对象属于且仅属于一个簇
  • 将满足上述条件的K个簇称作一个合理的划分

基本思想:对于给定的类别数目K,首先给出初始划分,通过迭代改变样本和簇的隶属关系,使得每一次改进之后的划分方案都比前一次好。

原型聚类

原型聚类亦称“基于原型的聚类”,假设聚类结构能通过一组原型(原型是指样本空间中具有代表性的点)刻画。

常用的方法包括

  • k均值算法
  • 学习向量化
  • 高斯混合聚类(基于概率模型)

K-Means 聚类

K-Means算法的基本思想是初始随机给定K个簇中心,按照最邻近原则把待分类样本点分到各个簇。然后按平均法重新计算各个簇的质心(这个点可以不是样本点),从而确定新的簇心。一直迭代,直到簇心的移动距离小于某个给定的值。

K-Means聚类算法步骤:

1、给定数据

2、确定类别数K(如K=5),并初始化K个类的中心(如随机选择K个点)

3、对每个数据点,计算离其最近的类(使得每个类拥有自己的一些数据)

4、对每个类,计算其所有数据的中心,并跳到新的中心

– 等价于$µ_i$ 为类中数据的均值

5、重复3~4步,知道数据点所属类别类不再改变

K-means的优化目标

均值$\mu$和数据点所属集合C的势能函数为:

-$C_{(i)}$:样本 i 所属的簇

K-means的优化目标:

K-means的收敛性

优化势能函数:

坐标下降:

  • 固定$\mu$,优化C

  • 固定C,优化$\mu$

收敛性:

  • 若F有界,会收敛到一个局部极小

  • K-means不保证达到全局最优(收敛,但没有达到全局最优的情况)

解决方案:

• 仔细寻找初始值
– 随机确定第一个类的中心,其他类中心的位置尽量远离已有类的中心
– Scikit learn中K-means实现中参数( init=’k-means++’ )将初始化 centroids (质心)彼此远离,得到比随机初始化更好的结果。
• 重复多次(如10次),每次初始值不同,最后选择使目标函数最小的结果

如何决定k

  • 尝试不同的 k

  • 当 K = 2, SSE = 173.1

  • 当 K = 3, SSE = 133.6

  • 画出不同K=1 到 6 的误差曲线图
    -转折点 K=2 较好
    -有些情况并没有明显的转折点

Scikit learn中的K-means实现

K-centers聚类

• 亦被称为K-median聚类、 K-mediods聚类

• 与K-means类似,只是将K-means聚类中的均值换成中值
– 均值极有可能是一个不存在的样本点,不足以代表该簇中 的样本,而中值是一个样本集合中真实存在的一个样本点
– 同时中值相对均值而言,对噪声(孤立点、离群点)不那 么敏感

K-Means++

k个初始化的质心的位置选择对最后的聚类结果和运行时间都有很大的影响,因此需要选择合适的k个质

心。如果仅仅是完全随机的选择,有可能导致算法收敛很慢。K-Means++算法就是对K-Means随机初始

化质心的方法的优化

K-Means++的对于初始化质心的优化策略也很简单,如下:

a) 从输入的数据点集合中随机选择一个点作为第一个聚类中心μ1

b) 对于数据集中的每一个点xi,计算它与已选择的聚类中心中最近聚类中心的距离

c) 选择一个新的数据点作为新的聚类中心,选择的原则是:D(x) 较大的点,被选取作为聚类中心的概率较大

d) 重复b和c直到选择出k个聚类质心

e) 利用这k个质心来作为初始化质心去运行标准的K-Means算法

Mini Batch K-Means

• MiniBatchKMeans 是 K-Means 算法的一个变体:
– 使用 mini-batches (小批量)减少计算时间
– 目标函数相同
– 收敛速度比 K-Means 快,但是结果的质量会降低(在实践中,质量差异可能相当小)

K均值算法

k均值常用的邻近度,质心和目标函数的选择:

邻近度函数:曼哈顿距离。质心:中位数。目标函数:最小化对象到其簇质心的距离和。

邻近度函数:平方欧几里德距离。质心:均值。目标函数:最小化对象到其簇质心的距离的平方和。

邻近度函数:余弦。质心:均值。最大化对象与其质心的余弦相似度和。

邻近度函数:Bregman散度。质心:均值。目标函数:最小化对象到其簇质心的Bregman散度和。

由于基本K均值算法采取随机地选取初始质心的办法,导致最后形成的簇的质量常常很糟糕。在此基础上引出了基本K均值算法的扩充:二分K均值算法。二分K均值算法不太受初始化问题的影响。

二分K均值算法

  1. 把所有数据作为一个cluster加入cluster list
  2. repeat
  3. 从cluster list中挑选出一个SSE最大的cluster来进行划分
  4. for i=1 to预设的循环次数
  5. 用基本K均值算法把挑选出来的cluster划分成两个子cluster
  6. 计算两个子cluster的SSE和。
  7. end for
  8. 把for循环中SSE和最小的那两个子cluster加入cluster list
  9. until cluster list拥有K个cluster

除此以外,每次划分不止执行一次基本K均值算法,而是预先设置一个ITER值,然后对这个cluster进行ITER次执行基本K均值运算。因为基本K均值每次一开始都是随机选K个质心来执行,所以i一般来说ITER次执行基本K均值,每次都会得到不同的两个cluster。那么应该选哪对cluster来作为划分以后的cluster呢?答案就是在每次循环中,每次都计算当次基本K均值划分出来的两个cluster的SSE和,最后就选SSE和最小的那对cluster作为划分以后的cluster。

学习向量化

与k均值算法类似,“学习向量量化”(Learning Vector Quantization,简称LVQ)也是试图找到一组原型向量来刻画聚类结构,但与一般的聚类算法不同的是,LVQ假设数据样本带有类别标记,学习过程用样本的这些监督信息来辅助聚类。

学习向量化算法

高斯混合模型

高斯混合聚类使用了一个很流行的算法:GMM(Gaussian Mixture Model)。高斯混合聚类与k均值聚类类似,但是采用了概率模型来表达聚类原型。每个高斯模型(Gaussian Model)就代表了一个簇(类)。GMM是单一高斯概率密度函数的延伸,能够平滑地近似任意形状的密度分布。在高斯混合聚类中,每个GMM会由k个高斯模型分布组成,每个高斯模型被称为一个component,这些component线性加乘在一起就组成了GMM的。

简单地来说,k-Means的结果是每个数据点没分配到其中某一个cluster,而GMM则给出的是这个数据点被分配到每个cluster的概率,又称为soft assignment。

高斯混合模型聚类算法

层次聚类

层次聚类(hierarchical clustering)试图在不同层次对数据集进行划分,从而形成树形的聚类结构。数据集的划分可采用“自底向上”的聚合策略,也可采用“自顶向下”的分拆策略。 典型的AGNES是一种采用自底向上聚合策略的层次聚类算法。它先将数据集中的每个样本看作一个初始聚类簇,然后在算法运行的每一步中找出距离最近的两个聚类簇进行合并,该过程不断重复,直至达到预设的聚类簇个数。

有两种产生层次聚类的基本方法:

  1. 凝聚的。从点作为个体簇开始,每一步合并两个最接近的簇。这需要定义簇的临近性概念。凝聚层次聚类技术最常见。
  2. 分裂的。从包含所有点的某个簇开始,每一步分裂一个簇,直到仅剩下单点簇。在这种情况下,我们需要确定每一步分裂哪个簇,以及如何分裂。

层次聚类算法

基本凝聚层次聚类算法:

  1. 如果需要,计算临近度矩阵
  2. repeat
  3. 合并最接近的两个簇
  4. 更新临近度矩阵,以反映新的簇与原来的簇之间的临近性。
  5. until 仅剩下一个簇

簇之间的临近性有3种定义方式:

  1. MIN(单链)。不同簇中的两个最近的点之间的距离作为临近度。
  2. MAX(全链)。不同簇中的两个最远的点之间的距离作为临近度。
  3. GROUP(组平均)。取自不同簇的所有点对距离的平均值作为临近度。

注意:

  1. 簇与簇合并的原则永远是dist最小。
  2. 但在计算dist值的时候,可以采用MIN, MAX, GROUP AVG 3中方式得出dist的值。

密度聚类

密度聚类亦称“基于密度的聚类”,假设聚类结构能通过样本分布的紧密程度确定。典型的代表算法为DBSCAN算法,它基于一组“领域”(neighborhood)参数来刻画样本分布的紧密程度。

DBSCAN将“簇”定义为:由密度可达关系导出的最大的密度相连样本集合。

DBSCAN算法

基于密度的聚类寻找被低密度区域分离的高密度区域。DBSCAN是一种简单、有效的基于密度的聚类算法。

DBSCAN基础概念

(6) 边界点:非核心点,从某一核心点直接密度可达。

(7) 噪声:聚类结束时,不属于任何簇的点。

DBSCAN算法描述

DBSCAN算法:

  1. 将所有点标记为核心点、边界点或噪声点。
  2. 删除噪声点。
  3. 为距离在Eps之内的所有核心点之间连线。
  4. 每组连通的核心点形成一个簇。
  5. 将每个边界点指派到一个与之关联的核心点的簇中。

DBSCAN算法阐释:

  1. 算法需要用户输入2个参数: 半径Eps; 最小(少)点值MinPts。

  2. 确定Eps和MinPts需要用到K-距离的概念。K-距离就是“到第K近的点的距离”,按经验一般取值为4。并且,一般取K的值为MinPts参数的值。

  3. 首先计算每个点到所有其余点的欧式距离,升序排序后,选出每个点的“K距离”。

  4. 所有点的K距离形成一个集合D。对D进行升序排序,依此可以形成一个样本数据的K距离图。

  5. 图中急剧变化处的值,即为Eps。

  6. 根据Eps和MinPts,计算出所有的核心点。

  7. 给核心点到小于Eps的另一个核心点赋予一个连线,到核心点的距离等于Eps的点被识别为边界点。最后,核心点、边界点之外的点都是噪声点。

  8. 将能够连线的点和与之关联的边界点都放到一起,形成了一个簇。

DBSCAN算法举例

第1步,在数据库中选择一点1,由于在以它为圆心的,以1为半径的圆内包含2个点(小于4),因此它不是核心点,选择下一个点。
第2步,在数据库中选择一点2,由于在以它为圆心的,以1为半径的圆内包含2个点,因此它不是核心点,选择下一个点。
第3步,在数据库中选择一点3,由于在以它为圆心的,以1为半径的圆内包含3个点,因此它不是核心点,选择下一个点。
第4步,在数据库中选择一点4,由于在以它为圆心的,以1为半径的圆内包含5个点,因此它是核心点,寻找从它出发可达的点(直接可达4个,间接可达3个),聚出的新类{1,3,4,5,9,10,12},选择下一个点。
第5步,在数据库中选择一点5,已经在簇1中,选择下一个点。
第6步,在数据库中选择一点6,由于在以它为圆心的,以1为半径的圆内包含3个点,因此它不是核心点,选择下一个点。
第7步,在数据库中选择一点7,由于在以它为圆心的,以1为半径的圆内包含5个点,因此它是核心点,寻找从它出发可达的点,聚出的新类{2,6,7,8,11},选择下一个点。
第8步,在数据库中选择一点8,已经在簇2中,选择下一个点。
第9步,在数据库中选择一点9,已经在簇1中,选择下一个点。
第10步,在数据库中选择一点10,已经在簇1中,选择下一个点。
第11步,在数据库中选择一点11,已经在簇2中,选择下一个点。
第12步,选择12点,已经在簇1中,由于这已经是最后一点所有点都以处理,

Scikit learn中DBSCAN算法的实现

几种聚类的优缺点

层次聚类的优缺点

优点:

  1. 距离和规则的相似度容易定义,限制少;
  2. 不需要预先指定聚类数;
  3. 可以发现类的层次关系;
  4. 可以聚类成其他形状。

缺点:

  1. 计算复杂度太高;
  2. 奇异值也能产生很大影响;
  3. 算法很可能聚类成链状。

DBSCAN的优缺点

优点:

  1. 不需要事先知道要形成的簇的数量。
  2. 可以发现任意形状的簇类。
  3. 对噪声点不敏感。
  4. 对样本点的顺序不敏感。

缺点:

  1. 簇的密度变化太大时,DBSCAN会有麻烦。
  2. 对于高维数据,密度定义困难,DBSCAN也有问题。

注意:

  1. K均值对于圆形区域聚类的效果很好,DBSCAN基于密度,对于集中区域效果很好。
  2. 对于不规则形状,K均值完全无法使用。DBSCAN可以起到很好的效果。

K均值的优缺点

优点:

  1. 简单,易于理解和实现。
  2. 时间复杂度低。

缺点:

  1. 要手工输入K值,对初始值的设置很敏感。
  2. 对噪声和离群点很敏感。
  3. 只用于数值型数据,不适用于categorical类型的数据。
  4. 不能解决非凸数据。
  5. 主要发现圆形或者球形簇,不能识别非球形的簇。
------ 本文结束 🎉🎉 谢谢观看 ------
0%