数据挖掘算法:K 均值算法

摘要:均值算法是一种典型的无监督学习算法,用来对数据进行分类。

聚类问题 Clustering

针对监督式学习,输入数据为 (x, y) ,目标是找出分类边界,即对新的数据进行分类。而无监督式学习只给出一组数据集 ${x_1, x_2, … , x_m}$ ,目标是去找出这组数据的模式特征,比如哪些数据是一种类型的,哪些数据是另外一种类型的。典型的无监督式学习包括市场细分,通过分析用户数据,来把一个产品的市场进行细分,找出细分人群。另外一个是社交网络分析,分析社交网络中的参与人员的不同特点,根据特点区分出不同群体。这些都是无监督式学习里的聚类 (Clustering) 问题。

K 均值算法

K 均值算法算法就是一种解决聚类问题的算法,它包含两个步骤:

  • 给聚类中心分配点:计算所有的训练样例,把他分配到距离某个聚类中心最短的的那聚类里。
  • 移动聚类中心:新的聚类中心移动到这个聚类所有的点的平均值处。

一直重复做上面的动作,直到聚类中心不再移动为止。这个时候我们就探索出了数据集的结构了。可以通过一个动画来直观地看一下 K 均值算法聚类的过程:

数据挖掘算法:K 均值算法

k-means animation

用数学的方法来描述 K 均值算法如下:

算法有两个输入信息。一是 K 表示选取的聚类个数;二是训练数据集 ${x^{(1)}, x^{(2)}, … , x^{(m)}}$。

  1. 随机选择 K 个聚类中心 $u_1, u_2, … , u_k$。
  2. 从 1 – m 遍历所有的数据集,计算 $x^{(i)}$ 分别到 $u_1, u_2, … , u_k$ 的距离,记录距离最短的聚类中心点。然后把 $x^{(i)}$ 这个点分配给这个聚类。令 $c^{(i)} = j$ 其中 $u_j$ 就是与 $x^{(i)}$ 距离最短的聚类中心点。计算距离时,一般使用 $| x^{(i)} – u_j |^2$ 来计算。
  3. 从 1 – K 遍历所有的聚类中心,移动聚类中心的新位置到这个聚类的均值处。即 $u_j = frac{1}{c} left( sum_{d=1}^c right)$ ,其中 c 表示分配给这个聚类的训练样例点的个数。如果特殊情况下,没有点分配给这个聚类中心,那么说明这个聚类中心就不应该存在,直接删除掉这个聚类中心,最后聚类的个数变成 K – 1 个。
  4. 重复步骤 2 ,直到聚类中心不再移动为止。

K 均值算法成本函数

数据挖掘算法:K 均值算法

K-means cost function

其中, $c^{(i)}$ 是训练样例 $x^{(i)}$ 分配的聚类序号;$u_{c^{(i)}}$ 是 $x^{(i)}$ 所属的聚类的中心点。K 均值算法的成本函数的物理意义,就是训练样例到其所属的聚类中心点的距离的平均值

随机初始化聚类中心点

假设 K 是聚类的个数,m 是训练样本的个数,那么必定有 $K < m$。在随机初始化时,随机从 m 个训练数据集里选择 K 个样本来作为聚类中心点。这是正式推荐的随机初始化聚类中心的做法。

在实际解决问题时,最终的聚类结果会和随机初始化的聚类中心点有关。即不同的随机初始化的聚类中心点可能得到不同的最终聚类结果。因为成本函数可能会收敛在一个局部最优解,而不是全局最优解上。一个解决方法是多做几次随机初始化的动作,然后训练出不同的取类中心点以及聚类节点分配方案。然后用这些值算出成本函数,最终选择那个成本最小的。

比如,假设我们做 100 次运算,步骤如下:

  1. 随机选择 K 个聚类中心点
  2. 运行 K 均值算法,算出 $c^{(1)}, c^{(2)}, … , c^{(m)}$ 和 $u_1, u_2, … , u_k$
  3. 使用 $c^{(1)}, c^{(2)}, … , c^{(m)}$ 和 $u_1, u_2, … , u_k$ 算出最终的成本值
  4. 记录最小的成本值,然后跳回步骤 1,直到达到最大运算次数

这样我们可以适当加大运算次数,从而求出全局最优解。

选择聚类的个数

怎么样选择合适的聚类个数呢?实际上聚类个数和业务有紧密的关联,比如我们要对 T-Shirt 大小进行聚类分析,我们是分成 3 个尺寸好呢还是分成 5 个尺寸好?这个更多的是个业务问题而非技术问题。3 个尺寸可以给生产和销售带来便利,但客户体验可能不好。5 个尺寸客户体验好了,但可能会给生产和库存造成不便。

数据挖掘算法:K 均值算法

Elbow

从技术角度来讲,也是有一些方法可以来做一些判断的。我们可以把聚类个数作为横坐标,成本函数作为纵坐标,这样把成本和聚类个数的数据画出来。如上图所示。大体的趋势是随着 K 值越来越大,成本越来越低。我们找出一个拐点,即在这个拐点之前成本下降比较快,在这个拐点之后,成本下降比较慢,那么很可能这个拐点所在的 K 值就是我们要寻求的最优解。

当然,这个技术方法并不总是有效,我们很可能会得到一个没有拐点的曲线,这样的话,就必须和业务逻辑结合以便选择合适的聚类个数。

本文采用「CC BY-SA 4.0 CN」协议转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权和其他问题请给「我们」留言处理。

(0)
张乐的头像张乐编辑
上一篇 2015-12-16
下一篇 2015-12-19

相关文章

  • 银行客户信用评分及实现

    当今社会,“信用”越来越受到人们的重视,不论是个人还是企业,都期望获得尽可能高的信用评分,以享受到更多的授信额度、更优惠的利率等。那么,银行究竟是如何对客户进行信用评分的呢?就让我们通过本期的文章一起了解一下吧。

    2017-02-13
    0
  • 如何做好数据挖掘与数据建模的9条经验总结

    数据挖掘是利用业务知识从数据中发现和解释知识(或称为模式)的过程,这种知识是以自然或者人工形式创造的新知识。 当前的数据挖掘形式,是在20世纪90年代实践领域诞生的,是在集成数据挖掘算法平台发展的支撑下适合商业分析的一种形式。也许是因为数据挖掘源于实践而非 理论,在其过程的理解上不太引人注意。20世纪90年代晚期发展的CRISP-DM,逐渐成为数据挖掘过程的…

    2016-02-29
    0
  • 以“上大学分析”为例体验什么是数据挖掘

    下面我们将通过具体的例子来学习什么是数据挖掘。

    2013-10-11
    0
  • 文本数据的机器学习自动分类方法(下)

    随着互联网技术的迅速发展与普及,如何对浩如烟海的数据进行分类、组织和管理,已经成为一个具有重要用途的研究课题。而在这些数据中,文本数据又是数量最大的一类。

    2016-05-24
    0
  • 吃货福音:大数据告诉你今天吃什么?

    摘要:大家五一节快乐!放假期间有没有想过出去搓一顿呢不过,身为选择困难症的吃货,感觉每天都要受到来自各方面的信息攻击:熟人在朋友圈晒美食,陌生人在网上分享食谱,连美食app也不放过推荐。好像全世界都在向你推荐今天吃什么……所以,今天到底该吃什么啊我们提出了一个构想,帮你解决吃什么的问题。 “今天吃什么?” “随便。” “能不能不要天天说随便?你每次说了都跟没…

    2016-05-01
    0
关注我们
关注我们
分享本页
返回顶部