基于属性集成的三支聚类算法
Three-Way Clustering Based on Attribute In-tegration
DOI: 10.12677/AAM.2022.1110777, PDF, HTML, XML, 下载: 163  浏览: 288  科研立项经费支持
作者: 薛文龙, 王平心:江苏科技大学理学院,江苏 镇江
关键词: 三支聚类属性集成KmeansThere-Way Clusters Attribute Integration Kmeans
摘要: 在三支聚类中,每一个类簇由核心域、边界域、琐碎域三个集合来表示,体现出聚类中的不确定性,降低了决策风险。针对属性数较多的数据集,本文提出了一种基于属性集成的三支聚类算法。该算法通过对样本随机选择部分属性使用kmeans算法进行聚类,并根据每次聚类的结果采用集成策略将元素划分至核心域、边界域或琐碎域中。在UCI等数据集上测试的结果表明,该算法相较于传统的kmeans算法,可以较好地提升聚类结果的ACC、DBI和AS指标。
Abstract: In the three-way clustering, each cluster is represented by three sets of core domains, boundary domains, and trivial domains, reflecting the uncertainty in the cluster, and reducing the risk of de-cision-making. In this paper, a three-branch clustering method based on attribute integration is proposed for datasets with a large number of attributes. The algorithm uses k-means algorithm to cluster by randomly selecting some attributes, and classifies elements into core, boundary, or trivial domains based on the results of each clustering. Tested on the UCI and other dataset, the results obtained are better than the conventional clustering method in ACC, DBI and AS indicators, which can improve the clustering effect.
文章引用:薛文龙, 王平心. 基于属性集成的三支聚类算法[J]. 应用数学进展, 2022, 11(10): 7317-7324. https://doi.org/10.12677/AAM.2022.1110777

1. 引言

聚类,是将一组数据对象集划分成几个类簇,处于同一个簇中的对象相似度较高,而处于不同簇中的样本相似度低。聚类是一种无监督学习方法,现实世界里的真实数据集没有原始分类标签,想要挖掘数据之间信息需要使用聚类分析,所以聚类对无标签数据学习极其重要。聚类分析经过不断地发展也已经应用到机器学习、模式识别和数据挖掘等领域。传统的聚类算法可以分为基于划分聚类、基于层次聚类、基于模糊理论聚类、基于扰动聚类、基于密度聚类、基于图论聚类、基于网格聚类、基于分型聚类和基于模型聚类等 [1]。Kmeans是一种基于划分的聚类算法,是聚类算法中最常用的算法,被广泛应用于计算机视觉和天文学等领域。

传统的聚类方法是二支聚类,即对于每一个元素都有唯一确定的一个类簇与之匹配。但在实际划分中通常会遇到信息不充分的情况,这时如果将数据对象强行划分至某一个类簇,会增加误分类的概率,导致聚类精度降低,提高决策的风险。针对这一问题,许多软聚类算法被提出。如,Hoppner et al. [2] 通过引入模糊集的概念,提出了模糊聚类。Lingras [3] 将粗糙集的概念引入聚类中,提出了粗糙聚类方法。Yao et al. [4] 提出用区间集来表示类簇。Yu et al. [5] [6] 基于三支决策思想,提出了三支聚类方法。

除了决策风险问题,许多聚类算法还会遇到另一个问题:对于属性数较大的数据集,聚类的效果并不好。在面对属性较多的数据集时,如果同时考虑所有的属性,会使得聚类效果并不理想;但如果只选取部分属性,则聚类的结果会比较片面。故许多算法在面对属性数较大的数据集时,会采用数据降维的方法。本文提出的基于属性集成的三支聚类算法,无需对数据集进行降维处理,结合了三支聚类的思想,对不确定的对象延迟决策,从而降低决策风险。其主要思想是:通过对数据集进行多次聚类,每次选取其中的部分属性进行聚类,然后对多次聚类的结果进行集成,根据元素在聚类中出现的次数来决定将元素划分至核心域、边界域或琐碎域中。仿真实验结果表明,该方法具有有效性和可行性。

2. 相关工作

2.1. 三支聚类

设有数据集 U = { x 1 , x 2 , , x n } ,在传统的二支聚类中,每一个类簇用集合来表示,即寻找一组集合 C 1 , C 2 , , C k 满足

i = 1 k C i = U (1)

C i C j = , i , j = 1 , 2 , , k ; i j (2)

在传统二支聚类中,一个对象和一个类簇之间只有两个关系:对象属于类簇或者对象不属于类簇。但在实际情况中,可能因为信息的缺失或者对象本身的模糊性而导致无法确定对象是否属于类簇。如果在此时将对象强行划分至某类簇中,会降低聚类的精确度。三支聚类是解决这一问题的方法之一。

三支聚类是由Yu et al. [7] 在引入了三支决策的思想后提出的。2010年Regina大学的姚一豫教授在研究粗糙集三个域和统计学中的假设验证基础上提出了三支决策理论 [8] [9] [10]。他将研究对象分为正域、负域和边界域。正域中的对象是被接受的,负域中的元素是被拒绝的,而边界域中的元素是不做决定或者推迟决定的。

在三支聚类中,每一个类簇用三个互不相交的集合 C i P , C i B , C i N 来表示,分别称为核心域、边界域和琐碎域,它们满足:

C i P C i B C i N = U (3)

核心域中的元素一定属于这个类簇,琐碎域中的元素一定不属于这个类簇,而边界域中的元素可能属于也可能不属于这个类簇。有时可以不用表示出琐碎域,使用核心域和边界域来表示一个类簇。三支聚类的结果可以表示为 { ( C 1 P , C 1 B ) , ( C 2 P , C 2 B ) , , ( C k P , C k B ) } ,其满足

C i P , i = 1 , 2 , , k (4)

i = 1 k ( C i P C i B ) = U (5)

其中式(4)保证论域非空,式(5)保证每一个点都属于一个类中。

若在三支聚类中满足 C i B = , i = 1 , 2 , , k ,则此时三支聚类退化成了二支聚类。从而可以看出三支聚类是二支聚类的一个推广。

由式(2)可知,传统的二支聚类是一种硬聚类,即每一个元素都属于唯一的类簇中。与硬聚类相对的是软聚类,即一个样本可以属于多个类簇,或者类簇之间的交集不为空。三支聚类既可以是一种硬聚类也可以是一种软聚类。具体的,如果存在 i , j = 1 , 2 , , k i j 满足以下四种条件:

C i P C j P (6)

C i P C j B (7)

C i B C j P (8)

C i B C j B (9)

之一的话,则该聚类是一种软聚类,否则是一种硬聚类。本文的聚类是一种软聚类。

2.2. Kmeans算法

Kmeans算法是一种基于划分的聚类算法。其主要思想是在给定类簇个数k以及k个初始类簇中心点的情况下,将每个对象分配到与之最近的类簇中心所属的类簇中。每个对象都被分配之后,重新计算每个类簇的中心点。迭代上述过程,直到满足一定的条件,如类簇中心点的变动很小、达到给定的迭代次数。优点是简单易懂且方便实现。Kmeans算法中的主要定义如下:

定义1 (距离):在数据集U中,有n个对象 { x 1 , x 2 , , x n } ,每个对象有p个属性 x i = ( x i 1 , x i 2 , , x i n ) 。对象与聚簇中心的距离D(xi, xj)采用欧式距离

D ( x i , c j ) = x i c j 2 = k = 1 p ( x i k c j k ) 2 (10)

其中xi为第i个对象,cj为第j个聚簇的中心,xik为xi的第k个属性,cjk为cj的第k个属性。

定义2 (类簇中心):类簇的中心是该类簇中所有对象各个维度的平均值,即

c i j = 1 k i t = 1 k i x t j ( i ) (11)

其中,cij为第i个聚簇的中心ci的第j个属性,ki为第i个聚簇中的元素个数, x t j ( i ) 为第i个聚簇中第t个元素的第j个属性。

Kmeans算法步骤如下:

3. 基于属性集成的三支聚类

本算法适合处理属性数比较多的数据集,其主要思想是对数据集的不同的属性进行多次聚类,再根据总的聚类结果进行分类。首先选择数据集中的一部分属性,针对这些属性使用kmeans算法进行聚类。重复上述过程多次,并记录下每一次聚类的结果。最后根据聚类的结果进行分类,依据每个点在聚类中出现的次数,来确定将其划分到核心域、边界域还是琐碎域之中。

属性选择的方法并不是固定的,可以根据实际的需要采用不同的方法,如将属性分成不同的部分,依次对这些部分进行选择;或每次随机选择一定比例的属性;或根据属性的含义进行选择等。本实验采用随机选择属性的方法,每次随机选择其中的80%的属性,重复10次。

由于kmeans算法是无监督的聚类方法,有可能出现虽然聚类结果一样但每个对象的标签却截然不同。故要对分类的结果进行标签匹配,来保证尽可能多的元素在不同的聚类结果中属于相同的类簇。标签匹配有两种方式,第一种方式是为每一个标签尽量选择匹配程度最高的标签,优点是简单,复杂度低,但容易陷入局部最优解;另一种方式就是从全局出发,寻找一种标签的分配方法,确保尽可能多的对象在不同的聚类结果中属于相同的类簇,这种方式的获得的效果更加理想,但复杂度更高。但并非采用第二种匹配方式的效果就会比第一种方法好。在实验中发现,在聚类过程中使用第一种方式进行标签匹配时聚类效果最佳。在进行数据评估的时候,使用第二种方式可以保证结果的准确性。

聚类的结果使用一个 u × k 维矩阵R来表示,其中 R i j = { 0 , 1 , 2 } 。若 R i j = 0 ,则说明对象i在类簇j的琐碎域中;若 R i j = 1 ,则说明对象在类簇j的边界域中;若 R i j = 2 ,则说明对象i在类簇j的核心域中。

该算法的算法流程如下:

4. 实验仿真

4.1. 数据集介绍

本文采用4组UCI数据集:LSVT Voice Rehabilitation (LSVT) [11]、Statlog (Image Segmentation) (Statlog)、Urban Land Cover (Urban)、dermatology_numeric (dermatology) [12],2组Shape数据集 [13]:D31、R15和2组sipu数据集 [14]:mk2、z2对算法进行测试,具体信息如表1所示。

4.2. 实验性能评价指标

聚类标准评价大致分为两类:外部聚类和内部聚类。本文采用评价指标为准确率(Accuracy, ACC)、DBI (Davies-Bouldin Index)和平均轮廓系数(AS, Average Silhouette)。

4.2.1. 准确率

ACC是一种常见的评价聚类结果好坏的外部指标,将预测的结果与真实值做对比,此值越高说明聚类结果越好。

定义3 (ACC) [15]:

A C C = 1 N i = 1 k C i (12)

其中, 为样本容量, C i 为正确划分到类簇 i 的样本个数, k 为聚类数。

4.2.2. DBI

DBI是一种聚类性能度量的内部指标。其基本原理是计算计算所有簇的类内距离和类间距离的比值,越接近0,则说明聚类效果越好。

定义4 (DBI) [16]:

D B I = 1 k i = 1 k max i j c i + c j w i w j 2 (13)

其中, c i 表示第i类中所有样本到聚类中心 w i 的平均距离, w i w j 2 表示类簇i与类簇j聚类中心之间的欧式距离,k表示聚类数。

4.2.3. 轮廓系数

轮廓系数 S i 是由Rousseeuw提出的一种评价聚类好坏效果的指标。它结合了凝聚度和分离度两个因素,可以评估一个点被分类在类簇中的合理程度。

定义5样本i的轮廓系数Si [16]

S i = b i a i max { a i , b i } (14)

其中 a i 为样本i到同簇其它样本的平均值,称为簇内不相似度, b i 为样本i到其他某类簇中的点的平均距离的最小值,称为簇间不相似度。 S i 的取值范围为 [ 1 , 1 ] ,接近1说明对样本i的分类合理,接近−1说明样本i的应该被划分到其他类簇之中,接近0说明样本i处在多个类簇的交界处。

平均轮廓系数是所有样本的轮廓系数的平均值,它可以用来评估聚类划分的合理性。

定义6 AS

A S = 1 n i = 1 n S i (15)

其中, S i 为样本i的轮廓系数。平均轮廓系数的取值范围为 [ 1 , 1 ] ,趋于1说明聚类效果比较好,小于0说明簇内的平均距离小于最近的其他簇,表示聚类效果不好。

5. 实验结果

本实验对每组数据分别使用kmeans与三支聚类进行100次聚类,计算每次聚类结果的ACC,DBI与AS,并取平均数,实验结果如表2所示。

从实验数据中可以看出,无论是对于属性较多的数据集,还是对于属性较少的数据集,本文提出的方法与kmeans相比,所得的聚类更加准确、效果也更好。从R15、LSVT数据集上的结果可以看出,三支聚类在DBI和AS的指标上优于二支聚类,同时准确率类也略优于二支聚类。从其他的数据集上也可以看出类似的效果,由此可以证实,基于属性集成的三支聚类算法是有效的。

Table 1. Datasets used in experiments

表1. 实验中使用的数据集

Table 2. Results of experiment

表2. 实验结果

6. 总结

传统的聚类方法有两个问题:一是强行将所有对象划入某一类簇中会带来决策风险;二是对于属性较多的数据集效果会很差。本文提出了一种基于属性集成的三支聚类方法,通过对同一数据集多次根据不同的属性列进行聚类,并根据聚类的结果来决定对象该划分至核心域或边界域中,既能提高聚类的准确性,又可以处理高维度数据。实验结果表明本文提出的方法可以有效提高聚类的准确性,同时在DBI与AS指标上相较于二支聚类也有较好的效果。实验过程中发现,该算法中的许多因素,如对象划分至核心域的标准或属性的选取方式、选取次数等,均会影响结果的准确性。后续实验将定量分析这些参数对实验结果的影响,并提升算法的效率。

基金项目

本文受到江苏省高等学校大学生创新创业训练计划项目(项目编号202210289036Z)资助。

参考文献

[1] Xu, D. and Tian, Y. (2015) A Comprehensive Survey of Clustering Algorithms. Annals of Data Science, 2, 165-193.
https://doi.org/10.1007/s40745-015-0040-1
[2] Hoppner, F., Klawonn, F., Kruse, R., et al. (1999) Fuzzy Cluster Analysis: Methods for Classification, Data Analysis and Image Recognition. Wiley, New York.
[3] Lingras, P. and West, C. (2004) Interval Set Clustering of Web Users with Rough k-Means. Journal of Intelligent Information Systems, 23, 5-16.
https://doi.org/10.1023/B:JIIS.0000029668.88665.1a
[4] Yao, Y.Y., Lingras, P., Wang, R.Z., et al. (2009) Interval Set Cluster Analysis: A Re-Formulation. In: Sakai, H., Chakraborty, M.K., Hassanien, A.E., et al., Eds., Rough Sets, Fuzzy Sets, Data Mining and Granular Computing, Springer, Berlin, 398-405.
https://doi.org/10.1007/978-3-642-10646-0_48
[5] Yu, H., Chu, S.S. and Yang, D.C. (2012) Autonomous Knowledge-Oriented Clustering Using Decision-Theoretic Rough Set Theory. Fundamenta Informaticae, 115, 141-156.
https://doi.org/10.3233/FI-2012-646
[6] Yu, H., Liu, Z.G. and Wang, G.Y. (2014) An Automatic Method to De-termine the Number of Clusters Using Decision Theoretic Rough Set. International Journal of Approximate Reasoning, 55, 101-115.
https://doi.org/10.1016/j.ijar.2013.03.018
[7] Yu, H., Chu, S.S. and Yang, D.C. (2010) Autonomous Knowledge-Oriented Clustering Using Decision-Theoretic Rough Set Theory. In: Yu, J., Greco, S., Lingras, P., et al., Eds., Rough Set and Knowledge Technology, Springer, Berlin, 687-694.
https://doi.org/10.1007/978-3-642-16248-0_93
[8] Yao, Y.Y. (2010) Three-Way Decisions with Probabilistic Rough Sets. Information Sciences, 180, 341-353.
https://doi.org/10.1016/j.ins.2009.09.021
[9] Yao, Y.Y. (2011) The Superiority of Three-Way Decisions in Probabilistic Rough Set Models. Information Sciences, 181, 1086-1096.
https://doi.org/10.1016/j.ins.2010.11.019
[10] Yao, Y.Y. (2012) An Outline of a Theory of Three-Way Decisions. In: Yao, J., Ed., Rough Sets and Current Trends in Computing, Springer, Berlin, 1-17.
https://doi.org/10.1007/978-3-642-32115-3_1
[11] Little, M.A., McSharry, P.E., Hunter, E.J. and Ramig, L.O. (2009) Suitability of Dysphonia Measurements for Telemonitoring of Parkinson’s Disease. IEEE Transactions on Bio-medical Engineering, 56, 1015-1022.
https://doi.org/10.1109/TBME.2008.2005954
[12] Tsanas, A., Little, M.A., Fox, C. and Ramig, L.O. (2014) Ob-jective Automatic Assessment of Rehabilitative Speech Treatment in Parkinson Disease. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 22, 181-190.
https://doi.org/10.1109/TNSRE.2013.2293575
[13] Fänti, P. and Sieranoja, S. (2018) K-Means Properties on Six Clustering Benchmark Datasets. Applied Intelligence, 48, 4743-4759.
https://doi.org/10.1007/s10489-018-1238-7
[14] Veenman, C.J., Reinders, M.J.T. and Backer, E. (2002) A Maxi-mum Variance Cluster Algorithm. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24, 1273-1280.
https://doi.org/10.1109/TPAMI.2002.1033218
[15] Schölkopf, B., Platt, J. and Hofmann, T. (2007) A Local Learning Approach for Clustering. In: International Conference on Neural Information Processing Systems, MIT Press, Vancouver, 1529-1536.
https://doi.org/10.7551/mitpress/7503.001.0001
[16] Fahad, A., Alshatri, N., Tari, Z., et al. (2014) A Survey of Clustering Algorithms for Big Data: Taxonomy and Empirical Analysis. IEEE Transactions on Emerging Topics in Computing, 2, 267-279.
https://doi.org/10.1109/TETC.2014.2330519