基于多标签随机游走的选择性集成方法用于表情识别
A Selective Ensemble Method Based on Multi-Label Random Walk for Expression Recognition
DOI: 10.12677/SEA.2022.116138, PDF, HTML, XML, 下载: 236  浏览: 1,054 
作者: 黄仕松, 李丹杨*, 陈 星, 唐玉梅, 吴义青:贵州大学大数据与信息工程学院,贵州 贵阳
关键词: 选择性集成随机游走卷积神经网络人脸表情识别Selective Ensemble Random Walk Convolutional Neural Network Expression Recognition
摘要: 为了提升分类器集成的性能,本文提出了一种基于多标签随机游走的选择性集成方法,该方法将分类器选择问题建模为多标签分类问题,以灵活有效选择分类器。首先在训练集样本与分类器序列间建立映射,将能正确识别样本的分类器序列视为样本标签,对于一个特定的测试样本,寻找它的近邻样本,并构建出多标签随机游走图,执行随机游走过程,根据收敛后的概率向量选择出对应的分类器序列进行集成。在Fer2013、CK+和JAFFE人脸表情数据集上进行实验,并与一些当前先进的选择性集成算法进行对比,实验结果证明了该算法的可行性和有效性。
Abstract: In order to improve the ensemble performance of classifier ensemble, a selective ensemble method based on multi-label random walk is proposed, which models the classifier selection problem as a multi-label classification problem to select classifiers flexibly and effectively. First, a mapping is established between the training set samples and the classifier sequence, and the classifier sequence that can correctly identify the sample is regarded as the sample label. For a specific test sample, its neighbor samples are found, and a multi-label random walk graph is constructed. A random walk process is performed, and the corresponding classifier sequence is selected for ensemble according to the converged probability vector. Experiments are carried out on Fer2013, CK+ and JAFFE facial expression datasets, and compared with some current advanced selective ensemble algorithms. The experimental results demonstrate the feasibility and effectiveness of the algorithm.
文章引用:黄仕松, 李丹杨, 陈星, 唐玉梅, 吴义青. 基于多标签随机游走的选择性集成方法用于表情识别[J]. 软件工程与应用, 2022, 11(6): 1344-1356. https://doi.org/10.12677/SEA.2022.116138

1. 引言

近年来,人脸表情识别已成为一个重要的研究领域,在人机交互、生物识别、临床医学和公共安全等方面具有较为广泛的应用 [1]。面部表情的复杂性和微变化性使面部表情识别更具挑战性 [2]。因此,提高人脸表情识别的准确率显得尤为重要。

先前的许多研究仅使用单个分类器来识别面部表情,由于单个模型的鲁棒性较弱,识别变得较为困难。而研究表明,组合多个分类器比单个分类器可以取得更好的分类效果,因为多个分类器的组合可以获得更合理的分类边界,降低整体错误率 [3]。虽然这种基于集成的方法可以提高表情识别效果,但它存在以下缺点:1) 随着分类器数量的增加,需要更多的存储空间和计算时间 [4];2) 分类器数量增加导致的分类器冗余影响人脸表情的最终识别效果 [3]。因此,需要进行选择性集成以移除原始集成中质量较差的分类器,消除冗余并保持或提高最终识别性能。

一般来说,选择性集成方法可分为静态选择与动态选择 [5],静态选择性集成根据指定标准从基学习器池中选择一个固定的子集对未知样本进行预测。Li提出了基于最大相关最小冗余的集成选择方法,提升了分类器集成的效果 [6],Zhang等人提出了一种贪婪排序策略来重新选取分类器成员的融合顺序,衡量了集成的准确性和多样性 [7]。不同于静态选择,动态选择性集成是基于每个给定未知样本从集成中选择不同的子集对其进行预测。Elmi首先提出了通过多层选择器结合动态选择方法的思想,提升了算法性能 [8]。饶川等人选取对测试样本最近邻的K个训练样本分类效果好的SVM分类器进行融合,以提高集成分类准确率 [9]。Jan提出一种叫做误分类多样性的多样性测度方法和增量分层分类器选择算法 [10],实验证明了该方法提升了分类器集成的准确率。理论上,动态选择比静态选择更加的灵活,研究也表明,动态选择性集成的性能往往好于静态选择性集成,这些优点使动态选择得到了越来越多研究者的关注。

为了提升分类器集成系统的性能,在应对真实的分类环境依然具有较好的稳定性,本文提出一种多标签随机游走和选择性集成算法。首先基于验证集样本评估分类器的能力,为每个验证集样本选择出能正确对其分类的分类器序列组合,每个样本可对应多个分类器序列组合,从而构建了关于样本–分类器序列之间的多标签训练集;然后引入基于随机游走的多标签方法,当输入一个测试样本,然后寻找到它的近邻样本,将该测试样本与它的近邻样本构建多标签随机游走图,并执行随机游走过程;最后根据随机游走过程结束得到的概率分布,计算测试样本属于每个标签的概率值,从而确定测试样本的标签集,将该标签集所对应的分类器序列进行集成预测,最终得到该测试样本的类别。

本文的主要贡献如下:

1) 提出了一种新的分类器选择性集成模型,将分类器选择问题建模为多标签分类问题,并创新性地引入随机游走算法加以解决,通过实验结果证明了该模型的有效性。

2) 在构建多标签随机游走图时,为特定测试样本的K个近邻样本而不是所有训练集样本来构造点集,降低了随机游走图的复杂度,从而大大减少了时间和空间开销。

3) 根据训练集间的标签分布,构建训练样本标签间的关联边集。在随机游走模型中通过点与点之间的连通性表征标签之间的相关性,即考虑了每个分类器序列之间的相关性,能够更准确评价未分类数据对于每个标签的概率分布情况,弥补了其他选择性集成方法忽略分类器间相关性的缺点。

4) 将提出的基于多标签随机游走的选择性集成算法运用人脸表情识别领域,并提升了人脸表情的识别率。

2. 本文方法与理论

本文提出的基于随机游走的选择性集成方法的整体思想是将动态选择性集成建模为一个多标签学习任务。首先进行多标签训练集的构建,根据分类器在训练集的识别结果,为每个训练样本选择能对其正确分类的分类器序列;然后给定一个测试样本,在训练集中寻找其K近邻样本,根据测试样本与训练样本的关系生成随机游走图系列,执行随机游走过程,得到游走概率;接着通过测试样本游走到其邻域样本的概率来得到最有可能正确分类该测试样本的分类器序列,最后将这些分类器序列的结果进行融合,输出该测试样本的预测类别。本文提出方法的流程图如图1所示。

Figure 1. Selective ensemble method based on multi-label random walk

图1. 多标签随机游走的选择性集成方法

2.1. 多标签训练集的构建

设训练集数据为 D = { x 1 , x 2 , , x n } ,对应的数据标签为 Y = { y 1 , y 2 , , y n } ,且有分类器池 C L = { c l 1 , c l 2 , , c l t } 。利用基于准确率排序的选择性集成方法,首先基于全部训练集选择出的分类器序列为 Ω l 1 ,其中 Ω l 1 = [ Ω 1 , Ω 2 , , Ω t ] 1 × t Ω i { 0 , 1 } ,如果分类器 c l i 被选入该分类器序列,则 Ω i = 1 ,否则 Ω i = 0 。然后利用此次得到的分类器序列 Ω l 1 对所有训练样本进行分类,如果能正确识别该样本,那么将 Ω l 1 视为该训练样本的标签,即将样本从数据–标签空间映射到数据–分类器序列组合空间。接着进行下一轮轮迭代,将未正确分类的训练数据重新集合起来形成第二轮训练样本,依然利用上一阶段的集成方法得到新的分类器序列 Ω l t ,同样将 Ω l t 视为所有能被其正确分类样本的标签。重复该过程,直到所有样本都打上相应标签。多标签训练集构建的完整过程如算法一所示。

算法一多标签训练集构建

输入:训练集 D = { x 1 , x 2 , , x n } ,标签 Y = { y 1 , y 2 , , y n } ,分类器池 C L = { c l 1 , c l 2 , , c l t }

输出:多标签训练集 { Ω } n

a) for i = 1 to n do

b) CL中的每个分类器 { c l 1 , c l 2 , , c l t } D进行预测,根据Y 计算每个分类器准确率降序排列,选择对D的识别准确率最高的前K个分类器序列 Ω l i

c) for j = 1 to n do

d) 如果 Ω l i ( x j ) = y j Ω l i Ω ( j ) ,并令 D = D \ x j

e) end for

f) if ( Ω [ k ] , k = 1 , 2 , , n )

g) 结束循环;

h) else继续执行步骤b);

i) end if

j) end for

2.2. 随机游走图生成

为了描述多标签随机游走图的生成,首先介绍关于多标签学习的基本概念。假定 ( x , y ) 表示多标签样本, y L 是该样本对应的标签集,则总体标签集定义为 L = { l 1 , l 2 , , l Q } x = { x 1 , x 2 , , x D } 为D维特征向量, x d 为该特征向量的第d个分量, y = { y 1 , y 2 , , y Q } 为y对应的标签向量, y q 可描述为:如果 l q y ,即表示样本具有标签 l q ,则 y q = 1 ,否则 y q = 0 。因此多标签分类器可定义为:

f : X { 0 , 1 } Q (1)

随机游走是一种基于图形表示的算法,它通过迭代搜索图网络的结构来估计两个节点之间的接近度。而多标签随机游走是为解决多标签问题而设计,利用随机游走图上顶点之间的连接来精确地描述标签之间的相关性 [11]。

多标签随机游走图的基本思路为:将测试样本及其它在多标签训练集中的K近邻样本映射为图中的顶点。对于一个特定测试实例 x t ,多标签随机游走算法为每个标签都构造一个随机游走图;如果K近邻样本 N x t K 具有相同的标签,则将它们通过无向边连接,对于测试实例 x t 在标签 l q 上的随机游走图,将 x t 与具有标签 l q 的样本相连。最终为测试实例 x t 构建Q个游走图,记作 G x t q q = 1 , 2 , , Q ,如图2所示。本文将多标签随机游走图的详细构建过程描述如下:

基于标签 l q G x t q 表示根据测试实例 x t 的K近邻样本构建的图,定义如下:

G x t q = ( V x t q , E x t q ) (2)

V x t q = V x t { v t | v t = x t } (3)

E x t q = E x t { e t i | x N x t K , l q y } (4)

点集 V x t 定义为:

V x t = { v i | x i N x t K , s .t . v i = x i , i = 1 , 2 , , K } (5)

其中, v t 表示测试实例 x t 在多标签随机游走图中所对应的顶点,边集 { e t i | x N x t K , s .t . l q y } 表示将顶点 v t N x t K 中具有标签 l q 的顶点相连; E x t 为关于点集 V x t 所构建的边集,定义为:

E x t = { e i j | v i = x i , v j = x j , y i y j } (6)

Figure 2. Construction of multi-label random walk graph

图2. 多标签随机游走图的构建

2.3. 机游走过程

基于上一小节构建的随机游走图 G x t q ,其对应的迭代模式描述如下:

p q k + 1 = ( 1 α ) P x t q × p q k + α d (7)

其中, p q k K ( k = 1 , 2 , ) 为经过k次随机游走后的概率分布, p q k 的第i个元素 p q k ( i ) 表示图 G x t q 第i个顶点的概率; P x t q K × K G x t q 的转移概率矩阵, P x t q 的元素 P x t q ( i , j ) 表示顶点 v i 游走到顶点 v j 的概率,定义如下:

P x t q ( i , j ) = S i m ( v i , v j ) δ ( e i , j E x t q ) k = 1 K S i m ( v i , v j ) δ ( e i , j E x t q ) (8)

其中, δ ( e i , j E x t q ) = { 1 , e i , j E x t q 0 , e i , j E x t q

α [ 0 , 1 ] 为一个常量, d K 为跳跃概率向量,假设从任意顶点开始,一个游走者以相同概率(1/K)从一个顶点跳跃到其他顶点, I K 为K维的全1向量,则将d定义如下:

d = I K K (9)

本文采用高斯核函数来计算样本之间的相似性,定义如下:

S i m ( v i , v j ) = exp ( ( d i s t ( v i , v j ) ) 2 2 σ 2 ) (10)

其中, σ 为高斯核中的扩散因子, d i s t ( v i , v j ) 表示两个样本点之间的欧式距离,计算方法如下:

d i s t ( v i , v j ) = k = 1 D ( v i k v j k ) 2 (11)

根据公式(7),收敛的概率分布向量必须满足:

p q * = ( 1 α ) P x t q × p q * + α d (12)

当随机游走过程结束时,将得到稳定的概率分布向量 p q * p q * 表示将测试样本 x t 对应的顶点 v t 与具有标签 l q 的样本相连时(记作 x t < l q ),从 v t 游走到图 G x t q 中每个顶点的条件概率:

P ( v i | x t < l q ) = p q * ( i ) (13)

其中 p q * ( i ) 为概率分布向量 p q * 的第i个元素,将每个标签对应的点的概率取均值,于是可得到遍历图 G x t q 时,随机游走到每个标签的平均条件概率为:

P ( l j Y x t | x < l q ) = a v e { P ( v i | x < l q ) | l j Y i } (14)

然后根据文献 [12] 中的条件概率模型,计算测试样本 x t 具有标签 l j 的概率值:

P ( l j Y x t ) = q = 1 Q P ( l j Y x t | x t < l q ) P ( x t < l q ) (15)

其中,测试样本 x t 与具有标签 l q 的点相连的概率 P ( x t < l q ) 通过 v t 与具有标签 l q 的顶点的平均距离来表示,可通过公式(10)计算得到。本文算法的详细过程可见算法二。

2.4. 分类器融合

假定所得分类器序列为 { Ω l 1 , Ω l 2 , , Ω l k } ,该分类器序列所组成的分类器为 C = { c 1 , c 2 , , c m } ,利用C中所有个体分类器对输入测试样本进行预测,使用多数投票法融合所得分类器的预测标签,将最终融合的标签值作为测试样本的预测结果,该过程表示为:

C i = arg max e j = 1 m I ( c i j = e ) (16)

其中, e = 1 , 2 , , 7 ,对应7个不同的表情类别,如果分类器 c j 对测试样本i的预测标签 c i j 等于e,则 I ( · ) = 1 ,否则 I ( · ) = 0

算法二基于多标签随机游走的选择性集成算法

输入:训练集 D = { x 1 , x 2 , , x n } ,对应标签 Y = { y 1 , y 2 , , y n } ,分类器池 C L = { c l 1 , c l 2 , , c l t } ,测试样本 x t

输出:测试样本 x t 的预测标签 l t

a) 根据算法1构建关于训练集D—分类器序列之间的多标签训练集 { Ω } n

b) 根据欧式距离 d i s t ( v t , v i ) 寻找 x t 的K近邻样本 N x t K ,根据图2构建过程建立关于 x t 的Q个随机游走图;

c) 根据公式(12)计算 p q

d) 根据公式(15)计算 x t 属于每个标签的概率 P = { p 1 , p 2 , , p Q }

e) 选择概率最大的前S 标签,即得到对应的前s个分类器序列 { Ω l } s

f) C t 分类器序列 { Ω l } s 融合;

g) x t 的预测标签 l t C t

3. 实验

本文将提出的基于随机游走的选择性集成方法运用于人脸表情识别,在本节将分别介绍使用的数据集,实验设置和实验结果与分析。

3.1. 实验环境

本文实验硬件环境:处理器为Intel Core(TM) i7-10750H CPU @2.60GHz,显卡为NVIDIA GeForce RTX2060,内存为16G。

本文实验软件环境:操作系统环境为Windows10,基分类器生成环境为Python3.7,tensorflow-gpu2.4,Keras2.4;算法实现环境是MATLAB R2018a。

3.2. 实验数据集

Fer2013 [13]:该数据集来源于2013年机器学习竞赛——ICML2013FER,总共包含35,887张表情图片,其中28,709张训练图片,3589张验证图片和3589张测试图片。每张图像由固定尺寸为48 × 48的灰度图像组成,表情分为愤怒、厌恶、恐惧、快乐、悲伤、惊讶和正常七种。在该数据集中,人类的识别准确率为65% ± 5%。该表情数据库样例如图3所示。

Figure 3. Example of Fer2013 expression dataset

图3. Fer2013表情数据集示例

CK+ [14]:CK+数据集在Cohn-Kanade Dataset的基础上扩展而来,且于2010年发布。由123位参与者在实验室条件下摆拍指定表情获得,一共包含593个视频序列,分辨率为640 × 490 ,共有开心、悲伤、惊讶、害怕、厌恶、生气、中立、轻蔑共8种表情类别,为了保持实验数据集之间的一致性,本实验从视频中截取数量为1520张的共7种类别的表情图片,图片分辨率统一设置为48 × 48。该表情数据库图片如图4所示。

Figure 4. Example of CK+ expression dataset

图4. CK+表情数据集示例

JAFFE [15]:该数据集为日本女性面部表情数据集,它选择了10名日本女学生作为实验对象,每人做出七种表情:正常、厌恶、愤怒、快乐、恐惧、悲伤和惊讶。共获得213张大小为640 × 490像素的图像。该表情数据集与Fer2013,CK+保持同样的数据处理方式,将每张人脸图像转换为48 × 48大小的灰度图。处理后的图片如图5所示。

Figure 5. Example of JAFFE expression dataset

图5. JAFFE表情数据集示例

3.3. 实验设置

3.3.1. 数据预处理

所有图像尺寸统一调整为48 × 48像素,使用OpenCV人脸识别算法去除背景区域,人脸区域高亮显示,所有图像转灰度图。另外,使用Keras工具包对人脸表情图像进行ZCA白化、均值归一化、全局对比度归一化处理 [16],以适应深度学习模型的训练和对训练样本达到更好的拟合效果。

3.3.2. 基分类生成

本文使用的基分类器都是基于卷积神经网络,构建的子网络模型来源于ALexNet [17]、FER-Net [18] 和Keras工具包(https://github.com/fchollet/keras)。在Keras中,除了一些传统的CNN模型外,还有结合多层的网络的模型,它们结合两到四个CNN模型的最后一层并使用两到三个全连接层来学习输入图片的特征,Keras模型中的参数设置如表1所示。

Table 1. The model parameters in Keras toolkit

表1. 使用Keras工具包中的模型参数

本文利用这些深度模型一共生成了231个不同结构和参数的模型作为基分类器,在FER2013中,分类器的准确率在0.2到0.7之间,但大多集中在0.6到0.7之间。在CK+中,准确率分布广泛,从0.2到0.7不等,而在JAFFE数据集中,准确率主要集中在0.3到0.4之间,基分类器池的准确率分布情况如图6所示。

Figure 6. The accuracy distribution of the classifier

图6. 基分类器准确率分布

3.4. 实验结果

3.4.1. 关键参数敏感度分析

为了探索所提出算法的参数对最终分类器集成效果的影响,本文对随机游走跳跃概率 α 参数进行实验,分析算法对该参数的敏感程度。从文献 [12] 中得知该参数一般设为0.15,在本文中 α 值的取值分别为 { 0.01 , 0.05 , 0.1 , 0.2 , 0.3 , 0.4 , 0.5 } ,实验结果如图7所示,可以看到,在Fer2013、CK+和Jaffe数据集上,随机游走跳跃概率 α 对三个数据集的分类效果都产生一定的影响,在Fer2013、CK+上随着 α 的逐渐增大,算法的准确率逐渐提升,当 α 的值达到0.4后,分类效果逐渐达到平稳。值得注意的是,在CK+数据集上情况恰好相反。随着 α 的增加,分类的准确率逐渐下降。实验结果说明算法对参数 α 敏感。

Figure 7. The influence of the walk-jump probability α on the ensemble effect

图7. 游走跳跃概率 α 对集成效果的影响

3.4.2. 不同表情类别的识别效果

为了测试本文算法对每个表情类别的识别效果,本小节给出了算法对数据集Fer2013、CK+和JAFFE分类的混淆矩阵,结果如图8所示。从图中可以看出,颜色越深的色块表示在对应的表情类别识别的准确率越高。

(a) Fer2013 (b) CK+ (c) JAFFE

Figure 8. Recognition effect of different expression categories

图8. 不同表情类别的识别效果

在(a)图中,即在Fer2013上,“开心”类别的识别准确率最高,达到了91%,而在恐惧类别的识别率最低,为50%,产生这种结果的原因是“开心”类别的特征明显,易于识别,而“恐惧”类别容易与“厌恶”或者“惊讶”类别产生混淆,导致该类别识别率偏低。在(b)图和(c)图中关于CK+和JAFFE的识别结果,也出现类似的情况,CK+数据集上,“厌恶”类表情的81%被误分类为“生气”类别,主要是这两类表情极易混淆。值得注意的是,在JAFFE数据集上,“生气”、“厌恶”和“恐惧”类别的表情识别率低的原因除了表情本身的难以区分外,还与分类器有关,本文的基分类器都在Fer2013上进行训练,然后将所有CK+和JAFFE作为测试集,从而在这几类表情上的识别效果欠佳。

3.4.3. 本文方法与其他方法对比结果

本节将提出的算法与其他经典的静态选择性集成算法ComEP [19]、DREP [20]、KappaEP [21]、QSEP [22] 和动态选择性算法MLKNN [23]、KNORA-UNION [24]、CLAG [25]、DCS-OLA [16],DCS-LCA [16] 进行对比,表2给出了在人脸表情数据集FER2013、CK+和JAFFE上本文算法与静态选择性集成算法分类准确率的比较结果。本文采用多数投票作为基准方法,在Fer2013、CK+和JAFFE数据集上的准确率分别为0.7035、0.7586和0.4225。在Fer2013上,本文方法准确率达到0.7325,好于其他所有的静态集成方法,在CK+数据集以及JAFFE上,本文的方法优于大多其他的对比方法,识别准确率分别为0.7633、0.4836。

表3给出了在人脸表情数据集FER2013、CK+和JAFFE上本文算法与动态选择性集成算法分类准确率的比较结果。

Table 2. The comparison between the method in this paper and the static selective ensemble method

表2. 本文方法与静态选择性集成方法对比结果

Table 3. The comparison between the method in this paper and the dynamic selective ensemble method

表3. 本文方法与动态选择性集成方法对比结果

可以发现,在Fer2013上,本文方法的识别效果优于其他动态选择性算法,为0.7325,相比较于基准方法,准确率提升了2.90%,相比较于DCS-LCA,本文方法的实验结果提升了16.54%。在CK+和JAFFE数据集上,本文的方法也优于其他大多对比算法。

4. 结论与展望

本文提出了一种基于多标签随机游走的选择性集成方法,通过将分类器选择问题建模为多标签学习问题,灵活有效地执行分类器选择;首先根据分类器池中每个成员的能力,为每个训练样本选择出能对其正确分类的分类器序列组合,从而构建关于数据—分类器序列之间的多标签训练集。当输入一个测试样本并寻找它的近邻样本,据此构建多标签随机游走图,通过选择近邻样本而不是所有样本,降低了游走图的复杂性,增加了灵活性。通过多标签学习算法进行分类器选择是一个有趣的研究方向,并且能将其应用到各个领域。然而,本文的算法模型的稳健性并非令人满意,在未来的工作中调整算法结构或引入其他多标签算法进一步提升算法准确率和稳定性。

参考文献

NOTES

*通讯作者。

参考文献

[1] 周伟航, 肖正清, 钱育蓉, 等. 微表情自动分析方法研究综述[J]. 计算机应用研究, 2022, 39(7): 1921-1932.
[2] Ge, H.L., Zhu, Z.Y., Dai, Y.W., et al. (2022) Facial Expression Recognition Based on Deep Learning. Computer Methods and Programs in Biomedicine, 215, Article ID: 106621.
https://doi.org/10.1016/j.cmpb.2022.106621
[3] Li, D.Y., Wen, G.H., Hou, Z., et al. (2019) RTCRelief-F: An Effective Clustering and Ordering-Based Ensemble Pruning Algorithm for Facial Expression Recognition. Knowledge and Information Systems, 59, 219-250.
https://doi.org/10.1007/s10115-018-1176-z
[4] Liang, Z.F., Wang, H., Yang, K.X., et al. (2022) Adaptive Fusion Based Method for Imbalanced Data Classification. Frontiers in Neurorobotics, 16, Article ID: 827913.
https://doi.org/10.3389/fnbot.2022.827913
[5] Cruz, R., Sabourin, R. and Cavalcanti, G. (2018) Prototype Selection for Dynamic Classifier and Ensemble Selection. Neural Computing and Applications, 29, 447-457.
https://doi.org/10.1007/s00521-016-2458-6
[6] Li, D.Y. and Wen, G.H. (2018) MRMR-Based Ensemble Pruning for Facial Expression Recognition. Multimedia Tools and Applications, 77, 15251-15272.
https://doi.org/10.1007/s11042-017-5105-z
[7] Zhang, C., Wu, Y. and Zhu, M. (2019) Pruning Variable Selection Ensembles. Statistical Analysis and Data Mining, 12, 168-184.
https://doi.org/10.1002/sam.11410
[8] Elmi, J. and Eftekhari, M. (2021) Multi-Layer Selector (MLS): Dynamic Selection Based on Filtering Some Competence Measures. Applied Soft Computing, 104, Article ID: 107257.
https://doi.org/10.1016/j.asoc.2021.107257
[9] 饶川, 苟先太, 金炜东. 基于选择性集成学习的高速列车故障识别研究[J]. 计算机应用研究, 2018, 35(5): 1365-1367.
[10] Jan, Z. and Verma, B. (2019) A Novel Diversity Measure and Classifier Selection Approach for Generating Ensemble Classifiers. IEEE Access, 7, 156360-156373.
https://doi.org/10.1109/ACCESS.2019.2949059
[11] Wang, Z.W., Wang, S.K., Wan, B.T., et al. (2020) A Novel Multi-Label Classification Algorithm Based on K-Nearest Neighbor and Random Walk. International Journal of Distributed Sensor Networks, 16, 1-17.
https://doi.org/10.1177/1550147720911892
[12] 郑伟, 王朝坤, 刘璋, 等. 一种基于随机游走模型的多标签分类算法[J]. 计算机学报, 2010, 33(8): 1418-1426.
[13] Goodfellow, I.J., Erhan, D., Carrier, P.L., et al. (2015) Challenges in Representation Learning: A Report on Three Machine Learning Contests. Neural Networks, 64, 59-63.
https://doi.org/10.1016/j.neunet.2014.09.005
[14] Lucey, P., Cohn, J.F., Kanade, T., et al. (2010) The Extended Cohn-Kanade Dataset (CK+): A Complete Dataset for Action Unit and Emotion-Specified Expression. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, San Francisco, 13-18 June 2010, 94-101.
https://doi.org/10.1109/CVPRW.2010.5543262
[15] Lyons, M.J., Akamatsu, S., Kamachi, M.G., et al. (2002) Coding Facial Expressions with Gabor Wavelets. 3rd IEEE International Conference on Automatic Face and Gesture Recognition, Nara, 14-16 April 1998, 200-205.
[16] Li, D.Y., Wen, G.H., Li, X., et al. (2019) Graph-Based Dynamic Ensemble Pruning for Facial Expression Recognition. Applied Intelligence, 49, 3188-3206.
https://doi.org/10.1007/s10489-019-01435-2
[17] Krizhevsky, A., Sutskever, I. and Hinton, G.E. (2017) ImageNet Classification with Deep Convolutional Neural Networks. Communications of the ACM, 60, 84-90.
https://doi.org/10.1145/3065386
[18] Ma, H. and Celik, T. (2019) FER-Net: Facial Expression Recognition Using Densely Connected Convolutional Network. Electronics Letters, 55, 184-186.
https://doi.org/10.1049/el.2018.7871
[19] Dai, Q. and Han, X.M. (2016) An Efficient Ordering-Based Ensemble Pruning Algorithm via Dynamic Programming. Applied Intelligence, 44, 816-830.
https://doi.org/10.1007/s10489-015-0729-z
[20] Li, N., Yu, Y. and Zhou, Z.H. (2012) Diversity Regularized Ensemble Pruning, Machine Learning and Knowledge Discovery in Databases. Proceedings of the European Conference (ECML PKDD 2012), Bristol, 24-28 September 2012, 330-345.
https://doi.org/10.1007/978-3-642-33460-3_27
[21] Kuncheva, L.I. (2013) A Bound on Kappa-Error Diagrams for Analysis of Classifier Ensemble. IEEE Transactions on Knowledge and Data Engineering, 25, 494-501.
https://doi.org/10.1109/TKDE.2011.234
[22] Kuncheva, L.I. and Whitaker, C.J. (2003) Measures of Diversity in Classifier Ensembles and Their Relationship with the Ensemble Accuracy. Machine Learning, 51, 181-207.
https://doi.org/10.1023/A:1022859003006
[23] Markatopoulou, F., Tsoumakas, G. and Vlahavas, I. (2014) Dynamic Ensemble Pruning Based on Multi-Label Classification. Neurocomputing, 150, 501-512.
https://doi.org/10.1016/j.neucom.2014.07.063
[24] Albert, H.R., Ko, R.S., et al. (2008) From Dynamic Classifier Selection to Dynamic Ensemble Selection. Pattern Recognition, 41, 1718-1731.
https://doi.org/10.1016/j.patcog.2007.10.015
[25] Hou, C., Xia, Y., Xu, Z., et al. (2016) Learning Classifier Competence Based on Graph for Dynamic Classifier Selection. 2016 12th International Conference on Natural Computation and 13th Fuzzy Systems and Knowledge Discovery (ICNC-FSKD), Changsha, 13-15 August 2016, 1164-1168.
https://doi.org/10.1109/FSKD.2016.7603343