基于GINI相关系数的超高维分类特征变量筛选
Selection of Ultra-High Dimensional Classification Feature Variables Based on GINI Correlation Coefficient
摘要: 本文提出了一种基于GINI相关系数的超高维判别分析的GINI相关特征筛选方法。该方法在简单条件下建立了稳健筛选性能。首先,对重尾分布、潜在异常值情况下的数据具有稳健性。其次,它没有具体的数据模型限制,适用于参数及非参数模型。第三,由于所得统计量的有界性,在理论推导上比较简单。第四,筛选指标结构简单,计算成本低。通过蒙特卡罗模拟和实际数据实例验证了该方法的有效性。
Abstract: We proposed a new method named GINI correlation feature screening for ultrahigh dimensional discriminant analysis based GINI correlation coefficients. We also establish the sure screening property for the proposed procedure under simple assumptions. The new procedure has some additional desirable characters. First, it is robust against heavy-tailed distributions, potential outliers and the sample shortage for some categories. Second, it is model-free without any specification of a regression model and directly applicable to the situation with many categories. Third, it is simple in theoretical derivation due to the boundedness of the resulting statistics. Forth, it is relatively inexpensive in computational cost because of the simple structure of the screening index. Monte Carlo simulations and real data examples are used to demonstrate the finite sample performance.
文章引用:司萌, 张俊英, 张妍. 基于GINI相关系数的超高维分类特征变量筛选[J]. 应用数学进展, 2024, 13(3): 967-980. https://doi.org/10.12677/aam.2024.133091

1. 引言

变量选择或变量筛选在高维数据分析中起着重要的作用。通过考虑协变量与响应变量之间的关联强度来选择重要变量对于超高维数据是必不可少的,并且在最近的文献中受到了广泛的关注。Fan和Lv (2008) [1] 提出了线性模型的确定独立筛选(SIS),它基于对协变量与响应的边际Pearson相关性的大小进行排序。此后其他研究者做了大量的工作来将这一过程推广到各种其他类型的模型,包括:广义线性模型 [2] 、非参数加性模型 [3] 、Cox比例风险模型 [4] 、线性分位数模型 [5] 和变系数模型(Fan等2014 [6] ,Zhang等 [7] )。不假设任何特定的先验模型的无模型筛选方法也已发展。包括:Li等人(2012)的基于距离相关的方法 [8] ,Mai等人(2015)的融合Kolmogorov滤波器 [9] ,Liu和Wang (2017)的条件距离相关方法 [10] ,Huang和Zhu (2016)的基于最大相关的方法 [11] ,Shao和Zhang (2014)的基于鞅差分的方法 [12] ,Feng等人(2017)的基于平滑带宽的方法 [13] ,张等(2018)的边际条件期望变量筛选方法 [14] 。这些方法的主要理论结果是所谓的“确定筛选属性”,即在适当的条件下,可以将特征空间的维度从 p n = o ( exp ( n α ) ) 降至更小的 d n ( d n n ) ,同时保留所有相关预测因子的概率接近1。然而,它是基于连续响应变量的,不能很好地用于分类响应变量。本文旨在研究一种有效的不限定模型的特征筛选方法,用于分类响应变量超高维数据。

本文提出了一种有效的判别分析的确定筛选方法:GINI超高维特征筛选方法(GCSIS)。该方法在超高维判别分析的背景下,对具有分类响应的数据进行筛选。在不假设预测因子矩条件的情况下,建立了确定的筛选和排序一致性性质。数值研究表明,该方法具有良好的性能。它有以下优点:它是无模型的,因为它的实现不需要指定回归模型;其相应的边际效用可以很容易地评估,而不涉及数值优化;可直接应用于具有分类预测因子的连续响应数据。在全基因组关联研究(GWAS)等实际应用中,该方法尤为有用,其中表型(即响应)是连续的,而单核苷酸多态性(SNPs)等预测因子则是分类的。因此,通过这种方法,可以更有效地筛选出与连续响应相关的重要特征,为科学研究提供有力支持。

本文的其余部分安排如下:第2章通过考虑一维数值变量和分类变量之间相关性出发建立与GINI均值差异的联系。广义GINI相关的性质在2.1节中进行了研究。变量筛选方法(GCSIS)在2.2节中提出。第2.3节是GCSIS的理论性质。在第3章中,通过仿真和真实数据应用进行了实验研究,以展示GCSIS的优势。

2. 筛选方法

2.1. GINI距离

Y { y 1 , y 2 , , y K } 是分类(K类)响应变量, X K X ,其中 K X 为协变量X的支持集合。为了研究X和Y之间的相关性,本文很自然地考虑给定Y和X的的条件分布函数,表示为 F ( x | Y ) = P ( X x | Y ) 。用 F ( x ) = P ( X x ) 表示X的无条件分布函数,用 F k ( x ) = P ( X x | Y = y k ) 表示给定 Y = y k p k = P ( Y = y k )

的X的条件分布函数, ( X , Y = y k ) 的联合分布是 p k F k ,X的边际分布是 F ( x ) = k = 1 K p k F k ( x ) 。如果对于任

x K X k = 1 , , K ,有 F k = F ( x ) ,则X和Y是独立的。为了衡量X和Y之间的相关性,Dang等(2019) [15] 考虑了以下条件分布函数和边际分布函数之间的距离相关度量。

D : = E ( F ( x | Y ) F ( x ) ) 2 d x = k = 1 K p k ( F k ( x ) F ( x ) ) 2 d x . (1)

显然,当且仅当X和Y独立时,相关性为零。F的GINI平均差(GMD) ( [16] [17] [18] )是

Δ = Δ ( X ) = Δ ( F ) = E | X X | (2)

它表示两个独立随机变量之间的期望距离,其中X和 X .w3 .org/1998/Math/MathML'> n = m 中具有有限一阶矩的分布F中的独立随机变量。Dorfman (1979) [19] 证明了对于非负随机变量,

Δ = 2 F ( x ) ( 1 F ( x ) ) d x . (3)

注意(3)也适用于离散随机变量。因此,相关性可以写成

ρ ( X , Y ) = 1 k = 1 K p k Δ k Δ = Δ k = 1 K p k Δ k Δ , (4)

其中 Δ k F k 的GINI系数(GMD)。 ρ ( X , Y ) = 0 当且仅当X和Y是独立的。

2.2. GINI相关系数变量筛选方法

本文提出了一种新的无模型确定独立筛选方法,使用 ρ ( X , Y ) 对超高维定量和定性协变量进行筛选。设Y为具有离散支持 y 1 , y 2 , , y K ( .w3 .org/1998/Math/MathML'> n = m )的响应变量, x = ( X 1 , , X p ) T 为预测向量,其中 p n 且n是样本量。在不指定回归模型的情况下,通过

M * = { j : F ( y | X ) X j } ,

定义重要预测变量子集,用 I = { 1 , 2 , , p } \ M * 表示非重要预测变量子集。由第2.1节的(4)式知 ρ ( X j , Y ) 可以度量 X j 与Y之间的相关性。令

w j = ρ ( X j , Y ) = Δ j k = 1 K p k Δ k j Δ j ,

其中 Δ j = E | X j X j | Δ k j = E [ | X j X j | | Y = y k ]

注意到,当部分正交条件(Huang, Horowitz和Ma, 2008 [20] ;Fan和Song, 2010 [2] )成立时,即 { X j : j M * } { X j : j M * c } 独立,当 j M * w j > 0 ,当 j M * c w j = 0 ,所以 w j 可以作为选择重要变量的一个标准。因此选择重要变量 { X j : j M * } 只和Y的相关性有关,与模型的选择无关。

假设样本数据 D = { ( x i , Y i ) } i = 1 , , n 。设 I k Y i = y k 样本点的索引集,则 p k 由该类别的样本比例估计,即 p ^ k = n k n ,其中 n k I k 中的元素数。下面给出 ρ g 的一个点估计量。

Δ ^ k j = ( n k 2 ) 1 i < l I k | X i , j X l , j | ,

Δ ^ j = ( n 2 ) 1 1 = i < l = n | X i , j X l , j | ,

w ^ j = ρ ^ j ( X j , Y ) = 1 k = 1 K p ^ k Δ ^ k j Δ ^ j . (5)

基于 w ^ j 本文选择了一组具有较大 w ^ j 的重要预测因子,

M ^ = { j : 1 j p , w ^ j > c 3 n r } ,

其中 c 3 > 0 0 < r < 1

2.3. 理论性质

显然, Δ ^ k j Δ ^ j 为U统计量。应用U统计量理论 [21] [22] ,在以下的假设条件下,可以建立 Δ ^ k j Δ ^ j 的渐近性质。

· C1. 矩条件:存在正常数 M 1 , M 2 ( M 1 M 2 ) t 0 使得

max 1 j p E ( exp ( t X j ) ) < , 0 < t < t 0 ,

M 1 | E ( X j ) | M 2 .

· C2. 存在 r ( 0 , 1 ) c 3 > 0 ,有 min j M * w j 2 c 3 n r

定理2.1 在条件C1下,对于任意 ε > 0 ,存在正常数 M 6 s ε ( 0 , 2 / ( M 6 ε ) ) ,使得

P { max 1 j p | w ^ j w j | > ε } 3 p ( 1 M 6 s ε ε / 2 ) n / 2 .

此外,令 ε = 2 / ( M 6 s ε ) c 1 n r 2 / ( M 6 s ε ) = 2 c 1 n r ,假设条件(C2)成立,则

P ( M * M ^ ) 1 3 s n n ( 1 M 6 s ε ε / 2 ) n / 2 .

证明:注意到 Δ ^ k j 可以表示为如下形式:

Δ ^ k j = ( n k 2 ) 1 i < l < I k [ ( X i , j X l , j ) I ( X i , j > X l , j ) + ( X l , j X i , j ) I ( X l , j > X i , j ) ] = d e f 2 n k ( n k 1 ) i < l I k h 1 ( X i , j , X l , j ) .

因此, Δ ^ k j 是标准的U-统计量。利用马尔可夫不等式,可以得到,对任意的 0 < t < s 0 j * ,其中 j * = [ n k / 2 ] ,有

P ( | Δ ^ k j Δ k j | > ε ) exp { t ε } exp { t Δ k j } E [ exp t Δ ^ k j ] .

通过Serfling (1980) [23] 的5.1.6,U-统计 Δ ^ k j 可以表示为独立且同分布的随机变量的平均值;即

Δ ^ k j = ( n k ! ) 1 n k ! w ( X 1 j , , X n k j ) ,其中每个 w ( X 1 j , , X n k j ) j * = [ n k / 2 ] 个独立的同分布随机变量的平均值, n k ! 表示 n k ! 种排列 i 1 , , i n k ( 1 , , n k ) . 记 φ h ( s ) = E [ exp { s h ( X i , j , X l , j ) } ] 0 < s < s 0 。由于指数函数是凸函数,它遵循Jensen不等式

E [ exp { t Δ k j } ] = E [ exp { t ( n k ! ) 1 n k ! w ( X 1 j , , X n k j ) } ] ( n k ! ) 1 E [ exp { n k ! w ( X 1 j , , X n k j ) } ] = φ h j * ( t / j * ) .

结合以上两个结果,有

P ( | Δ ^ k j Δ k j | > ε ) exp { t ε } [ exp { t Δ k j / j * } φ h ( t / j * ) ] j * = [ exp { s ε } exp { s Δ k j } φ h ( s ) ] j * ,

其中 s = t / j * 。注意到 E ( h 1 ( X i , j , X l , j ) ) = Δ k j ,且对于任意随机变量Y,泰勒展开式 exp { s Y } = 1 + s Y + s 2 Z / 2 ,其中 0 < Z < Y 2 exp { s 1 Y } ,且 s 1 是介于0和s之间的常数。因此

exp { s Δ k j } φ h ( s ) 1 + s 2 [ E h 1 4 ( X i , j , X l , j ) × E exp { 2 s 1 ( h 1 Δ k j ) } ] 1 / 2 / 2 . (6)

由条件C1可得存在常数C (n和p的独立性)使得 exp { s Δ k j } φ h ( s ) C s 2 ,即

exp { s Δ k j } φ h ( s ) = 1 + O ( s 2 ) .

对于充分小的s,可以通过选择足够小的t来实现,有 exp ( s ε ) = 1 ε s + O ( s 2 ) ,因此

exp ( s ε ) exp ( s Δ k j ) φ h ( s ) 1 s ε / 2 . (7)

结合结果(6),(7)和 p k = p ^ k = n k n ,可以得到对任意 ε > 0 ,存在一个充分小的 s ε ,使得 P ( | Σ i = 1 K p ^ k Δ ^ k j Σ i = 1 K p k Δ k j | > ε ) ( 1 s ε ε / 2 ) n / 2 。这里用符号 s ε 来强调s依赖于 ε 。同理,可以证明对于任何 ε 1 > 0 P ( | Δ ^ j Δ j | > ε 1 ) ( 1 s ε 1 ε 1 / 2 ) n / 2

下面考虑 P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε ) 。首先证明 Δ ^ j 离0有统一的边界,其概率趋于1。由条件C1,存在 M 3 > 0 使得 | Δ j | M 4 > 0 且对于 δ 0 ( 0 , 1 ) 使得 M 4 M 3 δ 0 。则由(7)可知对某个正常数 s δ 0 ,有

P ( | Δ ^ j | M 4 ) P ( | Δ j | | Δ ^ j Δ j | M 3 δ 0 ) P ( | Δ ^ j Δ j | δ 0 ) ( 1 s δ 0 δ 0 / 2 ) n / 2 .

因此

P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε ) = P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | M 4 ) + P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | > M 4 ) P ( | Δ ^ j | M 3 ) + P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | > M 4 ) ( 1 s δ 0 δ 0 / 2 ) n / 2 + P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | > M 4 ) . (8)

(8)的第二项是

P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | > M 4 ) P ( | Σ i = 1 K p ^ k Δ ^ k j Δ ^ j Σ i = 1 K p k Δ k j Δ ^ j | + | Σ i = 1 K p k Δ k j Δ ^ j Σ i = 1 K p k Δ k j Δ j | ε , | Δ ^ j | > M 4 ) P ( 1 M 3 | Σ i = 1 K p ^ k Δ ^ k j Σ i = 1 K p k Δ k j | ε / 2 ) + P ( | Σ i = 1 K p k Δ k j | | Δ ^ j | | Δ k j | | Δ ^ j Δ j | ε / 2 ) ( 1 s ε M 4 ε / 2 ) n / 2 + ( 1 s ε 1 M 3 M 4 M 5 ε 1 / 2 ) n / 2 , (9)

其中 M 5 > 0 。从条件C1可以知道 | Σ i = 1 K p k Δ k j | 有界,并假设 | Σ i = 1 K p k Δ k j | M 5

因此(7)简化为

.w3 .org/1998/Math/MathML'> M * (10)

其中 M 6 = min { s δ 0 δ 0 s ε ε , M 4 , s ε 1 M 3 M 4 M 5 s ε ε } 。这就完成了定理2.1第一部分的证明。

进一步在条件(C2)下,证明

P ( M * M ^ ) 1 3 s n n ( 1 M 6 s ε ε / 2 ) n / 2 .

根据 M ^ 的定义和条件C2,

P ( M * M ^ ) = P ( min j M * w ^ j > c 3 n r ) = P ( min j M * w j min j M * w ^ j min j M * w j c 3 n r ) P ( min j M * w j min j M * w ^ j 2 c 3 n r c 3 n r ) P ( max j M * | w j w ^ j | c 3 n r ) = 1 P ( max j M * | w j w ^ j | c 3 n r ) 1 s n max j M * P ( | w j w ^ j | c 3 n r ) 1 3 s n n ( 1 M 6 s ε ε / 2 ) n / 2 .

这就完成了定理2.1第二部分的证明。

3. 数值研究

在本节中,首先通过蒙特卡罗模拟研究评估提出的GINI相关未来筛选(GCSIS)的有限样本性能。然后,通过两个真实数据实例进行实证分析,以说明所提出的GCSIS方法的有效性。

3.1. 模拟研究

本文使用包括所有重要变量的最小模型大小(MMS)来衡量每种筛选方法的效果。另外,对于给定的模型大小 d = [ n / log n ] ,其中n为样本量, [ x ] 为x的整数部分。用 T j 表示包含单个重要变量 .w3 .org/1998/Math/MathML'> M * 的比例,用 M a 表示包含所有重要变量的比例。所有数值研究都是使用R代码进行的。

例3.1 (超高维线性判别分析(Cui, et al.) [24] )在这个例子中,本文考虑一个具有超高维预测变量的线性判别分析问题,通过遵循Pan,Wang和Li (2013) [25] 中的类似设置。对于每个第i次的观测样本,类别响应 Y i 由两个不同的分布生成:1) 均衡的,有K个类别的离散均匀分布,其中 P ( Y i = k ) = 1 / K k = 1 , , K ;2) 非均衡的,概率序列 p k = P ( Y i = k ) = 2 [ 1 + ( k 1 ) / ( K 1 ) ] / 3 K 是一个等差数列 max 1 j p p k = 2 min 1 j p p k 。例如,当Y是二进制时, p 1 = 1 / 3 p 2 = 2 / 3 。给定 Y i = k ,则通过令 X i = u k + ε i 生成第i个预测变量 X i ,其中平均项 u k = ( u k 1 , , u k p ) K p 是p维向量,第k个分量 u k k = 3 ,而其他分量均为零, ε i = ( ε i 1 , , ε i p ) 是一个p维误差项。这里,考虑两种情况下的误差项:1) ε i j ~ N ( 0 , 1 ) ;2) ε i j ~ t ( 2 ) 分别对每个 j = 1 , , p 成立。请注意,情况2)使每个预测变量都具有重尾,其目的是检查独立筛选方法的稳健性。为了系统地检查GSIS和其他方法,考虑2000个预测因子和 n = 40 的二元响应变量,以及每种情况下 n = 200 的10分类响应。即分别取 ( R , n , p ) = ( 2 , 40 , 2000 ) ( 10 , 200 , 2000 )

Table 1. Simulation results of linear discriminant analysis, R = 2 (example 3.1)

表1. 线性判别分析的仿真结果,R = 2 (例3.1)

Table 2. Simulation results of linear discriminant analysis, R = 10 (example 3.1)

表2. 线性判别分析的仿真结果,R = 10 (例3.1)

首先,比较了GSIS与MV-SIS (Cui, et al., 2015) [24] 、SIS (Fan和Lv, 2008) [1] 、SIRS (Zhu, et al., 2011) [26] 、DC-SIS (Li, Zhong和Zhu, 2012) [8] 、Kolmogorov Filter (Mai和Zou等, 2015) [9] 和PSIS (Pan, Wang和Li, 2013) [25] 在二元响应变量的性能,其中X1和X2是重要变量。表1总结了在给定模型大小 d = [ n / log n ] 下,每种方法基于500次模拟的MMS的中位数及其相关的标准偏差的稳健估计(RSD = IQR/1.34),括号中的为 T j j = 1 , 2 , T

接下来,考虑10个类别的响应,其中 X 1 , X 2 , , X 10 是重要变量。注意到,响应变量Y是一个名义数字,这使得SIS、SIRS和Kolmogorov Filter不适用。为了使DC-SIS适用于该问题,将10个分类响应转换为9个虚拟二元变量,定义为一个新的多重响应变量。注意到,Li,Zhong和Zhu (2012) [8] 认为DC-SIS可以用于多重响应。Pan, Wang和Li (2013) [25] 提出了一种成对确定独立筛选(PSIS)来处理分类反应。PSIS每次对每一对类 ( r j , r 2 ) 使用 | u r 1 j u r 2 j | 作为预测变量 X j 的边际信号,其中 u r j 表示 X i j 对于 i { i : Y r = r } 的样本平均值。表2总结了在给定模型大小 d = [ n / log n ] 下,基于500次模拟的MMS的中位数及其相关的稳健标准偏差(括号中为 j = 1 , 2 , , 10 )。

表1表2都表明,在线性判别分析中,本文提出的GCSIS在变量筛选方面优于其他比较方法。当误差项是重尾的并且响应类别的数量增加时,GCSIS的最小模型大小(MMS)要小得多,并且与其他独立筛选相比,GCSIS在所选模型中包含所有重要变量的概率要高得多。因此,GCSIS的鲁棒性是一个重要的特征,使得它在实践中更有用。当误差项为正态时,GCSIS的估计和预测性能与PSIS非常接近。然而,当误差偏离正态分布时,PSIS会恶化,而GCSIS仍然表现良好。

例3.2 为了模拟等位基因频率相等的SNP,本文用 Z i j 表示第j个SNP对第i个受试者的优势效应,并以如下方式生成:如果 X i j < q 1 Z i j = 1 ;如果 q 1 < X i j < q 3 Z i j = 0 ;如果 X i j > q 3 Z i j = 1 ,其中 X i = ( X i 1 , X i 1 , , X i p ) ~ N ( 0 , Σ ) Σ = ρ i j | i j | 其中 ( ρ i j ) p × p , i = 1 , , n ; j = 1 , , p q 1 q 3 分别是标准正态分布的第一个和第三个四分位数。然后,通过以下方式生成响应变量(某些特征或疾病):

Y = β 1 Z 1 + β 2 Z 2 + 2 β 3 Z 10 + 2 β 4 Z 20 2 β 5 | Z 100 | + ε ,

其中 β j = ( 1 ) U ( a + | Z | ) j = 1 , , 5 ,其中 a = 2 log ( n n ) U ~ B e r n o u l l i ( 0.4 ) Z ~ N ( 0 , 1 ) ,误差项 ε N ( 0 , 1 ) t ( 1 ) 之后。

Table 3. Simulation results for example 3.2

表3. 例3.2的模拟结果

有5个有效的SNP,分别是 Z 1 , Z 2 , Z 10 , Z 20 Z 100 。前4个活性SNP与响应Y呈线性相关,而SNP Z 100 与Y呈非线性相关。有趣的是,显性效应的绝对值 | Z 100 | 是遗传学中对应的加成效应。在这里,考虑5种不同的独立筛选方法:MV-SIS、SIS、DC-SIS、SIRS、RRCS (Li et al., 2012 [8] )和GCSIS,并设置 n = 200 p = 2000 ,每个实验重复500次。在表3中总结了 d = [ n / log ( n ) ] 的模拟结果。

表3可知,当误差服从正态分布时,由于与响应呈线性相关关系,5种独立筛选都能有效地筛选出前4个活性SNP。然而,只有DC-SIS、MV-SIS和GCSIS可以选择对Y有非线性贡献的 Z 100 。当误差由很大程度上是重尾的 t ( 1 ) 产生时,所有独立筛选方法的表现都不如以前。然而,GCSIS的性能仍然是最好的。由此,可以得出GCSIS可以有效地选择与响应变量线性或非线性相关的活性分类SNP。

例3.3 (非参数可加模型)根据Meier,Geer和Buhlmann (2009) [27] ,本文定义了以下四个函数

f 1 ( x ) = sin ( 2 x ) , f 2 ( x ) = x 2 12 / 25 , f 3 ( x ) = x , f 4 ( x ) = e x 2 / 5 sinh ( 5 / 2 ) .

然后考虑以下加性模型:

Y = 3 f 1 ( X 1 ) + f 2 ( X 2 ) + 1.5 f 3 ( X 3 ) + f 4 ( X 4 ) + ε ,

其中预测变量独立于 U [ 2.5 , 2.5 ] 生成。为了检验每种独立筛选方法的鲁棒性,本文考虑误差项 ε = ( ε 1 , , ε n ) 的两种情况:1) ε i ~ N ( 0 , 1 ) ;2) ε i ~ t ( 1 ) , i = 1 , 2 , , n 。设n = 200,p = 2000,每个错误情况下每个实验重复500次。在我们的模拟中,使用第一、第二和第三、四分位数作为GSIS的节,将每个预测器离散为一个4分类变量。表4中报告了给定模型尺寸 d = [ n / log ( n ) ] 的模拟结果。

表4表明,GCSIS在离散化每个预测因子后表现非常好。虽然DCSIS可能会检测到非线性,但它偶尔会遗漏 X 1 X 2 。可能的原因是Y与前两个预测因子之间的距离相关性相对较弱。另一方面,GCSIS仍然可以有效地选择主动预测因子,这再次显示了它的鲁棒性。

Table 4. Simulation results for example 3.3

表4. 例3.3的模拟结果

3.2. 真实数据示例

3.2.1. 肺癌数据

Gordon等人(2002) [28] 和Fan和Fan (2008) [29] 先前对肺癌数据进行了分析,以区分肺恶性胸膜间皮瘤(MPM)和肺腺癌(ADCA)。共有来自两类的12。533个基因和181个组织样本:MPM类31个,ADCA类150个。训练数据集包含32个样本(16个MPM和16个ADCA),而剩下的149个样本(15个MPM和134个ADCA)用于测试。

首先将数据标准化为零均值和单位方差。Fan和Fan (2008) [29] 表明,他们的特征退火独立规则(FAIR)选择了31个重要基因,没有产生训练误差和7个测试误差,而Tibshiran等(2002) [30] 提出的最近萎缩质心(NSC)方法选择了26个基因,没有产生训练误差和11个测试误差。然后,考虑MV-SIS,DC-SIS,PSIS和我们的GCSIS方法(用GCSIS1表示),使用LDA来解决这个超高维分类问题。注意到FAIR在t检验筛选后使用了对角线性判别分析(LDA)。为了进行公平的比较,还增加了一个将t检验筛选与LDA相结合的方法,用FAIR*表示,MV-SIS后接LDA (即MV-SIS1),MV-SIS后接SDA (即MV-SIS2)。本例还采用了Witten和Tibshirani (2011) [31] 提出的惩罚LDA方法(用PenLDA表示)和Clemmensen等(2011) [32] 提出的稀疏判别分析(用SDA表示进行比较)。此外,本文将GCSIS与SDA结合起来,认为这种两阶段方法是另一种潜在的方法,用GCSIS2表示。

为了评估预测性能,将所有181个组织样本随机划分为两部分:包括100个样本的训练集和其余81个样本的测试集。将上述过程应用于训练数据,并通过训练集和测试集的分类误差来评估它们的性能。为了公平的比较,本文使用相同的BIC标准为所有方法选择最佳的模型大小。重复实验100次,表5中总结了训练和测试分类误差与被选基因数的均值及其相关标准差(括号内)。结果表示,GCSIS1表现相当好,平均使用12个左右的基因,训练和测试误差都很小。其中,SDA方法对训练样本分类效果较好,测试错误率较小。然而,SDA倾向于选择相当多的基因,因此可能会失去一些模型的可解释性。值得注意的是,GCSIS2可以用更少的基因数量实现最小的测试错误率。这进一步证明了将GCSIS与SDA相结合的两阶段方法的优点。

Table 5. Performance evaluation of Lung Cancer Data

表5. 肺癌数据的性能评估

3.2.2. 肺癌数据

该人类肺癌数据是通过mRNA表达谱分析的(Bhattacharjee, et al., 2001) [33] 。203例快速冷冻肺肿瘤和正常肺的mRNA表达量为12,600个。203个标本被分为5个亚类:肺腺癌(ADEN) 139个,鳞状细胞肺癌(SQUA) 21个,小细胞肺癌(SCLC) 6个,肺类癌(COID) 20个,其余17个正常肺样本(normal)。在分类之前,首先将数据标准化到零均值和单位方差。为了评估所提出方法的预测性能,随机从每个子类中选择大约 100 τ % 的观测值作为训练样本,其余 100 ( 1 τ ) % 的观测值作为测试样本,其中 τ ( 0 , 1 )

注意到,前面提到的NSC和FAIR仅针对二元分类问题提出,因此它们不适用于这种多类判别分析。将带有LDA的psi、DC-SIS、MV-SIS和GCSIS应用于训练集,并通过测试样本对其性能进行评价。对于DC-SIS、MV-SIS (表示为MV-SIS1)和GCSIS (表示为GSIS1),采用LDA方法,采用留一交叉验证方法为训练数据选择最优模型大小。此外,还考虑了惩罚LDA (PenLDA),MV-SIS,然后SDA (MV-SIS2)和GCSIS (GCSIS2)进行比较,并使用10折叠交叉验证而不是留一交叉验证来选择最佳模型大小,以减少计算时间。虽然SDA可以直接应用于给定模型尺寸的多类判别分析,但对于多类超高维数据,为SDA寻找最佳模型尺寸的计算成本非常高。因此,使用GCSIS降维,然后使用SDA (即GSIS2),而不是在示例中单独使用SDA。

接下来,本文选择的值为: τ = 0.9 , 0.8 ,分别重复实验100次。根据前面的示例(第3.2.1节),训练和测试分类误差的方法以及所选基因的相应数量及其相关的标准差(在表6中报告了括号内的数据)。可以清楚地观察到,虽然所有方法在肿瘤分类中都表现得相当好,但在训练和测试分类误差以及选择基因的数量方面,LDA或SDA的GCSIS方法都明显优于其他方法。具体来说,就是GCSIS+SDA(即GSIS2)方法利用少量顶级基因实现最佳性能。此外,可以发现GCSIS选择的顶级基因不是正态分布的,并且存在潜在的异常值。这一观察结果解释了为什么其他方法的性能相对较差,并证实了所提出的GCSIS的鲁棒性特征。该实例进一步证明了将GCSIS方法与判别分析相结合的两阶段方法在实际中更有利于超高维数据的处理。

Table 6. Performance evaluation of Lung Cancer Data

表6. 肺癌数据的性能评价

4. 结论与展望

本文提出了一种新的基于GINI相关系数的超高维判别分析方法,创新性地提出了GINI相关特征筛选策略。此方法不仅在重尾分布和潜在异常值存在的场景下展现出良好的稳健性,更值得一提的是,它没有特定的模型限制,因此可以灵活应用于各种参数和非参数模型。此外,对于非正态分布的数据,该方法同样能够准确识别出关键变量,这在实际应用中具有重要意义。然而,该方法也有其局限性。在处理固定线性模型时,其效果可能不如确定独立筛选(SIS)方法。未来,我们将致力于进一步优化这一方法,以使其在更多场景下都能达到理想的效果。

NOTES

*通讯作者。

参考文献

[1] Fan, J. and Lv, J. (2008) Sure Independence Screening for Ultrahigh Dimensional Feature Space (with Discussion). Journal of the Royal Statistical Society, Series B, 70, 849-911.
https://doi.org/10.1111/j.1467-9868.2008.00674.x
[2] Fan, J. and Song, R. (2010) Sure Independence Screening in Generalized Linear Models with NP-Dimensionality. The Annals of Statistics, 38, 3567-3604.
https://doi.org/10.1214/10-AOS798
[3] Fan, J., Feng, Y. and Song, R. (2011) Nonparametric Independence Screening in Sparse Ultra-High Dimensional Additive Models. Journal of the American Statistical Association, 106, 544-557.
https://doi.org/10.1198/jasa.2011.tm09779
[4] Fan, J., Feng, Y. and Wu, Y. (2010) High-Dimensional Variable Selection for Cox’s Proportional Hazards Model. In: Berger, J.O., Cai, T.T. and Johnstone, I.M., Eds., IMS Collections, Borrowing Strength: Theory Powering Applications, A Festschrift for Lawrence D. Brown, Vol. 6, IMS, Beachwood, 70-86.
https://doi.org/10.1214/10-IMSCOLL606
[5] Ma, S., Li, R. and Tsai, C.-L. (2017) Variable Screening via Quantile Partial Correlation. Journal of the American Statistical Association, 112, 650-663.
https://doi.org/10.1080/01621459.2016.1156545
[6] Fan, J., Ma, J. and Dai, W. (2014) Nonparametric Independence Screening in Sparse Ultra-High Dimensional Varying Coefficient Models. Journal of the American Statistical Association, 109, 1270-1284.
https://doi.org/10.1080/01621459.2013.879828
[7] Zhang, J.Y., Zhang, R.Q. and Lu, Z.P. (2016) Quantile-Adaptive Variable Screening in Ultra-High Dimensional Varying Coefficient Models. Journal of Applied Statistics, 43, 643-654.
https://doi.org/10.1080/02664763.2015.1072141
[8] Li, R., Zhong, W. and Zhu, L. (2012) Feature Screening via Distance Correlation Learning. Journal of the American Statistical Association, 107, 1129-1139.
https://doi.org/10.1080/01621459.2012.695654
[9] Mai, Q., Zou, H., et al. (2015) The Fused Kolmogorov Filter: A Nonparametric Model-Free Screening Method. The Annals of Statistics, 43, 1471-1497.
https://doi.org/10.1214/14-AOS1303
[10] Liu, Y. and Wang, Q. (2017) Model-Free Feature Screening for Ultrahigh-Dimensional Data Conditional on Some Variables. Annals of the Institute of Statistical Mathematics, 23, 1-19.
[11] Huang, Q. and Zhu, Y. (2016) Model-Free Sure Screening via Maximum Correlation. Journal of Multivariate Analysis, 148, 89-106.
https://doi.org/10.1016/j.jmva.2016.02.014
[12] Shao, X. and Zhang, J. (2014) Martingale Difference Correlation and Its Use in High-Dimensional Variable Screening. Journal of the American Statistical Association, 109, 1302-1318.
https://doi.org/10.1080/01621459.2014.887012
[13] Feng, Y., Wu, Y. and Stefanski, L.A. (2018) Nonparametric Independence Screening via Favored Smoothing Bandwidth. Journal of Statistical Planning and Inference, 197, 1-14.
https://doi.org/10.1016/j.jspi.2017.11.006
[14] Zhang, J.Y., Zhang, R.Q. and Zhang, J.J. (2018) Feature Screening for Nonparametric and Semiparametric Models with Ultrahigh-Dimensional Covariates. Journal of Systems Science and Complexity, 31, 1350-1361.
https://doi.org/10.1007/s11424-017-6310-6
[15] Dang, X., Nguyena, D., Chen, Y.X. and Zhang, J.Y. (2019) New Gini Correlation between Quantitative and Qualitative Variables, Scandinavian Journal of Statistics, 48, 1314-1343.
https://doi.org/10.1111/sjos.12490
[16] David, H.A. (1968) Gini’s Mean Difference Rediscovered. Biometrika, 55, 573-575.
https://doi.org/10.2307/2334264
[17] Gini, C. (1914) Sulla misura della concentrazione e della variabiliaà dei caratteri. Atti del Reale Istituto Veneto di Scienze, Lettere ed Aeti, 62, 1203-1248.
[18] Yitzhaki, S. and Schechtman, E. (2013) The Gini Methodology. Springer, New York.
https://doi.org/10.1007/978-1-4614-4720-7
[19] Dorfman, R. (1979) A Formula for the Gini Coefficient. Review of Economics and Statistics, 61, 146-149.
https://doi.org/10.2307/1924845
[20] Huang, J., Horowitz, J. and Ma, S. (2008) Asymptotic Properties of Bridge Estimators in Sparse High-Dimensional Regression Models. The Annals of Statistics, 36, 587-613.
https://doi.org/10.1214/009053607000000875
[21] Hoeffding, W. (1948) A Class of Statistics with Asymptotically Normal Distribution. The Annals of Mathematical Statistics, 19, 293-325.
https://doi.org/10.1214/aoms/1177730196
[22] Schechtman, E. (1991) On Estimating the Asymptotic Variance of a Function of U Statistics. The American Statistician, 45, 103-106.
https://doi.org/10.2307/2684368
[23] Serfling, R.J. (2009) Approximation Theorems of Mathematical Statistics. John Wiley & Sons, Hoboken.
[24] Cui, H., Li, R. and Zhong, W. (2012) Model-Free Feature Screening for Ultrahigh Dimensional Discriminant Analysis. Journal of the American Statistical Association, 110, 630-641.
https://doi.org/10.1080/01621459.2014.920256
[25] Pan, R., Wang, H. and Li, R. (2013) On the Ultrahigh Dimensional Linear Discriminant Analysis Problem with a Diverging Number of Classes.
[26] Zhu, L.P., Li, L., Li, R. and Zhu, L.X. (2011) Model-Free Feature Screening for Ultrahigh Dimensional Data. Journal of the American Statistical Association, 106, 1464-1475.
https://doi.org/10.1198/jasa.2011.tm10563
[27] Meier, L., Van De Geer, S. and Bühlmann, P. (2009) High-Dimensional Additive Modeling. Annals of Statistics, 37, 3779-3821.
https://doi.org/10.1214/09-AOS692
[28] Gordon, G., Jensen, R., Hsiao, L., Gullans, S., Blumenstock, J., Ramaswamy, S., Richards, W., Sugarbaker, D. and Bueno, R. (2002) Translation of Microarray Data into Clinically Relevant Cancer Diagnostic Tests Using Gene Expression Ratios in Lung Cancer and Mesothelioma. Cancer Research, 62, 4963-4967.
[29] Fan, J. and Fan, Y. (2008) High-Dimensional Classification Using Features Annealed Independence Rules. The Annals of Statistics, 36, 2605-2637.
https://doi.org/10.1214/07-AOS504
[30] Tibshirani, R., Hastie, T., Narasimhan, B. and Chu, G. (2002) Diagnosis of Multiple Cancer Types by Shrunken Centroids of Gene Expression. Proceedings of the National Academy of Sciences, 99, 6567-6572.
https://doi.org/10.1073/pnas.082099299
[31] Witten, D.M. and Tibshirani, R. (2011) Penalized Classification Using Fisher’s Linear Discriminant. Journal of the Royal Statistical Society Series B: Statistical Methodology, 73, 753-772.
https://doi.org/10.1111/j.1467-9868.2011.00783.x
[32] Clemmensen, L., Hastie, T., Witten, D., et al. (2011) Sparse Discriminant Analysis. Technometrics, 53, 406-413.
https://doi.org/10.1198/TECH.2011.08118
[33] Bhattacharjee, A., Richards, W., Staunton, J., Li, C., Monti, S., Vasal, P., et al. (2001) Classification of Human Lung Carcinomas by MRNA Expression Profiling Reveals Distinct Adenocarcinoma Subclasses. PNAS, 98, 13790-13795.
https://doi.org/10.1073/pnas.191502998