线性等式约束广义Lasso问题的算法研究
Algorithm Research on Generalized Lasso Problems with Linear Equality Constraints
DOI: 10.12677/orf.2024.143306, PDF, HTML, XML, 下载: 20  浏览: 44 
作者: 吴娟娟:上海理工大学理学院,上海
关键词: Lasso问题邻近点算法半光滑牛顿算法Lasso Problem Proximal Point Algorithm Semi-Smooth Newton Algorithm
摘要: 随着大数据时代的到来,众多研究领域都涉及到优化问题的求解,其中Lasso问题的求解尤其受到学者们的广泛研究。针对Lasso问题的求解,学者们研发出众多算法。随着应用的场景不同以及对数据的要求不同,带有约束的广义Lasso问题逐渐受到人们关注。本文将已有的快速邻近点算法结合半光滑牛顿算法,应用到对一类含线性等式约束的广义Lasso问题进行求解,并在一定的假设条件下证明了该算法的收敛性。最后,通过数值实验证实了该算法的高效性。
Abstract: With the advent of the big data era, many research fields involve solving optimization problems, among which the solution of the Lasso problem has been widely studied by scholars. Scholars have developed numerous algorithms for solving the Lasso problem. As the application scenarios vary and the data requirements differ, the generalized Lasso problem with constraints has gradually attracted attention. This paper combines existing fast proximal point algorithms with a semi-smooth Newton algorithm to solve a class of generalized Lasso problems with linear equality constraints. The convergence of the algorithm is proved under certain assumptions. Finally, the efficiency of the algorithm is verified through numerical experiments.
文章引用:吴娟娟. 线性等式约束广义Lasso问题的算法研究[J]. 运筹与模糊学, 2024, 14(3): 694-706. https://doi.org/10.12677/orf.2024.143306

1. 引言

零和约束Lasso问题在生物领域有着广泛的应用背景。这种约束模型适用于许多生物学问题,尤其是在基因组学和生物信息学领域。例如:文献[1]中考虑具有零和约束的Lasso问题,如下:

min x 1 2 Axy 2 +λ x 1 s.t. i=1 n x i =0, (1)

其中 表示欧式范数, 1 表示 l 1 范数, x R n 为变量, A R m×n y R m λR 均为给定量。在一些组成数据的回归模型中,即表示整体百分比或比例的数据中,需要这种特殊结构的约束。

由于约束的特殊性,该类优化问题通常出现在许多不同的领域,例如地质学、生物学、生态学和经济学。如:在微生物组分析中,数据集通常是标准化的,并产生成分数据[2] [3]。因此,设计求解该类问题的高效算法具有更加广泛的应用价值。为了使求解该类问题的算法具有广泛的应用性,现考虑求解如下更一般的等式约束广义Lasso问题:

min x 1 2 Axy 2 +h( x ) s.t.A( x )=b, (2)

其中非光滑项函数 h( x ):=λ x 1 表示欧式范数, 1 表示 l 1 范数, x R n 为变量 A R m×n y R m λR 均为给定量;约束中的 A: R n R s 表示线性映射;向量 b R s

近年来,许多学者利用该问题的特殊结构,建立了良好的算法用来求解模型(1)。例如,Lin等人于2014年在[4]中提出了一种通过循环坐标下降的拉格朗日方法解决子问题;而Altenbuchinge等人于2017年在[5]中提出了基于变量随机选择的坐标下降策略。对于复合凸优化问题,Li [6]等人提出了一种快速邻近点算法求解复合凸优化问题模型,并基于对偶原理的半光滑牛顿算法高效稳定地求解了邻近点算法所涉及的重要子问题。

此外,考虑到约束套索的更一般形式,2016年Gaines等人在[7]中分析了一种基于二次规划的方法和ADMM方法,2020年Deng等人在[8]中提出了一种半光滑牛顿增广拉格朗日方法,文献[7] [9] [10]中设计了路径算法。

基于以上算法的启发,本文的目标是将邻近点半光滑牛顿算法推广到用于求解带线性等式约束Lasso问题(2),并通过数值实验证实该算法求解该类带等式约束Lasso问题具有良好性能。

2. 理论知识

本节将讨论凸复合优化问题的一些稳定性性质。在之后的理论分析中可以很容易看出,这些稳定性性质是我们建立邻近点算法快速收敛的关键。

首先,给出邻近映射的定义,这将对分析邻近点算法起着至关重要的作用。

定义1 ([11] Definition 6.1) (proximal mapping)令 为有限维实值希尔伯特空间, h:RR{ + } 为凸且封闭的函数。给定参数 t>0 ,邻近映射定义如下:

prox th ( x ):=arg min u { h( u )+ 1 2t ux 2 },x.

接下来将给出Moreau包络的具体定义,如下:

定义2 ([11] Definition 6.52) (Moreau envelope)给定适当的闭凸函数 h:RR{ + } 且参数 t>0 ,则函数h的Moreau包络为:

M h t ( x ):= min u { h( u )+ 1 2t ux 2 }.

其中参数t称为光滑参数。

接下来,将给出有关非光滑性的相关分析的重要结论。

X,Y 为两个有限维实向量空间。设 O X 的一个开集,且 Φ:OY 为局部Lipschitz连续函数。由Rademacher定理([12] Theorem 9.60)可知,函数 Φ( ) O 中几乎处处F可微。用 D Φ 表示集合 O 中函数 Φ F可微的点集。用 B Φ( x ) 表示函数 Φ 在点 xO 处的B次微分,定义如下:

B Φ( x ):={ lim k Φ( x k ): x k D Φ , x k x }.

进一步,函数 Φ 在点x处的Clarke广义Jacobian矩阵是由 B Φ( x ) 的凸包定义,即 Φ( x ):=co( B Φ( x ) ) ,并且用 Φ( x k ;Δx ) 表示函数 Φ 在点x处沿着非零方向 ΔxX 的方向导数。

下面回顾一些关于半光滑性的概念。这有助于建立算法局部收敛的超线性速度。类似于[13][14],给出半光滑性的定义。

定义3 (半光滑性质) [13] [14] F:U R n R m 是局部Lipschitz连续的。令 ( x ) 为函数族,其中每个函数 M( x; ) R n R m 的映射,并且满足 M( x;0 )=0 。函数F被称为在点 x ¯ U 处关于 是半光滑的,若F在点 x ¯ U 处方向可微且对于任意 M( x ¯ +Δx; )( x ¯ +Δx )

F( x ¯ +Δx )F( x ¯ )M( x ¯ +Δx;Δx )=o( Δx 2 ),

其中 o( Δx 2 ) 表示当 Δx0 Δx 2 的高阶无穷小量。

同样,函数F被称为在点 x ¯ U 处关于 是强半光滑的,若F在点 x ¯ U 处方向可微且对于任意 M( x ¯ +Δx; )( x ¯ +Δx )

F( x ¯ +Δx )F( x ¯ )M( x ¯ +Δx;Δx )=O( Δx 2 2 ),

其中 O( Δx 2 2 ) 表示当 Δx0 Δx 2 2 的同阶无穷小量。

在上述理论知识的基础上,将进行优化问题的具体算法设计。

3. 求解等式约束广义Lasso问题(2)

由于问题(2)中 l 1 范数的存在,使得问题不易求解,因此考虑采用邻近点算法(PPA)求解问题(2),邻近点算法求解产生了问题(2)的PPA子问题,此时PPA子问题的目标函数中两个变量可以完全分离,又保证了其强凸性。

3.1. PPA子问题

将问题(2)的目标函数Moreau-Yosida正则化后得PPA子问题:

min x 1 2 Axy 2 2 +h( x )+ 1 2t x x k1 2 2 s.t.A( x )=b, (3)

其中 t>0 是正则化因子, x k1 R n

由于问题(2)的目标函数是凸函数,所以加入正则项后可得目标函数

1 2 Axy 2 2 +λ x 1 + 1 2t x x k1 2 2 是强凸的,因此在约束准则Slater条件成立的情况下,强对偶性是成立

的,即原始问题与对偶问题的对偶间隙为零,因此可以通过求解(3)的对偶问题的最优可行解,从而得到对应的原始问题(2)的最优可行解 x *

3.2. 对偶问题

首先给出PPA子问题(3)的对偶问题。通过引入松弛变量z,问题(3)等价于

min x,z f( x,z )= 1 2 z 2 2 +h( x )+ 1 2t x x k1 2 2 s.t.Axyz=0, A( x )=b. (4)

其拉格朗日函数为:

( x,z; ξ 1 , ξ 2 ):= 1 2 z 2 2 +h( x )+ 1 2t x x k1 2 2 + Axyz, ξ 1 + A( x )b, ξ 2 , (5)

其中 ξ 1 ξ 2 分别是 Axyz=0 A( x )=b 对应的拉格朗日乘子。关于 x,z 极小化 得:

D t ( ξ 1 , ξ 2 ):= inf x,z ( x,z; ξ 1 , ξ 2 ) = inf x,z 1 2 z 2 2 z, ξ 1 +h( x )+ 1 2t x x k1 2 2 + x, A T ξ 1 y, ξ 1 + A( x )b, ξ 2 = 1 2 z ¯ 2 2 z ¯ , ξ 1 +h( x ¯ )+ 1 2t x ¯ x k1 2 2 + x ¯ , A T ξ 1 y, ξ 1 + A( x ¯ )b, ξ 2 = 1 2 z ¯ 2 2 z ¯ , ξ 1 +h( x ¯ )+ 1 2t x ¯ x k1 2 2 + x ¯ , A T ξ 1 y, ξ 1 + A( x ¯ ), ξ 2 b, ξ 2 = 1 2 z ¯ 2 2 z ¯ , ξ 1 +h( x ¯ )+ 1 2t x ¯ x k1 2 2 + x ¯ , A T ξ 1 + A * ( ξ 2 ) y, ξ 1 b, ξ 2 , (6)

其中 x ¯ , z ¯ 是极小化拉格朗日函数(5)中的变量 x,z 得到的最优解, x ¯ , z ¯ 的具体形式将通过如下的引理给出。

于是得到问题(4)的对偶问题:

max ξ 1 , ξ 2 D t ( ξ 1 , ξ 2 ) (7)

引理1 ( ξ 1 , ξ 2 ) 是问题(4)的对偶问题(7)的一组最优解,则存在 ( x ¯ , z ¯ ) 是PPA子问题的等价问题(4)的一组最优解,且满足如下等式:

{ x ¯ = prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ), z ¯ = ξ 1 . (8)

证明:下面将给出具体的求解过程,分别极小化(5)中的广义拉格朗日函数中的变量xz,可以得到

x ¯ =arg min x ( x,z; ξ 1 , ξ 2 ) =arg min x h( x )+ 1 2t x x k1 2 2 + x, A T ξ 1 + x, A * ( ξ 2 ) =arg min x { h( x )+ 1 2t x+t( A T ξ 1 + A * ( ξ 2 ) ) x k1 2 2 } = prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ), (9)

z ¯ =arg min z ( x,z; ξ 1 , ξ 2 ) =arg min z { 1 2 z 2 2 z, ξ 1 } = ξ 1 , (10)

其中(9)式中倒数第二个等式的解是 h( x ) x k1 t( A T ξ 1 + A * ( ξ 2 ) ) 处的邻近算子。

由引理1可得原始变量 x,z 都可以由最优对偶变量 ξ 1 , ξ 2 表示,所以问题(4)的对偶问题(7)的目标函数 D t ( ξ 1 , ξ 2 ) 中关于变量x的部分

h( x ¯ )+ 1 2t x ¯ +t( A T ξ 1 + A * ( ξ 2 ) ) x k1 2 2 =h( prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ) ) + 1 2t prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) )+t( A T ξ 1 + A * ( ξ 2 ) ) x k1 2 2 = M h t ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ) (11)

显然成立,其中(11)式中的第二个等式是根据定义2得到的。因此,函数(6)式可以简化为:

D t ( ξ 1 , ξ 2 ):= M h t ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) )+ A T ξ 1 + A * ( ξ 2 ), x k1 1 2 ξ 1 2 2 t 2 A T ξ 1 + A * ( ξ 2 ) 2 2 y, ξ 1 b, ξ 2 .

由引理1可知,PPA子问题的等价问题(4)的解 x,z 可以由对偶变量 ξ 1 , ξ 2 表示,因此接下来将给出求解问题(4)的邻近点算法的框架以及算法的收敛性分析。

3.3. 邻近点算法设计

下面算法将给出求解问题(4)的邻近点算法。

算法1. 邻近点算法(PPA)求解问题(4)

1

初始化: ( x 0 , z 0 ) R n × R n ,ϵ>0, t 0 >0

2

for j=0,1,2, do

3

计算: ( ξ 1 j+1 , ξ 2 j+1 )argmax D t j ( ξ 1 , ξ 2 )

4

计算: ( x j+1 , z j+1 ) 的更新由(8)式得到;

5

if max{ x j+1 x j 2 2 , z j+1 z j 2 2 }ϵ then

6

输出: x j+1 , z j+1

7

else

8

更新: t j+1

9

end

10

end

对于算法1中 x j+1 , z j+1 的更新的具体形式已在引理1中详细给出。

3.4. 邻近点算法收敛性分析

本小节将给出算法1的收敛结果。在此之前,提出一些假设和命题。将与问题(4)相关的Moreau包络定义为

f t ( x k1 ):= min x,z { 1 2 z 2 2 +λ x 1 + 1 2t x x k1 2 2 :Axyz=0,A( x )=b }. (12)

命题1 ([15] Proposition 2.2)当对偶问题(7)的极大值在点 ( ξ 1 * , ξ 2 * ) 处取得,则以下条件等价:

1) ( x * , z * ) 是优化问题(4)的极小值点;

2) f( x * , z * )= f t ( x k 1 * ) ,其中 f( x * , z * ) f t ( x k 1 * ) 分别是问题(4)和(12)式的极小值。

命题1的成立,说明问题(4)取到最优点 ( x * , z * ) 和(12)式取到极值点 x k 1 * 是同时成立的,且此时原问题和对偶问题的目标函数值也相等。

在分析算法1的收敛性和收敛速度之前,首先给出如下假设。

假设1 问题(4)的最优解集 V * 非空, j=0 t j =+ 且存在参数 η>0 ϵ>0 ω1 使得

f( x * , z * )+η ( d( x,z ) ) ω f( x,z ),( x,z ) R n × R n ,

d( x,z )ϵ,

其中

d( x,z )= min ( x * , z * ) V * ( x x * 2 2 + z z * 2 2 ) 1 2 .

定理1 [16] { ( x j , z j ) } 是由邻近点算法1产生的序列。若 t j 满足 j=0 t j =+ ,则有

f( x j , z j )f( x * , z * ),

且若问题(4)的最优解集 V * 非空,则序列 { ( x j , z j ) } 收敛到问题(4)的最优解 ( x * , z * )

假设1成立时,由定理1可知算法1产生的序列 { ( x j , z j ) } 收敛到 ( x * , z * ) ,如下的定理可说明算法1是线性收敛的。

定理2 [16]令假设1中的 ω=2 且对于任意的j,都有 ( x j , z j )( x * , z * ) 成立,于是有:

1) 若 lim j t j =c c( 0,+ ) ,则

lim sup j d( x j+1 , z j+1 ) d( x j , z j ) 1 1+ηc ;

2) 若 lim j t j =+ ,则

lim sup j d( x j+1 , z j+1 ) d( x j , z j ) =0.

4. PPA子问题(3)的求解

已知问题(2)的求解实际上等价于求解一系列PPA子问题(3),以及PPA算法具有线性收敛性。由于PPA子问题(3)的等价问题(4)和其对偶问题(7)是零对偶间隙的,且等价问题(4)的解 x,z 可以由对偶变量 ξ 1 , ξ 2 表示。因此,设计高效的算法求解对偶问题(7)非常关键,本节将进一步分析并设计求解对偶问题(7)的高效算法。

为便于分析,首先将对偶问题(7)写成如下等价形式:

min ξ 1 , ξ 2 ψ( ξ 1 , ξ 2 ):= D t ( ξ 1 , ξ 2 ) = M λ 1 t ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) )+ 1 2 ξ 1 2 2 A T ξ 1 + A * ( ξ 2 ), x k1 + t 2 A T ξ 1 + A * ( ξ 2 ) 2 2 + y, ξ 1 + b, ξ 2 . (13)

注意到,此时问题(13)的目标函数 ψ( ξ 1 , ξ 2 ) 是凸的且连续可微。

4.1. 梯度

为方便表示,记 ( ξ 1 , ξ 2 )=u ( Δ ξ 1 ,Δ ξ 2 )=Δu

问题(13)的目标函数 ψ( u ) 关于变量 ξ 1 , ξ 2 的梯度 ξ 1 ψ( u ), ξ 2 ψ( u ) 具体形式为:

ξ 1 ψ( u )=A[ x k1 t( A T ξ 1 + A * ( ξ 2 ) ) prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ) ] + ξ 1 A x k1 +tA A T ξ 1 +tA( A * ( ξ 2 ) )+y =A prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) )+ ξ 1 +y, (14)

ξ 2 ψ( u )=A( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) ) ) A( x k1 )+tA( A T ξ 1 + A * ( ξ 2 ) )+b =A prox th ( x k1 t( A T ξ 1 + A * ( ξ 2 ) ) )+b, (15)

因此问题(13)的目标函数 ψ( u ) 的梯度 ψ( u ) 为:

ψ( u ):=[ ξ 1 ψ( u ); ξ 2 ψ( u ) ]. (16)

4.2. 广义Hessian矩阵

根据已知梯度,现在进一步分析问题(13)的目标函数 ψ( u ) 的广义Hessian矩阵。

考虑到 ψ( u ) 是Lipschitz连续的,则在Clarke意义下 ψ 在点 ( ξ 1 , ξ 2 ) 处的广义Jacobian矩阵是B-次微分 B ( ψ( u ) ) 的凸包,即

( ψ( u ) )=co( B ( ψ( u ) ) ).

( ψ( u ) )[ ( Δu ) ]:=( ( ξ 1 ψ( u ) )[ ( Δu ) ],( ξ 2 ψ( u ) )[ ( Δu ) ] ). (17)

对(17)式的分析如下:

为了方便表示,记

H ξ 1 , ξ 2 := A T Δ ξ 1 + A * ( Δ ξ 2 ), (18)

x ^ ( ξ 1 , ξ 2 ):= x k1 t( A T ξ 1 + A * ( ξ 2 ) ), (19)

由于 x 1 x=0 处不可导,因此邻近算子的导数需要使用次梯度来表示。当x不等于0时,邻近算子的次梯度为其导数。当 x=0 时,邻近算子的次梯度可以是任何介于 [ 1,1 ] 的值。因此,此处有

[ prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) )[ H ξ 1 , ξ 2 ] ] i ={ [ H ξ 1 , ξ 2 ] i , [ x ^ ( ξ 1 , ξ 2 ) ] i >tλ, a [ H ξ 1 , ξ 2 ] i a[ 0,1 ], [ x ^ ( ξ 1 , ξ 2 ) ] i =tλ, 0 [ x ^ ( ξ 1 , ξ 2 ) ] i <tλ.

其中 [ H ξ 1 , ξ 2 ] i [ x ^ ( ξ 1 , ξ 2 ) ] i 中的下标 i=1,,n 表示对应向量的第i个元素。于是有:

( ψ( u ) )[ ( Δu ) ]=[ tA prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) )[ H ξ 1 , ξ 2 ]+Δ ξ 1 ,tA prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) )[ H ξ 1 , ξ 2 ] ].

4.3. 最优性条件

已知问题(13)是一个凸的无约束优化问题,现通过如下的定理给出该问题的一阶最优性条件。

定理3 假设最优点对 ( ξ 1 * , ξ 2 * ):= u * 是问题(13)的全局最优解,则满足如下条件:

{ ξ 1 ψ( u * )=0, ξ 2 ψ( u * )=0. (20)

注意到(20)式可以写成

ϕ( u * ):=( ξ 1 ψ( u * ), ξ 2 ψ( u * ) )=0, (21)

在点 ( ξ 1 k , ξ 2 k ):= u k 处,定义问题(13)的KKT误差为

η kkt ( u k ):= ϕ( u k ) . (22)

因此,问题(13)一阶最优性条件成立等价于

η kkt ( u k )=0,

所以可以用KKT误差 η k := η kkt ( u k ) 来衡量当前迭代点的最优性。

接下来给出问题(13)的二阶充分性条件。

命题2 [17]对于函数 ψ 在点u处的广义Jacobian矩阵 H ^ B ( ψ( u * ) )

1) 若 u * 为问题(13)的局部极小值点,则对任意非零s

s T H ^ s0;

2) 令 u * 满足KKT条件(20)。若对任意非零s有二阶充分性条件

s T H ^ s0

成立,则 u * 为问题(13)的严格局部极小值点。

4.4. 半光滑牛顿算法

由于半光滑牛顿算法的局部快速收敛性,极大提高了子问题的求解效率,进一步可以提高算法1的整体效率。在本小节中,考虑采用半光滑牛顿算法求解子问题(13)。

由于 l 1 范数的邻近算子是局部Lipschitz连续的,因此可以定义 prox tλ 1 的Clarke广义Jacobian,记为 prox tλ 1 。进一步定义目标函数 ψ 的广义Hessian,即 ψ 的Clarke广义Jacobian,记为 2 ψ 。由于 2 ψ 没有显式表达式,因此定义如下的替代映射:

^ 2 ψ( ξ 1 , ξ 2 ):=[ tA prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) )+Δ ξ 1 ,tA prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) ) ].

对于给定的 ( ξ 1 , ξ 2 ) ,有

2 ψ( ξ 1 , ξ 2 )( d )= ^ 2 ψ( ξ 1 , ξ 2 )( d ),

所以, ^ 2 ψ 可以被认为是 2 ψ 的一个较好的替代映射。对于给定的 ( ξ 1 , ξ 2 ) ,令

H ^ =( tAU A T +Δ ξ 1 tAU A * )

其中 U prox tλ 1 ( x ^ ( ξ 1 , ξ 2 ) ) ,则 H ^ ^ 2 ψ

具体来说,广义牛顿方向 d ^ :=( d ^ ξ 1 , d ^ ξ 2 ) 可以通过求解无约束的二次规划

min d ^ ψ( u k ), d ^ + 1 2 d, H ^ k d ^ (23)

得到,其中 u k =( ξ 1 k , ξ 2 k ) H ^ k 为问题(13)的目标函数 ψ 在点 u k 处的广义Hessian矩阵。

根据目标函数的性质以及算法的理论,将问题转化为求解如下牛顿方程:

H ^ k d=ψ( u k ). (24)

由于 ^ 2 ψ( u k ) 中的映射是对称和半正定的,但它们仍然可能是奇异的。对此,设置

H k = H ^ k + ν k id, (25)

其中 H ^ k ^ 2 ψ( u k ) id: R m × R s R m × R s 为恒等映射, ν k 定义为 ν k :=min( δ ¯ ,δ η k ) δ ¯ δ 为两个正参数,并且 η k := η kkt ( u k ) 为(21)式中定义的在点 u k 处的KKT误差。显然,当 η k 0 时, H k 为正定的。

考虑使用半光滑牛顿算法求解子问题(13),生成迭代为

u k+1 = u k α k ( H k ) 1 [ ( ψ( u k ) ) ], (26)

其中 α k >0 为第k步合适的步长, ( H k ) 1 为广义Hessian矩阵 H k 的逆。

( Δ ξ 1 N k ,Δ ξ 2 N k ):= ( H k ) 1 [ ( ξ 1 ψ( u k ), ξ 2 ψ( u k ) ) ],

( Δ ξ 1 N k ,Δ ξ 2 N k ) 为在 u k 处得到的正则化广义牛顿方向,它可以通过求解广义牛顿方程:

H k [ ( Δ ξ 1 N k ,Δ ξ 2 N k ) ]=[ ( ξ 1 ψ( u k ), ξ 2 ψ( u k ) ) ] (27)

得到。

对此,考虑到计算成本,通常采用共轭梯度(CG)算法来求解广义牛顿方程(27)的近似解。现在给出半光滑牛顿算法求解系统(24)的基本框架。

算法2. 半光滑牛顿算法求解问题(24)

1

Input: ε>0,σ( 0,1 ),τ( 0,1 )

2

Given: ( ξ 1 0 , ξ 2 0 ) R m × R s

3

Compute d ξ 1 0 and d ξ 2 0 from (23)

4

for k=0,1, do

5

if max{ η k ,ga p k }ε then

6

return ξ 1 k and ξ 2 k

7

end

8

Compute d ξ 1 k and d ξ 2 k by solving (23);

9

Set α=1

10

while ψ( ξ 1 k + α k d ξ 1 k , ξ 2 k + α k d ξ 2 k )ψ( ξ 1 k , ξ 2 k )>ασ Δ k do

11

Set α=τα

12

end

13

Set α k =α and ξ 1 k+1 = ξ 1 k + α k d ξ 1 k and ξ 2 k+1 = ξ 2 k + α k d ξ 2 k

14

end

在下文中,交代了算法的终止条件。与[18]类似,考虑使用gap来表示原问题和对偶问题的间隙,以便于测量原目标与对偶目标之间的差距,即

gap= | probjdobj | 1+| probj |+| dobj | ,

其中probjdobj分别表示原问题目标函数值和对偶问题目标函数值。

max{ η k ,ga p k }ε 时,算法终止,其中 ε>0 为给定误差, η k 为(22)式中定义的KKT误差,gap为点 u k 处的间隙。因此,在算法2中给出了求解问题(23)的算法。

4.5. 半光滑牛顿算法收敛性分

本小节将分析半光滑牛顿算法的收敛性,为方便表示,记 u:=( ξ 1 , ξ 2 )

定义4 假设 ψ 是局部Lipschitz连续的,则其广义Jacobian存在。取在 u k 点任意的广义Jacobian矩阵 H ^ k ( ψ( u k ) ) ,若 H ^ k 可逆,其基本的迭代格式为

u k+1 = u k H ^ k 1 ψ( u k ). (28)

假设2 映射 ψ 在最优点 u * 处是半光滑和所有Jacobian矩阵是非奇异的。

引理2 如果假设2成立,则存在常数 c>0,κ>0 和一个小邻域 N( u * , ϵ 0 ) 使得对于任意的 uN( u * , ϵ 0 ) H ^ k ( ψ( u k ) ) ,下面结论成立:

1) u * 是一个孤立解;

2) H ^ k 是非奇异的并且 H ^ k 1 c

3) 局部误差届条件对于 ψ( u ) 在邻域 N( u * , ϵ 0 ) 上成立,也就是说 u u * κ ψ( u )

如下定理给出了半光滑牛顿算法的局部二次收敛性。

定理4 ψ( ξ 1 , ξ 2 ) 具有半光滑性并且 u * 是优化问题(13)的最优解。那么迭代(28)是良定义的,且存在一个小邻域 N( u * ,ϵ ) ,使得对于任意的k u k N( u * ,ϵ ) ,迭代(28)是超线性收敛的。如果 ψ( u ) 是强半光滑的,迭代(28)是二次收敛的。

证明:根据引理2,迭代(28)式是良定义的。可以推出:

u k+1 u k = u k H ^ k 1 ψ( u k ) u * = H ^ k 1 ψ( u k )ψ( u * ) H ^ k ( u k u * ) =O( u k u * 2 ),

其中最后一个等式来源于强半光滑性。

5. 数值实验

本节将通过仿真数值实验来测试本文使用的邻近点对偶半光滑牛顿算法(记为PPA_DSN)算法求解含等式约束广义Lasso问题的实际效果。算法采用MatlabR2017a编程实现,且所有实验均在AMD Ryzen 7 6800HS Creator Edition 3.20 GHz,16.0 GB内存的个人笔记本电脑上运行。同时,考虑选择邻近梯度算法(记为PPA_DG)和交替方向乘子法算法(记为ADMM_GLP)作为对比算法。算法PPA_DSN所需参数分别为:设计矩阵A的规模: m×n ;观测向量y的规模:m维;最大迭代时间600秒;最大误差 ϵ=1× 10 6

对于所有算法,若下面任一条件满足,则终止程序:

1) 算法残差 η kkt ( u k )ϵ

2) 达到最大迭代数maxit = 200。

为进行实验观测算法PPA_DSN求解含等式约束广义Lasso问题的效率,首先设置含等式约束广义Lasso问题的样本数量为m,特征数量为n,设计矩阵A的每个分量 A ij 均随机生成;设向量 y=A x * +ε ( ε 表示随机扰动向量),正则化参数 λ=0.01

Figure 1. In correspondence with the experimental data of three algorithms

1. 三种算法对比的实验数据

为了验证PPA_DSN算法的有效性和稳定性,我们进行了不同参数设置下的实验。下文提供PPA_DSN算法、邻近梯度算法(记为PPA_DG)和交替方向乘子算法(记为ADMM_GLP)的数值结果。我们针对零和约束Lasso问题(1),取变量维数 n=[ 1000,1500,2000 ] m=[ 100,200,500 ] ,正则化参数 λ=[ 0.001,0.01,0.1 ] ,最大迭代时间600秒,最大误差。在这些设置下,共进行了27组实验。考虑到实验数据均为随机生成的,每组实验重复了3次,并取数值结果的平均值。具体结果详见图1,其中Res、Iter、Iterf、Iterd和Time分别表示残差 η kkt ( u k ) 、迭代步数、目标函数计算次数、搜索方向计算次数和CPU运行时间(以秒为单位)。从图1可以看出,算法PPA_DSN成功求解了所有测试问题,并且在大多数情况下,CPU耗时不超过1秒。

6. 总结

本文主要对一类含线性等式约束的广义Lasso问题进行算法研究。由于大多实际问题的求解过程中会涉及对样本数据的限制,如零和约束Lasso问题,因此考虑求解一类含线性等式约束的广义Lasso问题。受众多研究者先前对Lasso模型的算法研究的启发,本文考虑将邻近点半光滑牛顿算法推广到用于求解含线性等式约束Lasso问题,并通过数值实验与邻近梯度算法以及交替方向乘子法进行对比,证实了该算法求解该类含线性等式约束Lasso问题具有良好性能。

参考文献

[1] Cristofari, A. (2023) A Decomposition Method for Lasso Problems with Zero-Sum Constraint. European Journal of Operational Research, 306, 358-369.
https://doi.org/10.1016/j.ejor.2022.09.030
[2] Gloor, G.B., Macklaim, J.M., Pawlowsky-Glahn, V. and Egozcue, J.J. (2017) Microbiome Datasets Are Compositional: And This Is Not Optional. Frontiers in Microbiology, 8, Article 2224.
https://doi.org/10.3389/fmicb.2017.02224
[3] Shi, P., Zhang, A. and Li, H. (2016) Regression Analysis for Microbiome Compositional Data. The Annals of Applied Statistics, 10, 1019-1040.
https://doi.org/10.1214/16-aoas928
[4] Lin, W., Shi, P., Feng, R. and Li, H. (2014) Variable Selection in Regression with Compositional Covariates. Biometrika, 101, 785-797.
https://doi.org/10.1093/biomet/asu031
[5] Altenbuchinger, M., Rehberg, T., Zacharias, H.U., Stämmler, F., Dettmer, K., Weber, D., et al. (2016) Reference Point Insensitive Molecular Data Analysis. Bioinformatics, 33, 219-226.
https://doi.org/10.1093/bioinformatics/btw598
[6] 郦旭东. 复合凸优化的快速邻近点算法[J]. 计算数学, 2020, 42(4): 385-404.
[7] Gaines, B.R., Kim, J. and Zhou, H. (2018) Algorithms for Fitting the Constrained Lasso. Journal of Computational and Graphical Statistics, 27, 861-871.
https://doi.org/10.1080/10618600.2018.1473777
[8] Deng, Z., Yue, M. and So, A.M. (2020). An Efficient Augmented Lagrangian-Based Method for Linear Equality-Constrained Lasso. ICASSP 2020—2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Barcelona, 4-8 May 2020, 5760-5764.
https://doi.org/10.1109/icassp40776.2020.9053722
[9] Jeon, J., Kim, Y., Won, S. and Choi, H. (2020) Primal Path Algorithm for Compositional Data Analysis. Computational Statistics & Data Analysis, 148, Article ID: 106958.
https://doi.org/10.1016/j.csda.2020.106958
[10] Tibshirani, R.J. and Taylor, J. (2011) The Solution Path of the Generalized Lasso. The Annals of Statistics, 39, 1335-1371.
https://doi.org/10.1214/11-aos878
[11] Beck, A. (2017). First-Order Methods in Optimization. Society for Industrial and Applied Mathematics.
https://doi.org/10.1137/1.9781611974997
[12] Rockafellar, R.T. and Wets, R.J.B. (2009) Variational Analysis. Springer Science & Business Media.
[13] Facchinei, F. and Pang, J.S. (2003) Finite-Dimensional Variational Inequalities and Complementarity Problems. Springer.
https://doi.org/10.1007/b97543
[14] Zhang, Y., Zhang, N., Sun, D. and Toh, K. (2018) An Efficient Hessian Based Algorithm for Solving Large-Scale Sparse Group Lasso Problems. Mathematical Programming, 179, 223-263.
https://doi.org/10.1007/s10107-018-1329-6
[15] Li, Q. (2012) Conjugate Gradient Type Methods for the Nondifferentiable Convex Minimization. Optimization Letters, 7, 533-545.
https://doi.org/10.1007/s11590-011-0437-5
[16] Bertsekas, D. (2015) Convex Optimization Algorithms. Athena Scientific.
[17] Shen, C., Xue, W., Zhang, L. and Wang, B. (2020) An Active-Set Proximal-Newton Algorithm for 1 Regularized Optimization Problems with Box Constraints. Journal of Scientific Computing, 85, Article No. 57.
https://doi.org/10.1007/s10915-020-01364-0
[18] Cui, Y., Leng, C. and Sun, D. (2016) Sparse Estimation of High-Dimensional Correlation Matrices. Computational Statistics & Data Analysis, 93, 390-403.
https://doi.org/10.1016/j.csda.2014.10.001