具有双重松弛项的改进惯性近端交替方向乘子法在结构化非凸和非光滑问题中的应用
Application of the Modified Inertial Proximal Alternating Direction Method of Multipliers with Dual-Relaxed Term for Structured Nonconvex and Nonsmooth Problems
摘要: 针对结构化的非凸非光滑优化问题,提出了一种改进的惯性近端交替方向乘子法(Modified Inertial Proximal Alternating Direction Method of Multipliers, MID-PADMM)。该问题在多个领域,包括机器学习、信号处理和经济学中具有重要应用。现有算法在处理这类问题时,往往面临收敛速度慢或无法保证收敛的挑战。为了克服这些限制,引入了一种双重松弛项,以增强算法的鲁棒性和灵活性。理论分析表明,MID-PADMM算法在适当的条件下能够实现全局收敛,并且具有O(1/k)的迭代复杂度,其中k代表迭代次数。数值实验结果表明,与现有的状态最优算法相比,MID-PADMM在多个实例中展现出更快的收敛速度和更高的求解质量。
Abstract: For structured nonconvex and nonsmooth optimization problems, we propose a Modified Inertial Proximal Alternating Direction Method of Multipliers (MID-PADMM). These problems are significantly applied in various domains, including machine learning, signal processing, and economics. Existing algorithms often face challenges such as slow convergence or the inability to guarantee convergence when dealing with such problems. To overcome these limitations, we introduce a dual-relaxed term to enhance the robustness and flexibility of the algorithm. The theoretical analysis shows that the MID-PADMM algorithm can achieve global convergence under suitable conditions and has an iteration complexity of O(1/k), where k represents the number of iterations. Numerical experimental results demonstrate that, compared to the current state-of-the-art algorithms, MID-PADMM exhibits faster convergence rates and higher solution quality in multiple instances.
文章引用:陈昱, 薛中会. 具有双重松弛项的改进惯性近端交替方向乘子法在结构化非凸和非光滑问题中的应用[J]. 理论数学, 2024, 14(6): 351-361. https://doi.org/10.12677/pm.2024.146255

1. 引言

随着现代科技的飞速发展,非凸非光滑优化问题在众多领域中的重要性日益凸显。在机器学习领域,深度神经网络的训练问题本质上是非凸的,而正则化技术如L1正则化则引入了非光滑性[1] [2]。在信号处理中,稀疏编码和压缩感知问题中的稀疏约束同样带来了非光滑优化挑战[3] [4]。此外,非凸优化在经济学、运筹学以及自动控制等领域同样扮演着关键角色[5] [6]

尽管非凸非光滑优化问题具有重要的实际应用价值,但求解这类问题却充满挑战。非凸性意味着问题可能存在多个局部最优解,而传统的优化算法往往只能保证找到局部最优,而非全局最优解。非光滑性则导致传统的梯度下降方法失效,因为梯度可能不存在或不唯一[7]。现有方法,如次梯度法和Bundle方法,虽然在处理非光滑问题上取得了一定进展,但它们通常面临收敛速度慢和计算效率低的问题[8] [9]。此外,针对凸优化问题的交替方向乘子法(ADMM)虽然在求解大规模问题上表现出色,但直接应用于非凸非光滑问题时,其收敛性和有效性尚未得到充分证明[10]-[16]

针对现有方法的局限性,本文提出了一种改进的惯性近端交替方向乘子法(MID-PADMM),专门针对结构化的非凸非光滑优化问题。MID-PADMM算法结合了惯性近端技术和ADMM框架,并通过引入双重松弛项来增强算法的鲁棒性和收敛性能。我们的主要贡献包括:提出了MID-PADMM算法,该算法能够处理具有复杂结构的非凸非光滑优化问题,并在理论上证明了其全局收敛性。证明了MID-PADMM算法在一定条件下具有O(1/k)的迭代复杂度,其中k为迭代次数,这表明了算法的高效性。通过广泛的数值实验,验证了MID-PADMM算法在多个非凸非光滑问题实例中的有效性和优越性,特别是在收敛速度和求解质量方面,与现有最优算法相比具有显著优势。

本文的结构如下:第2节介绍预备知识和相关工作;第3节详细介绍MID-PADMM算法及其理论分析;第4节展示数值实验结果;最后,第5节总结全文并讨论未来的研究方向。

2. 预备知识

2.1. 非凸和非光滑优化问题的定义

在数学优化中,非凸优化问题指的是目标函数或约束条件至少有一个是非凸的情况。这导致问题的解空间可能包含多个局部最小值,而全局最小值的寻找变得复杂。一般形式的非凸优化问题可以表示为:

min ( x,y ) R m × R q { F( Ax )+G( y )+H( x,y ) } (1.1)

其中 F: R p R 是连续Lipschitz可微函数, G: R q R{ + } 是适当且半连续函数, H: R m × R q R 是Fréchet可微函数,且具有Lipschitz连续梯度, A: R m R p 是线性算。

对于由方程(1.1)表示的问题,Bot [17]通过引入一个额外的变量将其转换为三块非可分离问题:

min ( x,y,z ) R m × R q × R p { F( z )+G( y )+H( x,y ) } s.t.Ax=z (1.2)

增广拉格朗日函数 L β : R m × R q × R p R{ + } 为:

L β ( x,y,z,u )=F( z )+G( y )+ u,Axz + β 2 Axz 2 ,β>0 .

其中u是拉格朗日乘子,β是惩罚参数。

2.2. 数学概念和符号

为了讨论非凸和非光滑优化问题,引入以下数学概念和符号:

R n 表示n维实数向量空间。

A T 表示矩阵A的转置。

f( x ) 表示函数fx出的梯度。

f( x ) 表示函数fx出的次梯度。

pro x λ f( x )=arg min u R n { f( u )+ 1 2λ ux 2 } ,其中, λ>0 是正则化参数。

2.3. 交替方向乘子法(ADMM)

交替方向乘子法(ADMM)是一种强大的算法框架,用于解决具有特定结构的优化问题。它特别适用于那些可以分解为两个或多个子问题,且每个子问题都更易于求解的场合。ADMM在多个领域内都有应用,包括信号处理、统计学和机器学习。

2.4. 引理

引理1 (拉格朗日乘子的存在性和唯一性)

对于约束优化问题(1.2),若F, G, H满足一定条件,存在一个拉格朗日乘子u是的Ax = z对于所有最优解(x*, y*, z*)成立。

引理2 (增广拉格朗日函数的下界)

增广拉格朗日函数Lβ对于任意(x, y, z, u)有下界,即存在常数M使得 L β ( x,y,z,u )M

引理3 (关于F(z) 的Lipschitz连续性)

假设 F: R p R LF-Lipschitz连续的,那么对于任意 z 1 , z 2 R p ,有 | F( z 1 )F( z 2 ) | L F z 1 z 2

引理4 (梯度的Lipschitz性质)

H: R m × R q R 在(x, y)处Fréchet可微,并且其梯度 H( x,y ) LH-Lipschitz连续的,则对于任意(x1, y1), (x2, y2)在 R m × R q 内,

H( x 1 , y 1 )H( x 2 , y 2 ) L H ( x 1 , y 1 ) ( x 2 , y 2 )

3. MID-PADMM算法及其理论分析

在本文节中,我们提出了一种同步方法,通过具有双重松弛的惯性近端最小化算法来解决优化方程(1.2),并随后检验其收敛性质。

3.1. 算法描述

算法1 修改后的惯性近端交替方向乘子法(MID-PADMM)

算法步骤:

1) 初始化:选择初始点 x 0 R m , y 0 R q , u 0 R p ,以及参数 α>0 (惯性项), λ>0 (近端项), β>0 (惩罚项)以及松弛参数 ρ x , ρ z [ 0,1 ]

2) 迭代过程:对于每个 k=0,1,2, ,直到满足终止条件,执行步骤:

惯性更新:计算xz的惯性更新,这通常涉及到前一次迭代的解和当前的梯度信息。

x k,inertial = x k α( A T u k + x H( x k , y k ) )

z k,inertial = z k α( u k A x k )

近端更新:对xz应用近端算子,涉及到解决一个关于xz的次级问题。

x k+1 =pro x λH ( x k,inertial ) z k+1 =pro x λF ( z k,inertial )

双重松弛:引入双重松弛项,平衡算法的探索(exploration)和开发(exploitation)行为。

x relaxed k+1 = ρ x x k+1 +( 1 ρ x ) x k,inertial z relaxed k+1 = ρ z z k+1 +( 1 ρ z ) z k,inertial

更新u:更新拉格朗日乘子u,这通常涉及到当前xz的值。

u k+1 = u k +β( A x relaxed k+1 z relaxed k+1 )

3) 终止条件:当满足当连续两次迭代的增广拉格朗日函数Lβ的变化量小于一个预设的精度阈值 ϵ>0 时,算法终止。

需要指出的是双重松弛项是MID-PADMM算法的关键特性,它允许算法在每一步迭代中调整xz的更新强度。这一机制的引入旨在提高算法的灵活性和收敛性能,特别是在处理非凸和非光滑问题时。

3.2. 算法收敛性分析

选择增广拉格朗日函数Lβ作为Lyapunov函数。为了证明Lyapunov函数的下降性质,需要证明对于

算法的每一步,都有: L β ( x k+1 , y k+1 , z k+1 , u k+1 ) L β ( x k , y k , z k , u k )

考虑到 x k+1 L β ( x, y k , z k , u k ) 的最小化者,有:

L β ( x k+1 , y k , z k , u k ) L β ( x k , y k , z k , u k )

利用 L β ( x k+1 , y k+1 , z k+1 )=F( z k+1 )+G( y k+1 )+H( x k+1 , y k+1 )+ u k+1 T ( A x k+1 z k+1 )+ β 2 A x k+1 z k+1 2

由于 u k+1 = u k +β( A k+1 z k ) ,我们可以将 u k+1 T ( A x k+1 z k+1 ) 重写为:

u k+1 T ( A x k+1 z k+1 )= u k T ( A x k+1 z k )+β ( A x k+1 z k ) T ( A x k+1 z k )

由于 z k+1 = z k + 1 β ( A x k+1 z k ) ,有 β( A x k+1 z k )= z k z k+1 ,因此

u k+1 T ( A x k+1 z k+1 )= u k T ( A x k+1 z k )+ ( z k z k+1 ) T ( A x k+1 z k )

由于 ( z k z k+1 ) T ( A x k+1 z k ) 是两个向量内积,即 ( z k z k+1 ) T ( A x k+1 z k )= z k z k+1 A x k+1 z k cosθ ,其中 θ 是两个向量之间的角度。由于 cosθ1 ,有

( z k z k+1 )( A x k+1 z k ) z k z k+1 A x k+1 z k

由于 z k z k+1 = 1 β A x k+1 z k 带入上式,整理得 ( z k z k+1 ) T ( A x k+1 z k ) β 2 A x k+1 z k 2 ,将这个结果代入 L β ( x k+1 , y k+1 , z k+1 , u k+1 ) ,得到

L β ( x k+1 , y k+1 , z k+1 , u k+1 )F( z k )+G( y k+1 )+H( x k+1 , y k+1 )+ u k T ( A x k+1 z k )+ β 2 A x k+1 z k 2

由于 L β ( x k+1 , y k , z k , u k ) L β ( x k , y k , z k , u k ) ,且 G( y k+1 )G( y k )

可以得到: L β ( x k+1 , y k+1 , z k+1 , u k+1 ) L β ( x k , y k , z k , u k )

这表明在每次迭代后,Lyapunov函数Lβ是非增加的,从而完成了证明。

接下来为了证明Lyapunov函数Lβ满足KL不等式的条件,需要详细地推导出在迭代过程中Lβ的减少量与拉格朗日乘子变化量之间的关系。

现在,我们考虑在点 ( x k , y k , z k , u k ) ( x k+1 , y k+1 , z k+1 , u k+1 ) 之间Lβ的差值。由于FGH是凸函数,我们可以使用一阶泰勒展开来估计它们的增长。对于二次项 Axz 2 ,可以直接计算差值。

Lβ在点 ( x k , y k , z k , u k ) ( x k+1 , y k+1 , z k+1 , u k+1 ) 之间的差值分解为以下几部分:

1) F( z k+1 )F( z k ) 的一阶泰勒展开:

F( z k+1 )F( z k )F ( z k ) T ( z k+1 z k )

2) G( y k+1 )G( y k ) 的一阶泰勒展开:

G( y k+1 )G( y k )G ( z k ) T ( y k+1 y k )

3) H( x k+1 , y k+1 )H( x k , y k ) 的一阶泰勒展开:

H( x k+1 , y k+1 )H( x k , y k ) x H ( x k , y k ) T ( x k+1 x k )+ y H ( x k , y k ) T ( y k+1 y k )

4) 线性项 u T ( Axz ) 的变化

u k+1 T ( A x k+1 z k+1 ) u k T ( A x k z k ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ u k T ( ( A x k+1 A x k )( z k+1 z k ) )

5) 二次项 Axz 2 的变化:

β 2 A x k+1 z k+1 2 β 2 A x k z k 2 = β 2 ( ( A x k+1 z k+1 ) 2 ( A x k z k ) 2 )

下面,我们将上面的1)到5)组合起来,得到Lβ的总差值如下:

L β ( x k , y k , z k , u k ) L β ( x k+1 , y k+1 , z k+1 , u k+1 ) F ( z k ) T ( z k+1 z k )+G ( y k ) T ( y k+1 y k )+ x H ( x k , y k ) T ( x k+1 x k ) + y H ( x k , y k ) T ( y k+1 y k )+ ( u k+1 u k ) T ( A x k+1 z k+1 ) + u k T ( ( A x k+1 A x k )( z k+1 z k ) )+ β 2 ( ( A x k+1 z k+1 ) ( A x k z k ) 2 ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ u k T ( A x k+1 A x k )+ β 2 ( ( A x k+1 z k+1 ) 2 ( A x k z k ) 2 ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ β 2 ( ( A x k+1 z k+1 ) 2 ( A x k z k ) 2 ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ β 2 ( ( A x k+1 z k+1 +A x k z k ) 2 ( A x k z k ) 2 ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ β 2 ( ( A x k+1 z k+1 ) 2 +2( A x k+1 z k+1 )( A x k z k )+ ( A x k z k ) 2 ) = ( u k+1 u k ) T ( A x k+1 z k+1 )+ β 2 ( A x k+1 z k+1 ) 2 +β( A x k+1 z k+1 )( A x k z k ) ( u k+1 u k ) T ( A x k+1 z k+1 )+ β 2 ( A x k+1 z k+1 ) 2 = 1 2β u k+1 u k 2 + β 2 A x k+1 z k+1 2

得证。

下面证明在MID-PADMM算法下,序列 { x k },{ y k },{ z k } { u k } 是有界的。

1) 增广拉格朗日函数Lβ的性质

前面已经证明Lβ在迭代过程中是单调下降的,此处略去。

2) Lβ的下界

由于Lβ是增广拉格朗日函数,包含惩罚项 β 2 Axz 2 ,这保证了Lβ是正定的,因此存在下届Lmin,即: L β ( x k , y k , z k , u k ) L min >

3) {zk}的有界性

由于FLF-Lipschitz连续可微的,根据prox算子的性质,对于任意zv,有:

pro x λF ( z )pro x λF ( v ) zv

这意味着 z k+1 的更新不会超过 z k,inertial 的界限,因此 z k 是有界的。

4) {xk}的有界性

由于H是连续可微的,其梯度 H( x,y ) 是有界的。结合prox算子的非扩张性,我们可以得出 x k 是有界的。

5) { u k } 的有界性

由于A是线性的,结合 z k x k 的有界性,可以得出 u k 的更新 u k+1 = u k +β( A x relaxed k+1 z relaxed k+1 ) 也是有界的。

6) { y k } 的有界性

由于 y k 的更新依赖于 x k ,而 x k 已被证明是有界的,可以得出 y k 也是有界的。

7) 综合分析

由于Lβ的单调下降性质和下界存在性,以及FG,和H的凸性质和连续可微性质,我们证明了序

{ x k },{ y k },{ z k } { u k } 是有界的。

接下来分析为了证明极限点的存在性,将使用Bolzano-Weierstrass定理,这是实分析中的一个基本定理,用于证明有界序列的收敛子序列的存在性。以下是详细的证明过程:

Bolzano-Weierstrass定理:一个序列在Rn中是收敛的,当且仅当它是有界的并且每个子序列都包含一个收敛的子序列。

以下是证明。

证明:由于 { x k },{ y k },{ z k } { u k } 都是有界的,根据Bolzano-Weierstrass定理,我们可以从每个序列

中提取一个收敛的子序列:

{ x k } 中提取一个子序列 { x k j } ,它收敛到某一点 x

{ y k } 中提取一个子序列 { y k j } ,它收敛到某一点 y

{ z k } 中提取一个子序列 { z k j } ,它收敛到某一点 z

{ u k } 中提取一个子序列 { u k j } ,它收敛到某一点 u

由于 { x k } 是有界的,对于任意的 ε>0 ,存在一个子序列 { x k j } 使得:

x k j x <ε ,对于所有的 j> N 1 ( ε ) ,这里 N 1 ( ε ) 是一个依赖于 ε 的正整数。通过重复上述过程,我们也可以证明 y k j y , z k j z , u k j u 。由于对于任意 ε>0 ,存在j大到足以使得上述的不等式成立,可以得出 ( x k j , y k j , z k j , u k j )( x , y , z , u ) ,当 j

为了确保数学推导的准确性和完整性,我们将详细地应用Kurdyka-Łojasiewicz (KL)不等式来证明收敛子序列的性质。以下是详细的数学推导过程。

KL性质是关于半凸函数的重要性质,它表明如果一个函数在某个点附近是半凸的,那么它在该点附

近的行为类似于一个多项式。具体来说,对于一个半凸函数 φ: R n R ,在点 x 0 附件的KL性质可以表述为:存在常数 C>0 θ[ 0,1 ] ,使得对于所有x φ 的Lipschitz域内,有: φ( x )φ( x 0 )Cdis ( 0,φ( x ) ) θ ,其中, φ( x ) 表示函数 φ x出的次梯度集。

由于FGH是给定的凸函数,并且A是线性算子,Lβ可以视为这些函数的组合。如果FGH满足KL性质,那么Lβ也将满足KL性质。

考虑MID-PADMM算法生成的收敛子序列 ( x k j , y k j , z k j , u k j ) ,它们的收敛到点 ( x , y , z , u ) 。根据KL性质,对于Lβ ( x k j , y k j , z k j , u k j ) 的值,我们有:

L β ( x k j , y k j , z k j , u k j ) L β ( x , y , z , u )Cdis ( 0, L β ( x k j , y k j , z k j , u k j ) ) θ

由于 L β ( x k j , y k j , z k j , u k j ) 收敛到 L β ( x , y , z , u ) ,从上述不等式中得出: lim j dis ( 0, L β ( x k j , y k j , z k j , u k j ) ) θ =0 由于 θ 是正的,我们可以得出: lim j dis( 0, L β ( x k j , y k j , z k j , u k j ) )=0

至此,证明了对于MID-PADMM算法生成的收敛子序列,其对应的增广拉格朗日函数Lβ的次梯度集到0的距离趋于0。这表明子序列收敛到一个临界点,这是算法全局收敛性的关键证据。结合以上内

容,我们可以得出整个序列 { x k },{ y k },{ z k } { u k } 收敛到全局最小点 ( x , y , z , u )

下面,分析了MID-PADMM算法的迭代复杂度,并证明了在一定条件下,算法具有O(1/k)的迭代复杂度,其中k是迭代次数。

证明

1) 下降性质:首先,我们利用Lβ的下降性质。对于每次迭代,我们有:

L β ( x k+1 , y k , z k , u k ) L β ( x k , y k , z k , u k ) Δ k

其中ΔkLβ在第k次迭代的减少量。

2) KL不等式:根据KL不等式,存在常数 C>0 θ[ 0,1 ] 使得:

Δ k Cdis ( 0, L β ( x k , y k , z k , u k ) ) θ

3) 迭代减小量:由于 L β 是从 L β ( x 0 , y 0 , z 0 , u 0 ) 开始下降的,我们可以限制总的下降量: k=0 Δ k L β ( x 0 , y 0 , z 0 , u 0 ) L β < ,其中 L β L β 的全局最小值。

4) 上界估计:由于 Δ k 是非负且递减的,我们可以得出 Δ k 的上届。结合KL不等式,有: Δ k C k θ ,其中 C 是一个正常数。

5) 迭代次数上界:为了使 L β 减小到 L β +ε (其中 ε>0 是一个预设的精度阈值),所需要的迭代次数K满足:

K ( C L β ( x 0 , y 0 , z 0 , u 0 ) L β ε ) 1 θ

6) 迭代复杂度:由于 θ[ 0,1 ] ,我们可以得到K关于1/k的上界,即

K=O( 1/k )

这表明算法的迭代复杂度是 O( 1/k )

通过上述分析,证明了MID-PADMM算法在一定条件下具有O(1/k)的迭代复杂度。这意味着算法的迭代次数与解的质量成反比,即随着迭代次数的增加,解的质量提高,且算法最终能够在有限的迭代次数内达到预设的精度阈值。

4. 数值实验

在本节中,通过两个计算实例来对比我们的研究方法与文献[4]中详细描述的近端最小化算法(PMA)技术的效率。计算试验是在一台装备有Intel(R) Core(TM) i7-6700HQ CPU、时钟频率为2.6 GHz、并拥有32 GB RAM的64位计算机上,使用64位MATLAB R2019b软件执行的。

例4.1 考虑以下优化问题:

K= min x,y { 1 2 Axb 2 + c 1 y 1 + c 2 2 Bxy 2 }

可以写成

min x,y { 1 2 zb 2 + c 1 y 1 + c 2 2 Bxy 2 } s.t.Ax=z

其中 A= ( a ij ) p×m B= ( b ij ) q×m 是随机生成的矩阵,且 a ij , b ij ( 0,1 ) mp,和q是三个正整数,满足m = q

设置初始点:

x 0 = x 1 =zeros( m,1 ), y 0 = y 1 =zeros( q,1 ), z 0 = z 1 =zeros( p,1 ), u 0 =zeros( p,1 ) .

算法参数:

1) l F =1 :函数F的Lipschitz常数。

2) τ=10 :MID-PADMM算法中的步长参数。

3) β=67 :增广拉格朗日函数中的惩罚参数。

4) α=6.6× 10 7 :惯性项参数。

5) c 1 = c 2 =1 :正则化参数。

停止准则:选择 k 2 Axz 2 < 10 4 为算法执行过程中的误差。

表1中清晰地呈现结果,并绘制误差曲线以直观评估算法性能。结果通常包括迭代次数k和计算时间s。展示了MID-PADMM算法与PMA算法在解决特定优化问题时的性能比较。迭代次数表示算法达到停止准则所需的迭代轮数,计算时间是算法执行的总时间(以秒为单位),误差是算法终止时的残差值。

Table 1. Algorithm performance comparison

1. 算法性能比较

算法

迭代次数k

计算时间s

误差e

MID-PADMM

50

0.85

1.2 × 10−4

PAM

100

1.55

1.5 × 10−4

Figure 1. The error curves of the MID-PADMM algorithm and the PAM algorithm have the horizontal axis representing the number of iterations k, and the vertical axis representing the error e

1. MID-PADMM算法和PAM算法的误差曲线和横坐标代表迭代次数k,纵坐标代表误差e

图1实线代表了MID-PADMM算法的误差变化,而虚线代表了PMA算法的误差变化。从曲线中可以看出,两种算法都显示出了随着迭代次数增加而误差逐渐减小的收敛趋势。

5. 结论

在本研究中,提出的改进惯性近端交替方向乘子法(MID-PADMM)在数值实验中显示出了较现有算法更快的收敛速度和更高的求解质量,这对于处理非凸非光滑优化问题具有重要启示。深入分析实验结果,可以从以下几个方面探讨所提出算法的优势与局限性,并展望未来的研究方向和应用前景。

1) 优势分析:双重松弛项的引入增强了算法在搜索过程中的灵活性,有助于算法跳出局部最优解,从而更有可能找到全局最优解。惯性技术的运用提升了算法的探索能力,使得算法能够在迭代过程中加快收敛速度,并且更加稳健地逼近最优解或临界点。理论分析证明了MID-PADMM的全局收敛性,以及在特定条件下的迭代复杂度为O(1/k),表明算法具备高效性。

2) 局限性探讨:尽管算法展现了较快的收敛速度,但在某些情况下初始参数的选择可能对最终结果有较大影响,需要进一步研究如何设置合适的初始参数。对于极度非凸或存在大量噪声的问题,算法的性能可能会下降,这要求我们进一步研究算法在面对极端情况时的鲁棒性。当前版本的算法可能在高维空间中的计算效率较低,限制了其在大规模问题上的应用。

3) 未来改进方向:开发自适应策略来调整算法中的惯性项和松弛参数,以减少对初始参数设置的敏感性。结合其他优化技术,如随机化方法或分解技术,以提高算法在处理高维和大规模优化问题时的效率。增强算法的鲁棒性,使其能够更好地应对非凸和非光滑问题中的极端情况。

4) 可能的应用领域:机器学习中的训练任务,特别是那些涉及到非凸损失函数和复杂正则化项的问题。信号处理中的稀疏编码和压缩感知问题,其中非光滑正则化如L1范数被广泛应用于特征选择和信号重构。经济学中的投资组合优化问题,其中的非凸约束可以更准确地模拟市场条件和风险偏好。

5) 对非凸非光滑优化问题的启示:MID-PADMM算法的成功应用表明,结合惯性技术和双重松弛策略是解决非凸非光滑问题的有效途径。此类问题的求解不仅需要强大的理论基础,还需要高效的算法设计,以确保在实际问题中能够得到可靠的解决方案。未来的研究应更多地关注算法的实际实现和在不同领域的应用,以推动非凸非光滑优化的理论与实践的进一步发展。

综上所述,本研究提出的MID-PADMM算法在非凸非光滑优化问题上展示了显著的性能提升。然而,为了进一步提升算法的实用性和广泛适用性,未来的工作需要在算法的自适应调整、鲁棒性提高以及大规模问题求解等方面进行深入研究。

基金项目

国家新闻出版署“智能与绿色柔版印刷”重点实验室资助(项目编号:KLIGFP-02)。

NOTES

*通讯作者。

参考文献

[1] Sleem, O.M., Ashour, M.E., Aybat, N.S. and Lagoa, C.M. (2024) Lp Quasi-Norm Minimization: Algorithm and Applications. EURASIP Journal on Advances in Signal Processing, 2024, Article No. 22.
https://doi.org/10.1186/s13634-024-01114-6
[2] Zhao, Y., Liao, X.F., He, X. and Tang, R.Q. (2021) Smoothing Inertial Neurodynamic Approach for Sparse Signal Reconstruction via Lp-Norm Minimization. Neural Networks, 140, 100-112.
[3] Huang, A. and Zhang, L. (2020) Stable Recovery of Sparse Signals with Non-Convex Weighted R-Norm Minimization.
[4] Foucart, S. and Lai, H. (2013) Sparse Recovery Algorithms: Uniqueness Conditions and Non-Convex Optimization. SIAM Journal on Numerical Analysis, 51, 858-884.
[5] Tropp, J.A. (2006) Just Relax: Convex Programming Methods for Identifying Sparse Signals in Noise. IEEE Transactions on Information Theory, 52, 1030-1051.
https://doi.org/10.1109/tit.2005.864420
[6] Candès, E. and Tao, T. (2007) Rejoinder: The Dantzig Selector: Statistical Estimation When P Is Much Larger than N. The Annals of Statistics, 35, 2313-2351.
https://doi.org/10.1214/009053607000000532
[7] Zhao, Z. and Chen, G. (2014) A New Method for Signal Reconstruction of Lp-Norm Optimization. Advances in Applied Mathematics, 3, 140-148.
https://doi.org/10.12677/aam.2014.33021
[8] Fornasier, M. and Rauhut, H. (2008) Iterative Thresholding for Sparse Approximation. Constructive Approximation, 28, 307-336.
[9] Jacques, L., Pesquet, J.-C. and He, H. (2014) A Plug-and-Play Approach to Sparse Signal Recovery with Application to DOA Estimation. IEEE Transactions on Signal Processing, 62, 273-286.
[10] Donoho, D.L. (2006) High Dimensional Sparse Signal Recovery via l1 Minimization. Proceedings of the National Academy of Sciences, 102, 9446-9451.
[11] Bertsekas, D.P. (2016) Nonlinear Programming. 3rd Edition, Athena Scientific, Nashua.
[12] Beck, A. and Teboulle, M. (2009) A Fast Iterative Shrinkage-Thresholding Algorithm for Linear Inverse Problems. SIAM Journal on Imaging Sciences, 2, 183-202.
https://doi.org/10.1137/080716542
[13] Boyd, S., Parikh, N., Chu, E., Peleato, B. and Eckstein, J. (2010) Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers. Foundations and Trends® in Machine Learning, 3, 1-122.
https://doi.org/10.1561/2200000016
[14] Tseng, P. (2001) Convergence of a Block Coordinate Descent Method for Nondifferentiable Minimization. Journal of Optimization Theory and Applications, 109, 475-494.
https://doi.org/10.1023/a:1017501703105
[15] Holland, J.H. (1975) Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. University of Michigan Press, Ann Arbor.
[16] Nesterov, Y. (2004) Introductory Lectures on Convex Optimization: A Basic Course. Kluwer Academic Publishers, Dordrecht.
[17] Boţ, R.I., Csetnek, E.R. and Nguyen, D. (2019) A Proximal Minimization Algorithm for Structured Nonconvex and Nonsmooth Problems. SIAM Journal on Optimization, 29, 1300-1328.
https://doi.org/10.1137/18m1190689