多目标优化非单调线性加权牛顿算法
Nonmonotone Linear Weighted Newton Algorithm for Multi-Objective Optimization
摘要: 本文提出了一种求解多目标优化问题的非单调线性加权牛顿算法。在目标函数有下界且梯度Lipschitz连续的条件下证明了算法的全局收敛性。在目标函数满足二次连续可微且局部强凸的条件下,证明了该算法具有局部超线性收敛速度。数值实验结果表明,相比于单调线性加权牛顿算法,该算法能够更加高效地求解多目标优化问题。
Abstract: This paper introduces a nonmonotone linear weighted Newton algorithm for solving multi-objective optimization problems. It is shown that the algorithm achieves global convergence under the assumption of a lower bound on the objective function and a Lipschitz continuous gradient. Furthermore, under the conditions of quadratic continuous differentiability and local strong convexity, the algorithm demonstrates local superlinear convergence. Numerical experiments demonstrate that this algorithm outperforms the monotone linear weighted Newton algorithm in efficiently solving multi-objective optimization problems.
文章引用:欧杨. 多目标优化非单调线性加权牛顿算法[J]. 应用数学进展, 2024, 13(6): 2930-2942. https://doi.org/10.12677/aam.2024.136280

1. 引言

多目标优化是最优化理论的一个分支,它与非线性规划、泛函分析以及矩阵论等有着密切的关系,在金融投资、物流网络及国防军事等方面有着广泛的应用需求。鉴于多目标优化在实际生活中的重要作用,学者们自上世纪七十年代以来,针对多目标优化问题开展了大量研究。到目前为止,多目标优化在理论方面已经取得很多重要成果,一套平行于单目标最优化的理论体系正日趋完善[1],这为后续求解多目标优化问题提供了指导方向。

牛顿法具有较快的收敛速度,是求解单目标优化问题常用的方法之一。2009年,Fliege [2]首次将牛顿法推广到多目标优化问题中。Fliege通过求解一个极大极小问题来构造搜索方向,并且证明了当目标函数的二阶导数Lipschitz连续时,算法具有二阶收敛速度。虽然Fliege提出的多目标优化牛顿算法具有较快的收敛速度,但是在求解极大极小问题时的计算量较多,且计算难度大。Jiang [3]对Fliege提出的牛顿法进行改进,采用线性标量化方法,对目标函数的二次近似形式进行线性加权,将它们的和作为新的搜索方向,这样能够充分减少计算量,且算法在一定条件下同样具有二阶收敛速度。除牛顿法之外,最速下降法[4]、投影梯度法[5]、共轭梯度法[6]以及拟牛顿法[7]也已被扩展到多目标优化领域。

上述算法都是运用单调线搜索方法确定步长。对于单目标优化问题而言,单调线搜索方法非常有效,但是对于多目标优化问题来说,很难做到让每一个目标函数值在每一次迭代中都减小,且强制单调性会减慢求解方法的收敛速度,而非单调线搜索方法能有效避免这些不足。Zhang和Hager [8]提出一种平均值类型的非单调线搜索方法,并且证明了这种方法比单调线搜索方法和极大值非单调线搜索方法[9]更有效。

本文结合非单调线搜索技术,对Jiang [3]提出的单调算法进行改进,提出了非单调线性加权牛顿法。在一定的假设条件下证明了算法的收敛性,数值实验结果表明,在相同的条件下,本文提出的算法在求解多目标优化问题时的迭代次数及时间更少,能更加有效地求解多目标优化问题。

本文考虑如下多目标优化问题:

min  F( x )  s.t.   xU (1.1)

其中, F:U m F( x )=( F 1 ( x ), F 2 ( x ),, F m ( x ) ) U n 为开集。

在本文中,矩阵 A m×n 的像空间用Im(A)表示, Im( A )={ Ax|x n } DF( x ) m×n 表示目标函数Fx处的Jacobian矩阵, F j ( x ) 表示第j个目标函数在x处的梯度, 2 F j ( x ) 表示第j个目标函数在x处的Hessian矩阵, λ j 表示目标函数的第j个分量对应的权重系数, j=1 m λ j =1 λ j >0 ( j=1,2,,m )

在本文中,假设FU上二次连续可微且目标函数每个分量Fj的Hessian矩阵都为正定矩阵,即

F C 2 ( U, m ),

2 F j ( x )>0,  xU,j=1,2,,m.

在多目标优化问题中,考虑如下偏序关系:

x,y n ,x=y x i = y i ,i=1,2,,n.                   x<y x i < y i ,i=1,2,,n.                   xy x i y i ,xy,i=1,2,,n.

以下定义及引理均来源于文献[2]

定义1.1 设 x U ,若不存在 xU ,使得 F( x )F( x )( F( x )<F( x ) ) ,则 x 是问题(1.1)的Pareto最优解或有效解(弱Pareto最优解或弱有效解)。

定义1.2 设 x U ,若存在 x 的一个邻域 VU ,且不存在 xUV ,使得 F( x )F( x )( F( x )<F( x ) ) ,则 x 是问题(1.1)的局部Pareto最优解或局部有效解(局部弱Pareto最优解或局部弱有效解)。

定义1.3 设 x ˜ U ,若 Im( DF( x ˜ ) )( ++ m )= ,则 x ˜ F的临界点(稳定点)。

引理1.1 设 x ¯ U F C 1 ( U, m ) ,则有如下结论:

1) 若 x ¯ 是局部弱Pareto最优解,则 x ¯ F的一个稳定点。

2) 若U是凸集,F是凸向量函数,则当 x ¯ F的稳定点时, x ¯ 是弱Pareto最优解。

3) 若 xU ,有 2 F j ( x )>0( j=1,2,,m ) 其中,U是凸集, F C 2 ( U, m ) ,则当 x ¯ U F的稳定点时, x ¯ 是Pareto最优解。

2. 非单调线性加权牛顿算法

考虑多目标优化问题(1.1),在文献[2]中,定义x处的牛顿方向为 s N s N 是如下无约束优化问题的最优解

{ min max j=1,2,,m F j ( x ) T s N +( 1/2 ) s N T 2 F j ( x ) s N s.t.    s N n . (2.1)

在上述问题中, F j ( x ) T s N +( 1/2 ) s N T 2 F j ( x ) s N 是增量 F j ( x+ s N )F( x ) 的二次近似,我们需要在增量最大的情况下求得最小的搜索方向 s N 。Fliege [2]将上述问题转化为约束优化问题,运用拉格朗日乘子法求得 s N 。对于多目标优化问题来说,这种求解搜索方向的方法较为复杂,所需的计算量也比较大。

本文采用加权系数法求解搜索方向s,能够减少计算工作量,求解过程更加简便高效。考虑如下无约束优化问题:

{ min j=1 m λ j ( F j ( x ) T s+( 1/2 ) s T 2 F j ( x )s ) s.t.   s n . (2.2)

由假设, 2 F j ( x )( j=1,2,,m ) 正定,这说明 j=1 m λ j ( F j ( x ) T s+( 1/2 ) s T 2 F j ( x )s ) 是强凸的,从而问题(2.2)存在唯一的极小值点。

θ( x ) 表示问题(2.2)的最优值,则有

s( x )=arg min s n j=1 m λ j ( F j ( x ) T s+( 1/2 ) s T 2 F j ( x )s ) (2.3)

θ( x )= min s n j=1 m λ j ( F j ( x ) T s+( 1/2 ) s T 2 F j ( x )s ) (2.4)

基于上述讨论,我们将给出求解多目标优化问题的非单调线性加权牛顿算法(Nonmonotone Linear Weighted Newton),我们将它简称为NLWN算法,它的具体步骤如下:

算法2.1 (NLWN方法)

步1 选取初始点 x 0 U ,选取参数 σ( 0,1 ) μ>0 ρ( 0,1 ) η[ 0,1 ] k=0 C 0 =F( x 0 ) q 0 =1

步2 由,分别求出 s( x k ) θ( x k )

步3 若 θ( x k )=0 ,终止算法;否则,转步4。

步4 记 h k 是使得下式成立的最小非负整数h

F j ( x k +μ ρ h s( x k ) ) C j k +σμ ρ h θ( x k ), j=1,2,,m. (2.5)

步5 令 α k =μ ρ h k x k+1 = x k + α k s( x k )

步6 更新 q k C j k

q k+1 =η q k +1, (2.6)

C j k+1 =η q k C j k + F j ( x k+1 )/ q k+1 . (2.7)

k=k+1 ,转步2。

注记2.1 当 η=0 时,则有 C j k+1 = F j ( x k+1 ) 。此时非单调线搜索退化成Armijo线搜索。

对于算法2.1,我们有以下引理。

引理2.1 [10]对于算法2.1的每一次迭代,总有 F( x k ) C k

引理2.2 [10] { x k } 是由算法2.1产生的序列。若 x k 不是稳定点,则存在步长 α k >0 满足(2.5)中的非单调线搜索准则。

下面的引理给出 θ( x ) s( x ) 的性质。

引理2.3 [2]在本文的假设下,有以下结论:

1) xU θ( x )0

2) 以下三个说法是等价的:

a) x不是稳定点。

b) θ( x )<0

c) s( x )0

3) 由(2.3)给定的函数 s:U n 在紧集上有界,由(2.4)给定的函数 θ:U U上连续。

3. 全局收敛性

在这一小节,我们将证明算法2.1的全局收敛性。在证明算法2.1的全局收敛性之前,给出如下假设和引理:

假设3.1 x n F j ( x )( j=1,2,,m ) Lipschitz连续。

引理3.1 当假设3.1成立,且 α k 满足非单调线搜索条件(2.5)时,下面的不等式成立:

α k min{ ρ, 2ρ( 1σ )| θ( x k ) |/ L s( x k ) 2 }. (3.1)

证 若 α k ρ ,则(3.1)成立。

α k <ρ ,由 α k 满足(2.5)式可知,   j 0 { 1,2,,m } ,有

F j 0 ( x k +( α k /ρ )s( x k ) )> F j 0 ( x k )+σ( α k /ρ )θ( x k ). (3.2)

由假设3.1, F j ( j=1,2,,m ) Lipschitz连续,则有

F j 0 [ x k +( α k /ρ )s( x k ) ] F j ( x k ) =( α k /ρ ) F j 0 ( x k ) T s( x k )+ 0 α k /ρ [ F j 0 ( x k +ts( x k ) ) F j 0 ( x k ) ] T s( x k )dt ( α k /ρ )θ( x k )+ 0 α k /ρ tL s( x k ) 2 dt =( α k /ρ )θ( x k )+ L α k 2 s( x k ) 2 / ( 2 ρ 2 ) . (3.3)

由(3.2)和(3.3)式可得

σ( α k /ρ )θ( x k )<( α k /ρ )θ( x k )+ L α k 2 s( x k ) 2 / ( 2 ρ 2 ) .

整理后可得

α k > 2ρ( σ1 )θ( x k )/ L s( x k ) 2 . (3.4)

由引理2.3有 θ( x )0 ,从而 | θ( x ) |=θ( x ) 。此时(3.4)可写成

α k > 2ρ( 1σ )| θ( x k ) |/ L s( x k ) 2 .

故引理3.1成立。

定理3.1 假设 F j ( x ) 有下届 ( j=1,2,,m ) x n η<1 。当假设3.1成立,且存在一个常数 c 1 >0 使得下面的不等式成立时,

| θ( x k ) | c 1 s( x k ) 2 ,k=1,2, (3.5)

由算法2.1产生的序列 { x k } 的任一极限点都是问题(1.1)的Pareto最优解。

证 首先证明下面的不等式,其中, β=min{ σρ,2σρ c 1 ( 1σ )/L }

F j ( x k+1 ) C j k β| θ( x k ) |( j=1,2,,m ) (3.6)

考虑下面两种情况:

(i) 使用非单调线搜索条件(2.5)及 α k ρ ,可得

F j ( x k+1 ) C j k +σ α k θ( x k )= C j k σ α k | θ( x k ) | C j k σρ| θ( x k ) |( j=1,2,,m )

β=σρ ,即得(3.6)。

(ii) 使用非单调线搜索条件(2.5)及 α k <ρ ,由引理3.1,可得

α k 2ρ( 1σ )| θ( x k ) |/ L s( x k ) 2 .

再由(3.5)得

F j ( x k+1 ) C j k +σ α k θ( x k )= C j k σ α k | θ( x k ) |               C j k 2σρ( 1σ ) | θ( x k ) | 2 / L s( x k ) 2               C j k 2σρ c 1 ( 1σ ) | θ( x k ) |/L    ( j=1,2,,m )

β=2σρ c 1 ( 1σ )/L ,即得(3.6)。

x ^ { x k } 的极限点,接下来证明 x ^ 收敛到问题(1.1)的Pareto最优解。

q k C j k 的更新公式(2.6)、(2.7),以及(3.6),有

q k+1 =1+ i=0 k η i+1 . (3.7)

C j k+1 = [ η q k C j k + F j ( x k+1 ) ]/ q k+1         [ η q k C j k + C j k β| θ( x k ) | ]/ q k+1        = [ ( η q k +1 ) C j k β| θ( x k ) | ]/ q k+1        = [ q k+1 C j k β| θ( x k ) | ]/ q k+1        = C j k β| θ( x k ) |/ q k+1 ( j=1,2,,m ) (3.8)

由已知条件, F j ( x ) 有下届。由引理2.1,有 F j ( x k ) C j k ,从而 C j k 也有下界。 ( j=1,2,,m )

对(3.8)的前n + 1项求和,得到

k=0 n | θ( x k ) |/ q k+1 ( 1/β )( C j 0 C j n+1 ).

n+ ,得到

k=0 + | θ( x k ) |/ q k+1 < (3.9)

x ^ { x k } 的极限点,设K是一个无限指标集,则有 lim kK x k = x ^ 。我们要证明 x ^ 是Paroto最优解,即证 θ( x ^ )=0 ,用反证法证明。

假设 θ( x ^ )<0 ,即

ε 0 >0 δ 0 >0 0<δ< δ 0 kK x k x ^ δ 时,有 | θ( x k ) | ε 0

从而有

k=0 + | θ( x k ) |/ q k+1 kK, x k x ^ δ ε 0 / q k+1 . (3.10)

由(3.7)可得

q k+1 =1+ i=0 k η i+1 < i=0 + η i =1/ ( 1η ) . (3.11)

由(3.10)和(3.11)可得

k=0 + | θ( x k ) |/ q k+1 kK, x k x ^ δ ε 0 / q k+1 > kK, x k x ^ δ ε 0 ( 1η )=+. 

这与(3.9)矛盾,从而假设不成立,即 θ( x ^ )=0 。由引理1.1和引理2.3可知, x ^ 是问题(1.1)的Paroto最优解,也即,算法2.1产生的序列 { x k } 的任一极限点都是问题(1.1)的Pareto最优解,故定理3.1成立。

4. 局部超线性收敛速度

我们在本小节给出算法2.1具有局部超线性收敛速度的证明。在证明之前先给出下面的引理及假设。

引理4.1 [2] xU n a,b ,且 0<ab 。若 aI 2 F j ( x )bI( j=1,2,,m ) ,则

( a/2 ) s( x ) 2 | θ( x ) |( b/2 ) s( x ) 2 .

引理4.2 [2] xU n a>0 。若 aI 2 F j ( x )( j=1,2,,m ) ,则

| θ( x ) |( 1/ 2a ) j=1 m λ j F j ( x ) 2 .

引理4.3 [2] x ^ U ,定义 x ^ + = x ^ +s( x ^ ) 。若 a,r,δ,ε>0 ,且满足

1) xB[ x ^ ,r ] ,有 aI 2 F j ( x )( j=1,2,,m )

2) x,yB[ x ^ ,r ] xy <δ ,有 2 F j ( x ) 2 F j ( y ) <ε( j=1,2,,m )

3) B[ x ^ ,r ]U

4) s( x ^ ) min{ δ,r }

s( x ^ + ) ( ε/a ) s( x ^ )

假设4.1 ε>0 δ>0 x,yV xy <δ ,有 2 F j ( x ) 2 F j ( y ) ε

假设4.2 xV ,有 aI 2 F j ( x )bI

假设4.3 B[ x 0 ,r ]V

假设4.4 ε/a 1σ

假设4.5 s( x 0 ) min{ δ,r( 1ε/a ) }

在上面的假设中, a,b,r,δ,ε>0 VU j=1,2,,m

下面给出算法2.1的局部超线性收敛定理及证明。

定理4.1 设 { x k } 是算法2.1产生序列,若假设4.1~4.5成立,则序列 { x k } 超线性收敛于问题(1.1)的局部Pareto最优解。

证 首先证明当k充分大时, α k =1

F j ( x k +s( x k ) )( j=1,2,,m ) x k 处二阶泰勒展开,得到

F j ( x k +s( x k ) )= F j ( x k )+ F j ( x k ) T s( x k )+( 1/2 )s ( x k ) T 2 F j ( x k )s( x k )+o( s( x k ) 2 ).

由引理2.1及 θ( x k ) 的定义,上式可写为

F j ( x k +s( x k ) ) C j k +θ( x k )+o( s( x k ) 2 )                        = C j k +σθ( x k )+( 1σ )θ( x k )+( ε/2 ) s( x k ) 2 .

又由引理4.1,上式可写为

F j ( x k +s( x k ) ) C j k +σθ( x k )( 1σ )( a/2 ) s( x k ) 2 +( ε/2 ) s( x k ) 2                        = C j k +σθ( x k )+[ εa( 1σ ) ] s( x k ) 2 /2 . (4.1)

由假设4.4可得 εa( 1σ )0

则(4.1)可写为

F j ( x k +s( x k ) ) C j k +σθ( x k ) ( j=1,2,,m )

上式说明,当k充分大时, α k =1

其次,证明算法2.1产生的序列 { x k } 收敛于问题(1.1)的局部Pareto最优解。

由第一部分的证明,当k充分大时, α k =1 。即存在充分大的 k 0 k> k 0 ,有

x k+1 = x k + α k s( x k )= x k +s( x k ).

下面用归纳法证明:

1) x k x 0 s( x 0 ) [ 1 ( ε/a ) k ]/ ( 1ε/a ) (4.2)

2) s( x k ) ( ε/a ) k s( x 0 ) (4.3)

k=0 时,经计算可知(4.2),(4.3)都成立。

假设当 k=n 时,(4.2),(4.3)成立,即 x n x 0 s( x 0 ) [ 1 ( ε/a ) n ]/ ( 1ε/a ) s( x n ) ( ε/a ) n s( x 0 )

对(4.2),当 k=n+1 时:

x n+1 x 0 = x n +s( x n ) x 0                 x n x 0 + s( x n )                = s( x 0 ) [ 1 ( ε/a ) k n ]/ ( 1ε/a ) + s( x 0 ) ( ε/a ) n                = s( x 0 ) [ 1 ( ε/a ) k n+1 ]/ ( 1ε/a ) .

从而(4.2)对 k 都成立。

由(4.2)及假设4.5可得 x k B[ x 0 ,r ] 。又由假设4.1~4.5及引理4.3,得到

s( x k+1 ) ( ε/a ) s( x k ) . (4.4)

对(4.3),结合(4.4),当 k=n+1 时,有

s( x n+1 ) ( ε/a ) s( x n ) ( ε/a ) ( ε/a ) n s( x 0 ) = s( x 0 ) ( ε/a ) n+1 .

从而(4.3)对 k 都成立。

由(4.2),(4.3)可得

k=0 + x k+1 x k = k=0 + s( x k ) s( x 0 ) k=0 + ( ε/a ) k <, (4.5)

从而 { x k } 是柯西序列,存在 x n ,使得 lim k x k = x

对(4.2)中的不等式两边同时取极限可得

x x 0 s( x 0 ) / ( 1ε/a ) . (4.6)

由(4.5)可知, { s( x k ) } 收敛到0。由假设4.2及引理4.1可得 lim k | θ( x k ) |=0 。又由引理2.3,得到 | θ( x ) |=0 ,即 x 是问题(1.1)的稳定点,由引理1.1可知, x 是问题(1.1)的局部Pareto最优解。

最后,我们证明 { x k } 超线性收敛到 x

定义 r k = s( x 0 ) ( ε/a ) k / ( 1ε/a ) δ k = s( x 0 ) ( ε/a ) k k=0,1,2, γ>0 ,令 ε ^ =min{ aγ/ ( 1+2γ ) ,ε } r ^ = r k δ ^ = δ k x ^ 0 = x k

xB[ x k , r k ] ,则 x x k r k = s( x 0 ) ( ε/a ) k / ( 1ε/a )

由(4.3)和假设4.5可得, x k B[ x 0 ,r ]

由三角不等式可得

x x 0 x x k + x k x 0             s( x 0 ) [ ( ε/a ) k +1 ( ε/a ) k ]/ ( 1ε/a )            = s( x 0 ) / ( 1ε/a )            r ( 1ε/a )/ ( 1ε/a ) =r

xB[ x 0 ,r ] 。又 xB[ x k , r k ] B[ x 0 ,r ]V ,从而 B[ x k , r k ]B[ x 0 ,r ]V

下面证明假设4.1~4.5对 ε ^ , r ^ , δ ^ , x ^ 0 也成立。

假设4.1 的结论对 x,yV, xy δ 成立,又 B[ x k , r k ]B[ x 0 ,r ]V δ ^ <δ ,故假设4.1对 ε ^ , δ ^ 也成立。

假设4.2 的结论对 xV 成立,而 x ^ 0 = x k B[ x k , r k ]B[ x 0 ,r ]V ,故假设4.2对 x ^ 0 也成立。

ε ^ 的定义可知 ε ^ ε ,从而 ε ^ /a ε/a 1σ ,故假设4.3对 ε ^ 也成立。

已知 B[ x 0 ,r ]V ,又 B[ x ^ 0 , r ^ ]=B[ x k , r k ]B[ x 0 ,r ] ,即 B[ x ^ 0 , r ^ ]V ,故假设4.4对 x ^ 0 , r ^ 也成立。

对假设4.5,由 x ^ 0 , δ ^ 的定义及可得

s( x ^ 0 ) = s( x k ) s( x 0 ) ( ε/a ) k = δ k = δ ^ . (4.7)

r ^ , ε ^ 的定义可得

r ^ ( 1 ε ^ /a )= r k ( 1 ε ^ /a ) = s( x 0 ) ( ε/a ) k ( 1 ε ^ /a )/ ( 1ε/a ) s( x 0 ) ( ε/a ) k ( 1ε/a )/ ( 1ε/a ) = s( x 0 ) ( ε/a ) k

又由(4.3),有

s( x ^ 0 ) = s( x k ) s( x 0 ) ( ε/a ) k r ^ [ 1( ε ^ /a ) ] (4.8)

结合(4.7), s( x ^ 0 ) min{ δ ^ , r ^ [ 1( ε ^ /a ) ] }  ,故假设4.5对 ε ^ , r ^ , δ ^ , x ^ 0 成立。

综上,假设4.1~4.5对 ε ^ , r ^ , δ ^ , x ^ 0 成立。

由假设4.1~4.5对 ε ^ , r ^ , δ ^ , x ^ 0 成立可知,(4.6)对 x ^ 0 ε ^ 也成立,又 x ^ 0 = x k ,则有

x x k s( x k ) / ( 1 ε ^ /a ) . (4.9)

由(4.4)和(4.9)可得

x x k+1 s( x k+1 ) / ( 1 ε ^ /a ) s( x k ) ( ε ^ /a )/ ( 1 ε ^ /a ) (4.10)

由(4.10)及三角不等式可得

x x k x k+1 x k x x k+1               s( x k ) s( x k ) ( ε ^ /a )/ ( 1 ε ^ /a )              = s( x k ) ( 1 2 ε ^ /a )/ ( 1 ε ^ /a ) . (4.11)

ε ^ 的定义,(4.10)和(4.11)可得

x x k+1 x x k ( ε ^ /a )/ ( 1 2 ε ^ /a ) γ x x k

γ 是任意一个大于0的常数,故 { x k } 超线性收敛到 x

5. 数值实验

本小节给出一些数值结果,以表明所提出的非单调线性加权牛顿法对求解多目标优化问题的有效性。实验使用MATLAB2016A软件,使用MATLAB中的FMINCON函数求解子问题从而获取搜索方向。在终止准则为 | θ( x k ) |< 10 3 或最大迭代次数为500的条件下,将本文中的算法2.1与文献[3]中的算法(为方便起见,将文献[3]的算法记为算法2.2)作比较,在同样的参数设置下(具体的参数设置为: σ=0.55 μ=0.6 ρ=0.2 η=0.5 ),比较两个算法求解同一个多目标优化问题的迭代次数及时间。算法2.1与算法2.2的数值实验结果对比情况如表1所示。

Table 1. Comparison of numerical experimental results between Algorithm 2.1 and Algorithm 2.2

1. 算法2.1与算法2.2数值实验结果的对比情况

算例名称

初始点 x 0 T

算法2.1

算法2.2

迭代次数n

CPU时间t

迭代次数n

CPU时间t

DGO1 [11]

0

4

0.0310

13

0.0870

π/6

5

0.0421

15

0.0986

π/9

8

0.0930

18

0.1142

MHHM1 [12]

0

4

0.0511

8

0.0751

0.3

4

0.0410

11

0.0776

0.5

3

0.0317

7

0.0509

SSFYY2 [13]

0

3

0.0311

202

1.3550

−1

4

0.0481

212

1.3723

−0.25

4

0.0403

215

1.3910

BK1 [14]

(0, 2)

5

0.0368

23

0.2134

(0, −1)

67

0.4232

500

4.9268

(−1, 2)

5

0.0485

197

1.9371

LRS1 [15]

(1, 2)

5

0.0362

97

0.6231

(9, 5)

7

0.0476

420

2.5258

(−2, 4)

6

0.0422

500

2.9715

MHHM2 [12]

(0.4, 0.1)

4

0.0322

12

0.0836

(1, 1)

3

0.0267

8

0.0546

(0.5, 0.2)

4

0.0534

11

0.0797

MOP5 [16]

(1, 2)

52

0.5662

276

3.6353

(π/6, π/6)

6

0.0617

500

4.6164

(1, 1.5)

89

0.8493

445

3.8441

PNR [17]

(1, 0.7)

5

0.0828

17

0.1892

(1.2, 1)

7

0.1264

23

0.2575

(−1, 1)

7

0.0852

74

0.6424

SP1 [18]

(2, 1)

5

0.0487

12

0.1026

(−1, 1)

5

0.0569

37

0.3020

(−3, 0)

6

0.0570

60

0.4823

T5 [19]

(1, 1)

5

0.0986

12

0.1172

(2, 3)

10

0.1125

47

0.419

(9, 4)

11

0.1616

57

0.5487

VFM1 [20]

(0.2, 0)

3

0.0297

283

1.8009

(1, 0.8)

97

0.6974

500

3.2561

(1, 1)

100

0.6881

500

3.4263

AP4 [21]

(1, 1, 2)

50

0.7091

500

6.3972

(1, 0.5, 2)

89

1.2459

500

5.5488

(0.5, 1, 2)

47

0.644

500

6.2969

T8 [19]

(1, 0, 1)

5

0.0921

16

0.2274

(1, 0, 2)

7

0.1301

374

5.4864

(2, 0, 5)

10

0.1596

25

0.3842

TRIDIA [10]

(0.1, −0.2, 0.4)

4

0.0770

181

2.8785

(−0.1, 0.2, 0.5)

66

0.9319

378

5.3868

(0, 0.1, 0.2)

70

1.1856

355

5.5894

ROSEN BROCK [10]

(0.97, 0.94, 0.99, 0.98)

24

0.6158

258

6.0115

(1.25, 1.3, 1.35, 1.4)

9

0.2246

25

0.5857

(2, 1.98, 1.96, 2)

14

0.3259

223

4.8018

SD [22]

(1, 2 , 2 , 2 )

11

0.2120

500

7.1499

(1, 2 , 2 , 1)

11

0.1964

500

6.2174

(1, 1.45, 1.45, 1)

15

0.2960

500

6.1492

Shifted-TRIDIA [10]

(−1, 1, −1, 1)

7

0.1571

326

6.3939

(0.1, 0.3, 0.2, 0.1)

4

0.0979

78

1.7083

(−0.4, −0.3, 0.5, 0.5)

96

2.0398

500

9.8446

TOINT [10]

(0, −1, −1, 4)

6

0.0958

25

0.3197

(−1, −1, 3, 2)

5

0.0841

22

0.2644

(3, 3, 1, 4)

7

0.1149

30

0.3474

DD1 [23]

(0, 0, 1, 1, 1)

5

0.0416

18

0.2402

(1, 2, 3, 0, 0)

6

0.0477

85

0.6142

(0, 2, 2, −1, −1)

5

0.0482

77

0.5736

JOS1 [24]

(0, −1, 1, 0, 0)

4

0.0681

94

2.6891

(−0.3, 0.2, 0.1, 0.4, 0.5)

67

0.4709

160

1.1145

(0.3, 0.3, −0.1, 0.8, 0.9)

4

0.0337

85

0.6184

表1列举出了算法2.1和算法2.2关于20个测试问题在不同初始点的数值结果。由表1可知,虽然算法2.1和算法2.2都能求解测试问题,但是算法2.1的数值表现优于算法2.2。在相同的条件下,算法2.1求解多目标优化测试问题的迭代次数以及CPU时间都远小于算法2.2,算法2.1能更高效地求解问题。

6. 结论

本文基于线性加权牛顿算法,结合非单调线性搜索技术,提出了求解无约束多目标优化问题的非单调线性加权牛顿算法(NLWN)。当目标函数二阶连续可微且局部强凸时,证明了由该算法产生的序列局部超线性收敛于多目标优化问题的Pareto最优解。最后,通过数值试验来评估算法的有效性,将它与单调线性加权牛顿算法进行比较,数值结果表明NLWN算法具有较好的数值表现。

参考文献

[1] 林锉云, 董加礼. 多目标优化的方法与理论[M]. 长春: 吉林教育出版社, 1992.
[2] Fliege, J., Drummond, L.M.G. and Svaiter, B.F. (2009) Newton’s Method for Multiobjective Optimization. SIAM Journal on Optimization, 20, 602-626.
https://doi.org/10.1137/08071692x
[3] 江术兰. 多目标优化问题的标量化方法及牛顿算法[D]: [硕士学位论文]. 重庆: 重庆师范大学, 2022.
[4] Fliege, J. and Svaiter, B.F. (2000) Steepest Descent Methods for Multicriteria Optimization. Mathematical Methods of Operations Research (ZOR), 51, 479-494.
https://doi.org/10.1007/s001860000043
[5] Drummond, L.M.G. and Iusem, A.N. (2004) A Projected Gradient Method for Vector Optimization Problems. Computational Optimization and Applications, 28, 5-29.
https://doi.org/10.1023/b:coap.0000018877.86161.8b
[6] Lucambio Pérez, L.R. and Prudente, L.F. (2018) Nonlinear Conjugate Gradient Methods for Vector Optimization. SIAM Journal on Optimization, 28, 2690-2720.
https://doi.org/10.1137/17m1126588
[7] Povalej, Ž. (2014) Quasi-Newton’s Method for Multiobjective Optimization. Journal of Computational and Applied Mathematics, 255, 765-777.
https://doi.org/10.1016/j.cam.2013.06.045
[8] Zhang, H. and Hager, W.W. (2004) A Nonmonotone Line Search Technique and Its Application to Unconstrained Optimization. SIAM Journal on Optimization, 14, 1043-1056.
https://doi.org/10.1137/s1052623403428208
[9] Grippo, L., Lampariello, F. and Lucidi, S. (1986) A Nonmonotone Line Search Technique for Newton’s Method. SIAM Journal on Numerical Analysis, 23, 707-716.
https://doi.org/10.1137/0723046
[10] Mita, K., Fukuda, E.H. and Yamashita, N. (2019) Nonmonotone Line Searches for Unconstrained Multiobjective Optimization Problems. Journal of Global Optimization, 75, 63-90.
https://doi.org/10.1007/s10898-019-00802-0
[11] Dumitrescu, D., Grosan, C. and Oltean, M. (2000) A New Evolutionary Approach for Multiobjective Optimization. Studia Universitatis Babes-Bolyai Informatica, 45, 51-68.
[12] Mao, J., Hirasawa, K., Hu, J. and Murata, J. (2001) Genetic Symbiosis Algorithm for Multiobjective Optimization Problems. Transactions of the Society of Instrument and Control Engineers, 37, 893-901.
https://doi.org/10.9746/sicetr1965.37.893
[13] Shim, M., Suh, M., Furukawa, T., Yagawa, G. and Yoshimura, S. (2002) Pareto-Based Continuous Evolutionary Algorithms for Multiobjective Optimization. Engineering Computations, 19, 22-48.
https://doi.org/10.1108/02644400210413649
[14] Custódio, A.L., Madeira, J.F.A., Vaz, A.I.F. and Vicente, L.N. (2011) Direct Multisearch for Multiobjective Optimization. SIAM Journal on Optimization, 21, 1109-1140.
https://doi.org/10.1137/10079731x
[15] Laumanns, M., Rudolph, G. and Schwefel, H.P. (1998) A Spatial Predator-Prey Approach to Multi-Objective Optimization: A Preliminary Study. Lecture Notes in Computer Science, 5, 241-249.
[16] Huband, S., Hingston, P., Barone, L. and While, L. (2006) A Review of Multiobjective Test Problems and a Scalable Test Problem Toolkit. IEEE Transactions on Evolutionary Computation, 10, 477-506.
https://doi.org/10.1109/tevc.2005.861417
[17] Preuss, M., Naujoks, B. and Rudolph, G. (2006) Pareto Set and EMOA Behavior for Simple Multimodal Multiobjective Functions. International Conference on Parallel Problem Solving from Nature, Reykjavik, 9-13 September 2006, 513-522.
[18] Sefrioui, M. and Perlaux, J. (2000) Nash Genetic Algorithms: Examples and Applications. Proceedings of the 2000 Congress on Evolutionary Computation, La Jolla, 16-19 July 2000, 509-516.
[19] Thomann, J. and Eichfelder, G. (2019) Numerical Results for the Multiobjective Trust Region Algorithm MHT. Data in Brief, 25, Article ID: 104103.
https://doi.org/10.1016/j.dib.2019.104103
[20] Vlennet, R., Fonteix, C. and Marc, I. (1996) Multicriteria Optimization Using a Genetic Algorithm for Determining a Pareto Set. International Journal of Systems Science, 27, 255-260.
https://doi.org/10.1080/00207729608929211
[21] Ansary, M.A.T. and Panda, G. (2014) A Modified Quasi-Newton Method for Vector Optimization Problem. Optimization, 64, 2289-2306.
https://doi.org/10.1080/02331934.2014.947500
[22] Stadler, W. and Dauer, J. (1993) Multicriteria Optimization in Engineering: A Tutorial and Survey. Progress in Astronautics and Aeronautics, 150, 209-249.
[23] Das, I. and Dennis, J.E. (1998) Normal-Boundary Intersection: A New Method for Generating the Pareto Surface in Nonlinear Multicriteria Optimization Problems. SIAM Journal on Optimization, 8, 631-657.
https://doi.org/10.1137/s1052623496307510
[24] Jin, Y., Olhofer, M. and Sendho, B. (2001) Dynamic Weighted Aggregation for Evolutionary Multi-Objective Optimization: Why Does It Work and How. Proceedings of the 3rd Annual Conference on Genetic and Evolutionary Computation, San Francisco, 7-11 July 2001, 1042-1049.