文章快速检索     高级检索
  重庆邮电大学学报(自然科学版)  2020, Vol. 32 Issue (3): 368-376  DOI: 10.3979/j.issn.1673-825X.2020.03.005
0

引用本文 

钱小宇, 葛洪伟, 周竞, 蔡明. 基于扩容和双距离决策的多目标粒子群优化算法[J]. 重庆邮电大学学报(自然科学版), 2020, 32(3): 368-376.   DOI: 10.3979/j.issn.1673-825X.2020.03.005.
QIAN Xiaoyu, GE Hongwei, ZHOU Jing, CAI Ming. Multi-objective particle swarm optimization algorithm based on expansion and dual distance[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2020, 32(3): 368-376.   DOI: 10.3979/j.issn.1673-825X.2020.03.005.

基金项目

国家自然科学基金(61305017);江苏省普通高校研究生科研创新计划(KYLX16_0781, KYLX16_0782);江苏省高校优势学科建设工程项目(PAPD)

Foundation item

The National Natural Science Foundation of China (61305017);The Research Innovation Program for College Graduate of Jiangsu Province(KYLX16_0781, KYLX16_0782);The Foundation of Priority Academic Program Development of Jiangsu Higher Education Institutions(PAPD)

作者简介

钱小宇(1992-), 男, 安徽芜湖人, 硕士研究生, 主要研究方向为人工智能与模式识别。E-mail:xynaruto@hotmail.com; 葛洪伟(1967-), 男, 江苏无锡人, 教授, 博士生导师, 主要研究方向为人工智能与模式识别、机器学习、图像处理与分析等。E-mail:ghw8601@163.com; 周竞(1969-), 女, 江苏无锡人, 高级工程师, 主要研究方向为人工智能与信息安全。E-mail:41752291@qq.com; 蔡明(1962-), 男, 江苏常州人, 硕士, 主要研究方向为计算机软件、网络应用。E-mail:mcai@jiangnan.edu.cn

通讯作者

葛洪伟  ghw8601@163.com.

文章历史

收稿日期: 2018-12-05
修订日期: 2020-03-03
基于扩容和双距离决策的多目标粒子群优化算法
钱小宇1,2, 葛洪伟1,2, 周竞2, 蔡明3     
1. 江南大学 江苏省模式识别与计算智能工程实验室, 江苏 无锡 214122;
2. 江南大学 物联网工程学院, 江苏 无锡 214122;
3. 江南大学 信息化建设与管理中心, 江苏 无锡 214122
摘要: 为了更好地改善多目标粒子群优化算法的收敛性和多样性, 提出一种基于扩容和双距离决策的多目标粒子群优化算法。利用扩容的方法对目标空间中目标函数值的上下限进行扩大, 得到新的上下限后再建立网格, 这样可以计算出边界点的坐标。在小网格中选择引导粒子或者劣质粒子时, 利用小网格中粒子到理想点和当前小网格最优点的距离进行决策筛选, 这样充分利用目标空间中的信息来对粒子的优先级进行判断。对新的粒子进行差分变异, 增加了整体的多样性, 并通过阈值控制其变异的频率。将算法和当前具有代表性的多目标粒子群优化算法进行对比实验, 提出的算法效果更佳。实验表明, 提出算法的收敛性和多样性不仅得到较大提高, 而且较为稳定。
关键词: 多目标优化    粒子群优化算法    网格    差分变异    收敛性    
Multi-objective particle swarm optimization algorithm based on expansion and dual distance
QIAN Xiaoyu1,2 , GE Hongwei1,2 , ZHOU Jing2 , CAI Ming3     
1. Jiangsu Provincial Engineering Laboratory of Pattern Recognition and Computational Intelligence, Jiangnan University, Wuxi 214122, P. R. China;
2. School of Internet of Things Engineering, Jiangnan University, Wuxi 214122, P. R. China;
3. Information Construction and Management Center, Jiangnan University, Wuxi 214122, P. R. China
Abstract: In order to improve the convergence and diversity of multi-objective particle swarm optimization algorithm, a new multi-objective particle swarm optimization algorithm based on expansion and dual distance is proposed. The main innovations of this paper are as follows:firstly, the upper and lower limits of the objective function value in the target space are expanded by the expansion, and after the grid is established by the new upper and lower limits, the coordinates of the boundary point can be calculated. Then, when selecting the leader or the inferior particles in a small grid, the decision is made by the two distances from the small grid to the ideal point and the current small grid. In this way, the information in the target space is fully utilized to judge the priority of the particles; Finally, the differential mutation of the new particles increases overall diversity and the frequency of their mutation is controlled by a threshold. The algorithm is compared with the current representative multi-objective particle swarm optimization algorithm, and the results show that the algorithm proposed in this paper is better than the comparison algorithm. Experiments show that the convergence and diversity of the proposed algorithm are not only improved, but also stable.
Keywords: multi-objective optimization    particle swarm optimization algorithm    grid    differential mutated    convergence    
0 引言

目前多目标优化[1](multi-objective optimization, MOO)在工程优化及环境资源调度[2]等领域引起了极其广泛的关注。由于其涉及到对多个目标进行优化,而且这些目标之间可能存在相互冲突,很难得出一个解让所有的目标同时取到最优值,这样给多目标优化问题带来了很大的困难,所以最终只能用一个最优解集来解决此问题。许多国内外学者在MOO领域不断地进行深入研究,粒子群优化(particle swarm optimization, PSO)算法[3]由于简单高效、快速收敛的特性最先被应用到MOO问题研究中。文献[4]提出多目标粒子群优化算法(multi-objective particle swarm optimization algorithm, MOPSO),文献[5]随后对其进行了改进。文献[6]为了提高MOPSO中所选粒子的质量,使用了拥挤距离作为择优选择的参考指标。文献[7-8]则将收敛性和多样性转换成距离来作为适应值,以便使最优解集更好地收敛于真实Pareto前沿上。文献[9]将PSO结合分解方法来处理多目标优化问题,很大程度提高了最优解集的多样性。文献[10-11]对分解方法进一步改进,使得到的子空间更加均匀,增加最优解集的多样性。作为分解方法的另一种形式,文献[12]利用网格的方法将目标空间划分成许多的小网格,通过小网格中粒子密集程度来对Pareto前沿的分散性进行衡量,同时对粒子的更新进行更细致的研究,动态调整更新公式中的参数,增加群体的收敛特性。除此之外,有的研究者吸收了其他优化算法优点,提出了基于差分进化算法的MOPSO/DE算法[13],以及基于教与学方法的MOPSO/TL算法[14]

本文借鉴文献[12]的思想,提出基于扩容和双距离决策的多目标粒子群算法(multi-objective particle swarm optimization algorithm based on expansion and dual distance, MOPSO/EXD)。该算法首先对目标空间的上下限进行扩容,让处于边界的粒子可以分配到网格坐标,这样群体能充分吸收边界粒子的特点,增加最优解集的多样性和收敛性;其次利用目标空间中粒子函数值点到理想点和当前所在的小网格最优点的距离作为粒子间相互决策的评价指标,这样既增加了收敛性又提高了多样性;在选出引导粒子后,结合更新公式产生新的粒子,利用差分进化算法能增加粒子间信息交流的特性[13],对新粒子进行差分变异操作。将MOPSO/EXD算法和当前具有代表性的多目标优化算法MOPSO/DE[13],MOPSO/TL[14]与GMOPSO[12]进行对比实验,结果表明, MOPSO/EXD算法的收敛性和多样性得到了很大提升。

1 MOPSO问题 1.1 MOO基本概念
$ \left\{ \begin{array}{l} \min y = F\left( X \right) = \left( {{f_1}\left( X \right), {f_2}\left( X \right), \cdots , {f_m}\left( X \right)} \right)\\ Y = \left\{ {F\left( X \right)|X \in W} \right\} \end{array} \right. $ (1)

(1) 式中:X=(x1, x2, …, xn)为决策变量;n为决策变量的维度;m为目标函数的个数;W为决策变量的集合;Y为决策变量的值域,即目标空间。在MOO问题中,Pareto解的相关定义如下。

定义1   Pareto支配:解p, qW,若p支配q,记为p$ \prec $qp为支配粒子,q为被支配粒子,且满足下面2个条件

$ \left\{ \begin{array}{l} {f_i}\left( p \right) \le {f_i}\left( q \right), \forall i \in \left\{ {1, 2, \cdots m} \right\}\\ {f_i}\left( p \right) < {f_i}\left( q \right), \exists i \in \left\{ {1, 2, \cdots m} \right\} \end{array} \right. $ (2)

定义2    Pareto最优:若X为Pareto最优解,则$\exists $X*W,使X* $ \prec $X成立。

定义3   Pareto最优解集PSW中所有Pareto最优解的集合。

定义4   Pareto前沿为

$ PF = \left\{ {F\left( X \right)|X \in PS} \right\} $ (3)

定义5  理想点RR用(r1, r2, …, rm)表示,其中ri=min{fi(x)|xW},i=1, 2, …, m, m为目标函数的个数。

定义6  最优点:将目标空间划分成若干小网格后,每个小网格区域中各维度最小值点为该小网格最优点。

1.2 MOPSO算法

MOPSO中的粒子含有位置信息和速度信息[4],产生新粒子的公式为

$ V_k^{t + 1} = wV_k^t + {c_1}{r_1}\left( {{P_k} - X_k^t} \right) + {c_2}{r_2}\left( {G - X_k^t} \right) $ (4)
$ V_k^{t + 1}{\rm{ = }}V_k^{t + 1} + X_k^t $ (5)

(4)—(5)式中:k指粒子群中的第k个粒子;t为当前循环次数;w为权重系数;c1c2为学习因子;r1r2为(0, 1)内的随机数;Pk为当前粒子最好位置;G为引导粒子的位置;Vkt为在第t次循环时,粒子k的速度;Xkt为在第t次循环时,粒子k的位置。

在MOPSO问题中,由于每个粒子有多个函数值,所以很难判断粒子之间的优越性。于是,首先利用Pareto支配原则选择支配粒子即Pareto最优解,并更新每个粒子的个体最优位置;然后将这些支配粒子存入外部存档中;接着从外部存档中选出引导粒子,利用(4)—(5)式产生新的种群;最后经过一定次数的循环,不断地更新外部存档,最终得到Pareto最优解集。

2 MOPSO/EXD算法 2.1 网格搭建

外部存档中所有粒子函数值的上限记为CU=(fu1, fu2, …, fui),下限记为CL=(fl1, fl2, …, fli), 其中fui为第i个目标函数的最大值,fli为第i个目标函数的最小值,i=1, 2, …, mm为目标函数的个数,整个网格的跨度为DC=(dc1, dc2, …, dcm), 其中dci=fuifli。文献[12]中建立网格时以CUCL作为整个网格的上下限,图 1图 2展示了将外部存档中粒子的函数值在目标空间中的对应点映射到网格中的过程,各维度网格坐标从1开始计数,映射方法为

图 1 目标空间 Fig.1 Target space
图 2 目标空间中建立的网格 Fig.2 Grid built in the target space
$ \left\{ \begin{array}{l} G\left( X \right) = \left( {{g_1}\left( X \right), {g_2}\left( X \right), \cdots , {g_m}\left( X \right)} \right)\\ {g_i}\left( X \right) = \left[ {\frac{{{f_i}\left( X \right) - f{l_i}}}{{{d_i}}}} \right]\\ {d_i} = \frac{{f{u_i} - f{l_i}}}{{nGrid}} \end{array} \right. $ (6)

(6) 式中:G(X)为粒子的网格坐标;di为目标空间中第i维上每个小网格的宽度;nGrid为目标空间中每一维度上小网格的个数。但是,在映射后的网格中,无法给网格上、下限边界上的点分配合理的网格坐标,只能将该点随机分配到与其相近点所在的小网格中,这样会有损该点所对应的粒子中含有的信息,对整体多样性产生了一定的影响,如图 2,点p8就是位于下限边界上的一个点,无法直接得出该点合理的网格坐标。

于是,在建立网格时引入扩容率a对外部存档中粒子的目标函数值的上下限进行扩容,得到新上限为CU′=(fu1, fu2fu′m),fu′i=fui+a*dci,新下限为CL′=(fl1, fl2fl′m),fl′i=flia*dci,根据新上下限重新建立网格,然后计算目标空间中点的网格坐标。网格扩容后,可以将原来网格中上、下限边界上的点分配到新小网格内,而不是在网格边界上,这样完整保存了边界点所对应粒子的信息,从而在一定程度上提高了最优解集的多样性。如图 3,扩容后将整个目标空间进行划均匀划分,可看出点p8位于小网格内,很方便地求出其网格坐标为(3, 1)。

图 3 扩容后的网格 Fig.3 Expanded grid
2.2 双距离决策

在目标空间中建立网格后,通过小网格对位于其中的粒子进行约束收敛,均匀的网格有助于最优解集均匀地分散于Pareto前沿上。同时所有粒子尽可能地向理想点靠拢,有助于提高收敛性。基于这2点,对于每个小网格中的粒子定义2个距离:①粒子函数值在目标空间中的对应点到其当前所在小网格的最优点的距离d1d1体现粒子收敛于当前小网格最优点的特性,这样保证了整体的多样性,让解集能均匀地分散于Pareto前沿上;②该粒子函数值的对应点到理想点R的距离d2d2反应了粒子收敛于理想点的能力,有助于提高收敛性。利用这2个距离对外部存档中的粒子进行择优选择,既能保证全局的多样性,又能提高收敛性。图 4为某粒子函数值在目标空间中对应点Xd1d2值。

图 4 双距离 Fig.4 Dual distance

双距离支配原则的定义如下:某小网格中所有粒子函数值在目标空间中对应点的集合记为Pd1(pi)和d2(pi)分别表示当前小网格中粒子i函数值对应点pid1d2值。某小网格中2个粒子函数值的对应点p1, p2P,若p1双距离支配p2,记p1$ \prec $p2,需满足2个条件

$ \left\{ \begin{array}{l} {d_j}\left( {{p_1}} \right) \le {d_j}\left( {{p_2}} \right), \forall j \in \left\{ {1, 2} \right\}\\ {d_j}\left( {{p_1}} \right) < {d_j}\left( {{p_2}} \right), \exists j \in \left\{ {1, 2} \right\} \end{array} \right. $

p1为支配点,p2为被支配点。

2.3 引导粒子筛选

在目标空间中建立网格后,通过小网格中含有的粒子数来判断该小网格的密集程度,目标空间中小网格的密集度能反应整个解集的分散性以及多样性。

在筛选引导粒子过程中,首先用轮盘赌方法[5]选出密集程度较小的小网格,密集程度越小说明此区域的粒子越稀疏,从此区域选择引导粒子有助于将整体粒子引向Pareto前沿上较稀疏的区域,增加解集的多样性;在确定好小网格之后,接着计算该小网格中每个粒子函数值的d1, d2值;最后,通过双距离支配原则筛选出支配粒子作为引导粒子,如果有多个支配粒子,则根据Pareto最优的定义选出Pareto最优粒子,再从中随机选出一个作为引导粒子。如图 5,以某小网格中含有的3个粒子为例,他们的函数值在目标空间中的对应点为X1, X2, X3,通过他们的d1, d2值可判断出X1, X2支配X3,但是X1X2又是Pareto最优,则从这2个中随机选择一个点,并将该点所对应的粒子作为引导粒子。

图 5 双距离决策支配 Fig.5 Dual distance decision
2.4 变异操作

文献[13]在粒子进行更新产生下一代时,交叉使用了PSO和差分进化算法[16],同时使用模拟退火算法[15]产生的阈值来动态调整这2种方法的使用频率产生(0, 1)内的随机数,当该随机数大于阈值时,使用PSO算法产生新的粒子,否则使用差分算法产生新的粒子。这样虽然通过差分的方法增加粒子间的交流,从而增加了最优解集的多样性,但是收敛性有所下降。

本文为了充分体现PSO的特性,同时吸收差分算法能增加粒子间通信的优点,粒子每次更新时利用PSO算法得到新的粒子,然后产生(0, 1)的随机数r,当r大于等于阈值0.8时,对产生的新粒子进行差分变异,否则不进行变异操作。通过阈值控制差分变异使用的频率,既能更好体现PSO快速收敛性,又能提高多样性。

2.5 多余粒子的删除

当外部存档中的粒子数超过其容量nrep时,则需要对多余的粒子进行删除操作。首先通过轮盘赌方法选出密集程度较大的小网格,从该拥挤的区域中删除粒子有助于解集在Pareto前沿上均匀分布,以及多样性的提高;在确定好小网格之后,接着计算该小网格中每个粒子目标函数值点的d1, d2的值;最后,通过这2个距离性质筛选出被支配的粒子作为被删除的劣质粒子,图 5X3所对应的粒子为当前小网格中的劣质粒子。若有多个被支配的粒子,则从中选择一个被支配的粒子作为劣质粒子,若没有被支配的粒子,则在此区域中随机选择一个作为劣质粒子进行删除。

2.6 MOPSO/EXD算法步骤

1) 初始化种群规模nPOP、种群中每个粒子的维度nVar、目标函数的个数m、外部存档容量nrep、目标空间中每一维度划分数nGrid、最大迭代次数gmax、扩容率a,令当前迭代次数为t,粒子位置为[0, 1]。

2) 随机生成整个群体粒子的位置POP,并令它们的初始速度为1,计算所有粒子的目标函数值,用Epa表示,令每个粒子的个体最优位置为自身。接着筛选出支配粒子存入外部存档中,位置信息记为Apop,对应的目标函数值记为Arc

3) 利用外部存档中的粒子进行网格搭建操作,计算每个粒子网格坐标。

4) 进行引导粒子筛选操作,产生引导粒子的位置信息G,利用(4)—(5)式产生新的粒子,然后生成随机数r,当r≥0.8时,对产生的新粒子进行差分变异,否则不进行变异操作。若产生的新粒子支配当前粒子,则将新粒子替换对应的个体最优粒子。新生成种群代替当前的POP,计算POP的目标函数并代当前的Epa

5) 外部存档的更新,分别将POPApopEpaArc合并,然后挑选出支配粒子,更新之前的外部存档,若外部存档的粒子数超过nrep时,进行外部存档删除操作,删除多余的粒子。

6) 当t>gmax时,输出ArcApop,否则转至3)进行循环操作。

3 实验分析 3.1 测试函数及参数设置

为了验证MOPSO/EXD算法的有效性,让其与当前具有代表性的多目标优化算法MOPSO/DE[13],MOPSO/TL[13],GMOPSO[12]进行测试对比,实验中用到的测试函数[4]包括2目标函数的ZDT1,ZDT2,ZDT3,此时m=2;以及3目标函数的DTLZ2,DTLZ6,DTLZ7,此时m=3。相关参数nPOP=500,nVar=10,nrep=500,nGrid=10,a=0.1,当m=2时gmax=500,当m=3时gmax=1 000,其他参数与文献[12]一致,一共进行30次试验取性能指标的均值和标准差。

3.2 性能指标

为了衡量MOPSO/EXD算法的收敛性和多样性,使用了IGD性能指标[17]作为参考,IGD表示为

$ IGD\mathop {\rm{ = }}\limits^\Delta \frac{{\sum\limits_{i = 1}^{\left| {{P^*}} \right|} {dist\left( {P_i^*, P} \right)} }}{{\left| {{P^*}} \right|}} $ (7)

(7) 式中:P*为真实Pareto前沿;P为当前算法得到的最优解集;|P*|为真实Pareto前沿上解的个数;dist(Pi*, P)为真实Pareto前沿上的解Pi*P中最近的欧氏距离。IGD指标既能反应当前算法得到解集的多样性,又能反应当前解集和真实Pareto前沿的距离,即收敛到真实Pareto前沿的效果。IGD值越小,则当前算法得到的解集覆盖真实Pareto前沿的效果越好,即收敛性和多样性越好。

3.3 实验结果分析

经过多次实验后,得到MOPSO/EXD算法和其他3个算法的IGD结果如表 1表 2,其中,表 1为多次试验均值;表 2为标准差。通过表 1可看出,MOPSO/EXD算法相对于其他3个算法均显示较好的效果(仅在DTLZ2上的IGD指标稍微弱于MOPSOTL算法),并且提升比较明显,说明改进后的算法得到的最优解集收敛于真实Pareto前沿性能和解集的多样性得到很大的提升。各算法的Pareto前沿如图 6,从图 6中可看出,MOPSO/EXD算法的Pareto前沿相对于其他3个算法能更全面地覆盖各对应测试的真实Pareto前沿,尤其在3目标测试函数上覆盖效果更明显,显示MOPSO/EXD算法很好地收敛于真实Pareto上。各算法的IGD如图 7,从表 2的IGD标准差以及图 7来看,MOPSO/EXD算法每次实验得出IGD指标相对其他3个算法浮动很小,比较稳定,具有很好通用性。

图 6 各算法的Pareto前沿 Fig.6 Pareto frontier of each algorithm
图 7 各算法的IGD Fig.7 IGD for each algorithm
表 1 各算法效果均值对比 Tab.1 Mean value comparison of each algorithm
表 2 各算法效果标准差对比 Tab.2 Comparison of the standard deviation of each algorithm

经上述分析,可以看出, 本文提出的算法在收敛性和多样性上取得很好的提升,且较为稳定。

3.4 复杂度分析

MOPSO/EXD算法中,其种群大小为N,外部存档的大小也为N,将目标空间划分成网格后,小网格中包含的粒子数最多为T(T < N),选择全局最优粒子时的复杂度为O(N2+T2)≈O(N2),计算种群中粒子网格坐标的复杂度为O(N)~O(N2),综上所述,MOPSO/EXD算法的复杂度为O(N2)。GMOPSO算法的复杂度与MOPSO/EXD算法的复杂度类似,少了小网格内粒子间优先级的比较,所以该算法整体的复杂度仍为O(N2)。MOPSO/DE算法和MOPSOTL算法中种群的大小和外部存档的大小也都为N,其复杂度都为O(N2)。整体来看,MOPSO/EXD算法和其他3个算法相比,复杂度方面虽然没有优势,但是都是在O(N2)这个层级,而且现在计算机的性能不断提升,不断降低了他们之间因复杂度差距而产生的影响。

4 结束语

本文提出的MOPSO/EXD算法,首先对目标空间中的函数值上下限进行扩充,这样在给目标空间中的点分配网格坐标时将边界点考虑进去,有助于对整体的多样性和收敛性进行提升;接着在选择引导粒子或劣质粒子时,利用了粒子同时收敛到理想点和小网格最优点的性能来作为选择的依据,提升了收敛性的同时,也保证了解集的多样性;最后选择性地对新粒子使用差分变异,增加粒子间信息通信交流。实验表明,MOPSO/EXD算法在多样性和收敛性方面得到了很大地提升。

随着无人驾驶技术的快速发展,路径规划问题显得尤为重要,该问题的主要任务是在复杂的环境下为无人车规划处于安全、可行的路径。路径规划问题需要考虑路径长度、无人车与障碍物的距离以及路线平滑度等因素。以前的解决方案主要是给这些因素分配一定的权重后组合成一个新的综合因素来处理,即将多目标问题转换成单目标问题,但是由于各因素之间存在相互制衡,从而不能很好凸显每个因素在该问题中的作用,所以未来我们将重点研究如何让MOPSO/EXD算法更好地应用于路径规划问题中。

参考文献
[1]
肖晓伟, 肖迪, 林锦国, 等. 多目标优化问题的研究概述[J]. 计算机应用研究, 2011, 28(3): 805-808.
XIAO X W, XIAO D, LIN J G, et al. Overview on multi-objective optimization problem research[J]. Application Research of Computers, 2011, 28(3): 805-808. DOI:10.3969/j.issn.1001-3695.2011.03.002
[2]
ABIDO M A. Multi-objective particle swarm optimization for environmental/economic dispatch problem[J]. Electric Power Systems Research, 2009, 79(7): 1105-1113. DOI:10.1016/j.epsr.2009.02.005
[3]
KENNEDY J.Particle Swarm Optimization[C]//Proc IEEE International Conference on Neural Networks. Piscataway, NJ, USA: IEEE, 1995: 1942-1948.
[4]
COELLO C A C.MOPSO: a proposal for multiple objective particle swarm optimization[C]//Proceedings of Congress on Evolutionary Computation. Honolulu, HI, USA: IEEE, 2002: 1051-1056.
[5]
COELLO C A C. Handling multiple objectives with particle swarm optimization[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 256-279. DOI:10.1109/TEVC.2004.826067
[6]
SHI Z, CHEN Q W. Multi-objective quantum-behaved particle swarm optimization algorithm based on QPSO and crowding distance sorting[J]. Control & Decision, 2011, 26(4): 540-547.
[7]
LIN Q Z, LIU S B, ZHU Q L, et al. Particle Swarm Optimization With a Balanceable Fitness Estimation for Many-Objective Optimization Problems[J]. IEEE Transactions on Evolutionary Computation, 2018, 22(1): 32-46. DOI:10.1109/TEVC.2016.2631279
[8]
李浩君, 刘中锋, 王万良, 等. 采用个体进化状态判定策略的分解类多目标进化算法[J]. 小型微型计算机系统, 2018, 39(8): 1668-1673.
LI H J, LIU Z F, WANG W L, et al. Multi-objective Evolutionary Algorithm of Decomposition with Individual Evolutionary State Judging Strategy[J]. Journal of Chinese Computer Systems, 2018, 39(8): 1668-1673. DOI:10.3969/j.issn.1000-1220.2018.08.007
[9]
DAI C, WANG Y, YE M. A new multi-objective particle swarm optimization algorithm based on decomposition[J]. Information Sciences, 2015(325): 541-557.
[10]
PAN A, WANG L, GUO W, et al. A diversity enhanced multiobjective particle swarm optimization[J]. Information Sciences, 2018(436): 441-465.
[11]
JIANG S Y. A Strength Pareto Evolutionary Algorithm Based on Reference Direction for Multiobjective and Many-Objective Optimization[J]. IEEE Transactions on Evolutionary Computation, 2017, 21(3): 329-346. DOI:10.1109/TEVC.2016.2592479
[12]
TANG B, ZHU Z, SHIN H S, et al. A framework for multi-objective optimisation based on a new self-adaptive particle swarm optimisation algorithm[J]. Information Sciences, 2017(420): 364-385.
[13]
SU Y, CHI R. Multi-objective particle swarm-differential evolution algorithm[J]. Neural Computing and Applications, 2017, 28(2): 407-418. DOI:10.1007/s00521-015-2073-y
[14]
CHENG T L. A novel hybrid teaching learning based multi-objective particle swarm optimization[J]. Neurocomputing, 2016, 222(C): 11-25.
[15]
卜登立. , 基于SADPSO的MPRM最小化算法[J]. 重庆邮电大学学报(自然科学版), 2016, 28(2): 226-232.
BU D L. MPRM minimization algorithm based on SADPSO[J]. Journal of Chongqing University of Posts & Telecommunications(Natural Science Edition), 2016, 28(2): 226-232.
[16]
ABOU EI EIA A A, ABIDO M A, SPEA S R. Optimal power flow using differential evolution algorithm[J]. Electrical Engineering, 2010, 80(7): 878-885.
[17]
SUN Y, YEN G G, YI Z. IGD Indicator-based Evolutionary Algorithm for Many-objective Optimization Problems[J]. IEEE Transactions on Evolutionary Computation, 2018, PP(99): 1-7.