一种具有多级适应性的粒子群优化智能算法外文翻译资料

 2022-11-16 11:22:01

英语原文共 16 页,剩余内容已隐藏,支付完成后下载完整资料


一种具有多级适应性的粒子群优化智能算法

Mengqi Hu, Teresa Wu, Jeffery D. Weir

摘要:在过去的二十年里,粒子群优化算法(PSO)作为一种新开发的优化技术引起了高度重视。但它存在两种常见的不足:首先,大多数已有的粒子群算法都是专门为一种搜索空间设计的,因此缺少一种可以在一组多样性问题上运行良好的优化算法;第二个就是粒子群算法具有早熟收敛性。为了解决第一个问题,本文提出了通过融合多种搜索方法来增强粒子群算法。在这个方面,本文对两个搜索技术进行了研究:非均匀变异方法和自适应的梯度方法。为解决粒子群的早熟收敛的问题,又进一步利用了自适应的柯西变异法。最终,提出了具有多级适应性的增强粒子群算法(PSO-MAM)。本文将用43个函数来测试PSO-MAM的性能,测试函数包括单峰函数,多模态函数,不可分离函数,移位函数,转动函数,嘈杂函数,不缩放函数。本文将测试结果中解的质量和收敛速度与十个已出版的PSO方法进行比较,实验结果表明PSO-MAM算法在36个函数中都表现突出。因此,本文得出结论,PSO-MAM在复杂多模态的函数例如旋转多模态函数上仍有进步的空间和希望。

关键字:粒子群优化算法,多级适应性,子梯度法,非均匀变异法,柯西变异

  1. 引言

粒子群优化算法(PSO),这是由Kennedy和Eberhart于1995年提出的,是一种群体智能算法,它模仿了鸟在飞行时的群体交流。PSO过程同时涉及了群体交流和情报(消息),使鸟类从自己的经验中(本地搜索)和它周围的其他鸟的经验中(全局搜索)学习。虽然PSO最初是用于神经网络中平衡权重的,但它很快就成为了风靡全球的优化算法,主要是针对决策变量是实数的问题的。

像大多数群为基础的算法,由个体组成的池被称为PSO中一个被用来搜索的解空间的蜂群。群里的每个个体都被称为一个直接由三个组成部分构成的移动于搜索空间的粒子(1)其先前的速度; (2)它的迄今为止发现的最佳位置(个体极值);和(3)到目前为止发现的最佳位置(GBEST),从它的邻域,其中邻域由拓扑限定找到。一些常见的拓扑结构包括全局,局部,星型网络和树型网络。在这项研究中,全局拓扑进行了研究,这意味着GBEST是迄今所发现的所有粒子之间的最佳位置。研究PSO算法的发展可以分为两大类。一个重点在于更新每个粒子的速率公式来加快收敛速度​​或保持群的多样性。例如,惯性权重的粒子群(PSO-w),具有收缩系数的粒子群(PSO-CF),统一粒子群优化器(UPSO),和基于速度的动态粒子群(PSO-c3dyn)。 PSO研究的第二类是研究将不同的学习策略的范例(个体极值和GBEST)选择为粒子迅速收敛到接近最优的(如果不是最优)解决方案。例如:被充分告知粒子群(FIPS),基于适当距离比例的粒子群(FDR-PSO),协作PSO(CPSO-H),动态多群PSO(DMS- PSO),综合性学习PSO(CLPSO),广义反对的学习PSO(GOPSO),自适应基于学习的PSO(SLPSO),基于实例的学习PSO(ELPSO),以及正交学习PSO(OLPSO)。请仅将注意力集中在上文所列举的粒子群技术的评论方法上。最近的一些研究表明,PSO算法的性能(例如,收敛速度,溶液的质量)可以通过模型融合概念大大的改进,即,集成的PSO与其他搜索技术,例如(1)进化算符:选择 ,交叉,和突变。 (2)进化算法:遗传算法(GA),模拟退火(SA),模因算法(MA),和细胞自动机(CA); (3)传统的优化技术:拟牛顿序列二次规划(SQP),内尔德 - 米德(NM)单纯形搜索方法,以及离散拉格朗日乘子法。

大量新兴的文学意味着PSO已日益得到普及。这是支持广泛的实验研究这表明,PSO可能优于其他基于群体的进化算法,包括遗传算法(GA),模因算法(MA),差分进化(DE),蚁群优化(ACO)和蛙跳(SFL),就一些优化问题解的质量和计算效率而言。至于发展前景,我们注意到大多数现有的PSO算法为特定的搜索空间(例如,多模态)而设计的。例如,CLPSO所提出的全面的学习策略凭借它在避免局部最优和单峰函数收敛速度不理想上的有效性,实现了在复杂的多模态功能上高品质的性能。据我们所知,目前缺乏一个广义PSO算法,可以在具有不同特点的不同的搜索空间表现良好,如单模式,多模式,非分离,转向,旋转,吵闹,误缩放。其次,大量的研究已经调查的方式,以增加群体的多样性,消除过早收敛。

在这项研究中,我们的目标是开发一种对多种系列的最优化问题有效的广义PSO`算法.首先,我们提出了一个聪明的选择方式来确定相应的搜索方法中被用来做基于其性能的定量测量。对两个搜索技术进行了研究:一个非均匀突变型方法[25]和一个子梯度法[5]的扩展。其次,扩展柯西变异算子[1]是用来维持群体的多样性,防止过早收敛。其结果是,一种新的粒子群称为具有多个自适应方法(PSO-MAM)的增强粒子群被提出。我们已经进行了广泛的对比试验证明PSO-MAM的功效。

本文的结构如下:一些现有的PSO算法在第2节简要回顾;其次是关于拟议PSO-MAM在第3节的详细说明;在第4节的实验结果证明了该方法的有效性。最后,结论是画在第5节。

  1. 文献综述

有惯性权重的粒子群算法,第i代的粒子p的速度和位置被更新为:

其中D维向量是第p粒子的速度([-, ]),为用于约束每个粒子的速度,一般设置在0.1和1.0倍的搜索空间之间;D维向量的是第p粒子的位置;是迄今为止发现的第p个粒子的最佳位置;是迄今为止发现的群的最佳位置;和代表两个独立的随机数的均匀分布在[0,1];是认知学习因子,表示一个粒子朝向自身最佳位置的引力;是社会学习的因素,代表一个粒子朝群的最佳位置的吸引力; w为惯性权重。在过去十年中,已经提出了许多不同的PSO算法来改进PSO的性能,将在下面的章节进行了综述.

2.1. PSO变种

研究的第一个领域集中在PSO的公式上(方程(1)和(2))。Shi 和 Eberhart添加了一个正参数称为惯性权重w到PSO的最初版本来平衡PSO的本地搜索和全局的能力搜索。Clerc 和 Kennedy引入收缩系数,以防止爆发和保证粒子收敛。对不同邻域的拓扑结构也进行了研究,并且发现大的邻域可以更好地解决简单的问题,而小的邻域更趋向于解决复杂问题。Parsopoulos和Vrahatis 提出了统一的粒子群算法(UPSO),将局部版本PSO与全局版本PSO的完美组合。Mendes etal.假设粒子会受到在它周围的所有粒子的影响,并提出充分知情PSO(FIPSO)。在FIPSO,粒子的速度的更新是借助周边所有粒子的信息而不只是邻域中最好的一个。在适当-距离比基准PSO(FDR-PSO),一个基于附加选择粒子新的速度分量具有较高的适应度值并且更接近更新粒子在速度,这个分量被添加进了速度更新公式。 CPSO-H 使用一维群分别对每个维度进行搜索,然后采用一个全局群对这些D一维群进行整合。在DMS-PSO中,Liang,Suganthan动态的将群分割成几个小群,交换这些群之间的信息并使用各种策略来重新组合它们。

另一个重点领域是探索每个粒子的学习策略。在CLPSO ,提出了一个全面的学习策略,以确保每一个粒子的最优位置可以被其它粒子获取到。这种学习策略可以保持群体的多样性,消除早熟收敛。 Wang等人研究将通用的反对为基础的学习(GOBL)策略与PSO进行整合,其中GOBL是用来呈现多元化的粒子。SLPSO同时使用了四种基于搜索方法的PSO,与基于从自适应改进概率模型导出的概率选择一个的。 ELPSO 可能是第一个为数不多的考虑集(而不是一个)全球最好的颗粒。这样,粒子可以从不同的全局最优粒子获取,这有助于避免过早收敛。A先入先出的顺序策略当其超过其容量被用来更新示例集合。OLPSO中这些粒子从全局中最好和个体最好通过正交试验设计来获取。

总之,上述大部分PSO变异都是为一些特定的复杂问题(如多式联运功能)所设计。为了提高泛化,研究人员正在探索PSO与下述几种方法进行结合。

窗体顶端

2.2 混合PSO

通过在PSO中应用高斯变异,Higashi和Iba观察到,带有变异算子的PSO胜过任何遗传算法(GA)或者PSO独自在单峰模式和多模式中的性能。 Thangaraj等利用Beta突变来维持群体的多样性,提高算法性能。Andrews研究了不同的变异算子对不同的测试功能的影响。虽然变异算子能保持群体的多样性,选择变异算子在PSO算法取决于优化问题的本质。
其他进化算法和优化技术与PSO的整合也是有利的。例如,Kao和Zahara提出一种结合GA与粒子群为多模态功能优化的方法,并通过使用17种多模态功能试验表明该混合方法的解的质量和收敛速度方面的优越性。元胞自动机(CA)与PSO的结合使得速度更新避免在过早收敛。 PSO结合了基于梯度的准牛顿序列二次规划(SQP),Plevris和Papadrakakis 表明这种混合方法优于其他现有的整体结构的优化技术。Fan和Zahara开发了PSO与内尔德 - 米德(NM)无约束优化单纯形搜索方法的整合。基于PSO和离散拉格朗日乘子的方法提出了非线性规划问题,这种方法被证明是非常有效和强大的。
我们得到结论是当PSO与其他技术集成后大大加强PSO解决单峰和多模态两个函数的能力。不幸的是,对一些复杂问题的性能(例如,旋转,嘈杂的,misscaled)是不能令人满意的。这可能是由于低的收敛速度或集成PSO的技术的开采能力差的原因。另一个问题是与其它技术结合的PSO比较难以实施,并且与2.1节中所提到的PSO变异所比,他们的计算精度更高。因此,我们感兴趣的是在这项研究中所包括的良好的勘探,开发和变异,等用了避免过早收敛的搜索技术,这些补体技术的整合将得到改进PSO。

正式

非正式

3.目标算法

正如在前面章节所描述,粒子群算法(PSO)存在两个不足:(1)PSO和大部分改进的粒子群算法都没有办法保证能够有效解决具有多样性的优化问题;(2)存在早熟收敛的问题。由于优化问题的不同,搜索空间具有多样性,这导致第一个问题普遍存在于大多数的优化算法中。为了解决这个问题,提出了一种模型融合的方法,也就是应用多种搜索方式引发一个具有良好性能的算法的方法。本文研究了两个基于(非群体)搜索技术的互相独立的方法:第一种是非均匀变异方法[14],由于它能够在初期对搜索空间进行探索的能力成为了实现多模态函数的首选方法;第二个是自适应子梯度方法[15],这种算法所具有的快速寻找局部最优和微调搜索空间的能力可以有效的实现单峰模式函数。为了解决第二个问题,我们建议在智能的基于多种搜索方法增强粒子群算法中使用扩展柯西变异算子的方法来防止早熟收敛。

如图3-1所示,提出的PSO-MAM包含三个模块:(1)初始化模块:该群运用PSO操作进行随机初始化来更新种群。(2)智能多搜索方法模块:运行两种搜索方法(非均匀变异方法和子梯度方法),在每次迭代中,将采用轮盘赌选择方法来触发适当的搜索方法。(3)突变模块:在进一步的改进最优粒子后,用突变算子来更新一个随机选择的粒子。当停止判断条件(如PSO迭代的最大数目,预定的解的精度)得到满足后,该算法将停止运算。

3.1 智能多种搜索方式

像现在已存的优化算法一样,PSO无法保证对不同的优化问题都有效。因此用一种智能多搜索方式模型来协助PSO提高自身解决不同问题的有效性。在每次PSO迭代后,都采用多种方式的搜索来提高当前种群即以g为指数的(公式3-1)[16]中粒子。

(3-1)

如果使用多种搜索方式模型来进行改进,将会被替换。

3.1.1 非均匀变异方法

在具有多种方法的搜索模型中,我们研究了非均匀突变技术,这是一种能够在初期对解空间进行均匀搜索,并能在后期进行非常局部地搜索[68]。非均匀变异方法已经被证实具有大跳跃(勘探)和微调(开发)的优点[68,69]。由于它在探索和开发间具有良好的平衡性,非均匀变异方法一般是实现多模型函数的首选。

在非均匀变异方法中,解的第d维被随机挑选来突变产生一个新的解的,比如[16]

(3-2)

其中,i是PSO的当前迭代指数;,是的上下限;r是(0,1)内的均匀随机

图3-1 PSO-MAM的流程图(S1为非均匀变异方法,S2为子梯度法。)

数。函数定义为:

(3-3)

其中,是(0,1)中的均匀随机数;I是PSO的最大迭代数;b是一个确定依赖迭代数程度的系统参数。在本文中设b = 1。

3.1.2 自适应子梯度法

使用从粒子速度信息中得到的自适应步长来扩展子梯度法[15]。这个针对无约束问题的子梯度法就相当于目标函数可微(可分)时基于梯度的方法。像基于梯度的方法一样,子梯度法可以快速找到局部最优,并表

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[28836],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、外文翻译、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。