协调探索和开发能力的改进灰狼优化算法
2021/5/9 12:25:25
本文主要是介绍协调探索和开发能力的改进灰狼优化算法,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
文章目录
- 一、理论基础
- 1、基本灰狼优化算法
- 2、改进灰狼优化算法
- (1)佳点集种群初始化
- (2)非线性控制参数策略
- (3)基于个体记忆功能的位置更新公式
- 二、仿真实验与分析
- 三、参考文献
- 四、Matlab仿真程序
一、理论基础
1、基本灰狼优化算法
请参考这里。本文的位置更新公式有所改变,具体如下: X i d ( t + 1 ) = ∑ j = α , β , δ w j X i , j d ( t + 1 ) (1) X_i^d(t+1)=\sum_{j=\alpha,\beta,\delta}w_jX_{i,j}^d(t+1)\tag{1} Xid(t+1)=j=α,β,δ∑wjXi,jd(t+1)(1)其中, w j ( j = α , β , δ ) w_j(j=\alpha,\beta,\delta) wj(j=α,β,δ)表示 α , β \alpha,\beta α,β和 δ \delta δ狼的权重系数,即 w j = f ( X j ( t ) ) f ( X α ( t ) ) + f ( X β ( t ) ) + f ( X δ ( t ) ) (2) w_j=\frac{f(X_j(t))}{f(X_\alpha(t))+f(X_\beta(t))+f(X_\delta(t))}\tag{2} wj=f(Xα(t))+f(Xβ(t))+f(Xδ(t))f(Xj(t))(2) f ( X j ( t ) ) f(X_j(t)) f(Xj(t))表示第 j j j个个体在第 t t t代的适应度值。
2、改进灰狼优化算法
(1)佳点集种群初始化
佳点集是一种有效的、能够均匀选点的方法,与随机方法相比,利用佳点集方法取点能够更均匀地分布在搜索空间中。因此,本文将佳点集方法应用到GWO算法中生成初始种群个体。利用佳点集产生初始种群的具体原理详见文献[1]。
佳点集生成个体与随机生成个体分布如如图1所示。
(2)非线性控制参数策略
受PSO算法中惯性权重设置的启发,本文提出一种基于正切三角函数的非线性控制参数策略,即 a ( t ) = a i n i t i a l − ( a i n i t i a l − a f i n a l ) × tan ( 1 ε ⋅ t T ⋅ π ) (3) a(t)=a_{initial}-(a_{initial}-a_{final})×\tan(\frac1\varepsilon\cdot\frac{t}{T}\cdot\pi)\tag{3} a(t)=ainitial−(ainitial−afinal)×tan(ε1⋅Tt⋅π)(3)其中, a i n i t i a l a_{initial} ainitial和 a f i n a l a_{final} afinal分别为控制参数 a a a的初值和终值,取值分别为1和0; ε > 0 \varepsilon>0 ε>0为非线性调价系数,取值为5; t t t为当前迭代次数, T T T为最大迭代次数。由式(3)可知,控制参数 a a a随迭代次数的增加非线性动态变化,以协调GWO算法的全局探索和局部开发能力。
(3)基于个体记忆功能的位置更新公式
为了改善GWO算法的局部开发能力,受粒子群优化(PSO)算法的启发,将PSO算法中对粒子自身运动历史最优解进行记忆保存的思想引入到GWO算法中,对个体的记忆功能加以改进,使其能够记忆自身进化过程中的最优解。为此,本文提出一种基于个体自身记忆功能的位置更新公式替代式(1),表示为 X i d ( t + 1 ) = b 1 ⋅ ∑ j = α , β , δ w j X i , j d ( t + 1 ) + b 2 ⋅ r a n d ⋅ ( P b e s t d − X i d ( t ) ) (4) X_i^d(t+1)=b_1\cdot\sum_{j=\alpha,\beta,\delta}w_jX_{i,j}^d(t+1)+b_2\cdot rand\cdot(P_{best}^d-X_i^d(t))\tag{4} Xid(t+1)=b1⋅j=α,β,δ∑wjXi,jd(t+1)+b2⋅rand⋅(Pbestd−Xid(t))(4)其中, b 1 ∈ [ 0 , 1 ] b_1∈[0,1] b1∈[0,1]为群体交流系数, b 2 ∈ [ 0 , 1 ] b_2∈[0,1] b2∈[0,1]为个体交流系数, r a n d rand rand为 [ 0 , 1 ] [0,1] [0,1]间的随机数, P b e s t d P_{best}^d Pbestd为第 i i i只灰狼所经历过的最佳位置。类似于PSO算法,通过调节 b 1 b_1 b1和 b 2 b_2 b2的值,可以协调群体交流与个体记忆对算法搜索的影响。
二、仿真实验与分析
将改进的灰狼算法(IGWO)与基本灰狼优化算法(GWO)进行比较,以F1~F3为例,如图2~4所示。
结果表明,本文提出的IGWO算法具有较强的竞争力和较小的适应度函数值。
三、参考文献
[1] 陈义雄, 梁昔明, 黄亚飞. 基于佳点集构造的改进量子粒子群优化算法[J]. 中南大学学报:自然科学版, 2013, 44(4).
[2] 龙文, 伍铁斌. 协调探索和开发能力的改进灰狼优化算法[J]. 控制与决策, 2017, 32(010):1749-1757.
四、Matlab仿真程序
下载地址:
这篇关于协调探索和开发能力的改进灰狼优化算法的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-06-26结对编程到底难不难?答案在这里
- 2024-06-19《2023版Java工程师》课程升级公告
- 2024-06-15matplotlib作图不显示3D图,怎么办?
- 2024-06-1503-Loki 日志监控
- 2024-06-1504-让LLM理解知识 -Prompt
- 2024-06-05做软件测试需要懂代码吗?
- 2024-06-0514-ShardingSphere的分布式主键实现
- 2024-06-03为什么以及如何要进行架构设计权衡?
- 2024-05-31全网首发第二弹!软考2024年5月《软件设计师》真题+解析+答案!(11-20题)
- 2024-05-31全网首发!软考2024年5月《软件设计师》真题+解析+答案!(21-30题)