189 8069 5689

Python粒子群库函数 python粒子系统

粒子群算法的算法介绍

如前所述,PSO模拟鸟群的捕食行为。设想这样一个场景:一群鸟在随机搜索食物。在这个区域里只有一块食物。所有的鸟都不知道食物在那里。但是他们知道当前的位置离食物还有多远。那么找到食物的最优策略是什么呢。最简单有效的就是搜寻目前离食物最近的鸟的周围区域。

创新互联建站服务项目包括云岩网站建设、云岩网站制作、云岩网页制作以及云岩网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,云岩网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到云岩省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!

PSO从这种模型中得到启示并用于解决优化问题。PSO中,每个优化问题的解都是搜索空间中的一只鸟。我们称之为“粒子”。所有的粒子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。

PSO 初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个极值来更新自己。第一个就是粒子本身所找到的最优解,这个解叫做个体极值pBest。另一个极值是整个种群目前找到的最优解,这个极值是全局极值gBest。另外也可以不用整个种群而只是用其中一部分作为粒子的邻居,那么在所有邻居中的极值就是局部极值。 在找到这两个最优值时,粒子根据如下的公式来更新自己的速度和新的位置:

v[] = w * v[] + c1 * rand() * (pbest[] - present[]) + c2 * rand() * (gbest[] - present[]) (a)

present[] = present[] + v[] (b)

v[] 是粒子的速度, w是惯性权重,present[] 是当前粒子的位置. pbest[] and gbest[] 如前定义 rand () 是介于(0, 1)之间的随机数. c1, c2 是学习因子. 通常 c1 = c2 = 2.

程序的伪代码如下

For each particle

____Initialize particle

END

Do

____For each particle

________Calculate fitness value

________If the fitness value is better than the best fitness value (pBest) in history

____________set current value as the new pBest

____End

____Choose the particle with the best fitness value of all the particles as the gBest

____For each particle

________Calculate particle velocity according equation (a)

________Update particle position according equation (b)

____End

While maximum iterations or minimum error criteria is not attained

在每一维粒子的速度都会被限制在一个最大速度Vmax,如果某一维更新后的速度超过用户设定的Vmax,那么这一维的速度就被限定为Vmax

求大神给出基于粒子群算法的多目标搜索算法的完整程序。。。从目标函数到最后。。

%% 该函数演示多目标perota优化问题

%清空环境

clc

clear

load data

%% 初始参数

objnum=size(P,1); %类中物品个数

weight=92; %总重量限制

%初始化程序

Dim=5; %粒子维数

xSize=50; %种群个数

MaxIt=200; %迭代次数

c1=0.8; %算法参数

c2=0.8; %算法参数

wmax=1.2; %惯性因子

wmin=0.1; %惯性因子

x=unidrnd(4,xSize,Dim); %粒子初始化

v=zeros(xSize,Dim); %速度初始化

xbest=x; %个体最佳值

gbest=x(1,:); %粒子群最佳位置

% 粒子适应度值

px=zeros(1,xSize); %粒子价值目标

rx=zeros(1,xSize); %粒子体积目标

cx=zeros(1,xSize); %重量约束

% 最优值初始化

pxbest=zeros(1,xSize); %粒子最优价值目标

rxbest=zeros(1,xSize); %粒子最优体积目标

cxbest=zeros(1,xSize); %记录重量,以求约束

% 上一次的值

pxPrior=zeros(1,xSize);%粒子价值目标

rxPrior=zeros(1,xSize);%粒子体积目标

cxPrior=zeros(1,xSize);%记录重量,以求约束

%计算初始目标向量

for i=1:xSize

for j=1:Dim %控制类别

px(i) = px(i)+P(x(i,j),j); %粒子价值

rx(i) = rx(i)+R(x(i,j),j); %粒子体积

cx(i) = cx(i)+C(x(i,j),j); %粒子重量

end

end

% 粒子最优位置

pxbest=px;rxbest=rx;cxbest=cx;

%% 初始筛选非劣解

flj=[];

fljx=[];

fljNum=0;

%两个实数相等精度

tol=1e-7;

for i=1:xSize

flag=0; %支配标志

for j=1:xSize

if j~=i

if ((px(i)px(j)) (rx(i)rx(j))) ||((abs(px(i)-px(j))tol)...

(rx(i)rx(j)))||((px(i)px(j)) (abs(rx(i)-rx(j))tol)) || (cx(i)weight)

flag=1;

break;

end

end

end

%判断有无被支配

if flag==0

fljNum=fljNum+1;

% 记录非劣解

flj(fljNum,1)=px(i);flj(fljNum,2)=rx(i);flj(fljNum,3)=cx(i);

% 非劣解位置

fljx(fljNum,:)=x(i,:);

end

end

%% 循环迭代

for iter=1:MaxIt

% 权值更新

w=wmax-(wmax-wmin)*iter/MaxIt;

%从非劣解中选择粒子作为全局最优解

s=size(fljx,1);

index=randi(s,1,1);

gbest=fljx(index,:);

%% 群体更新

for i=1:xSize

%速度更新

v(i,:)=w*v(i,:)+c1*rand(1,1)*(xbest(i,:)-x(i,:))+c2*rand(1,1)*(gbest-x(i,:));

%位置更新

x(i,:)=x(i,:)+v(i,:);

x(i,:) = rem(x(i,:),objnum)/double(objnum);

index1=find(x(i,:)=0);

if ~isempty(index1)

x(i,index1)=rand(size(index1));

end

x(i,:)=ceil(4*x(i,:));

end

%% 计算个体适应度

pxPrior(:)=0;

rxPrior(:)=0;

cxPrior(:)=0;

for i=1:xSize

for j=1:Dim %控制类别

pxPrior(i) = pxPrior(i)+P(x(i,j),j); %计算粒子i 价值

rxPrior(i) = rxPrior(i)+R(x(i,j),j); %计算粒子i 体积

cxPrior(i) = cxPrior(i)+C(x(i,j),j); %计算粒子i 重量

end

end

%% 更新粒子历史最佳

for i=1:xSize

%现在的支配原有的,替代原有的

if ((px(i)pxPrior(i)) (rx(i)rxPrior(i))) ||((abs(px(i)-pxPrior(i))tol)...

(rx(i)rxPrior(i)))||((px(i)pxPrior(i)) (abs(rx(i)-rxPrior(i))tol)) || (cx(i)weight)

xbest(i,:)=x(i,:);%没有记录目标值

pxbest(i)=pxPrior(i);rxbest(i)=rxPrior(i);cxbest(i)=cxPrior(i);

end

%彼此不受支配,随机决定

if ~( ((px(i)pxPrior(i)) (rx(i)rxPrior(i))) ||((abs(px(i)-pxPrior(i))tol)...

(rx(i)rxPrior(i)))||((px(i)pxPrior(i)) (abs(rx(i)-rxPrior(i))tol)) || (cx(i)weight) )...

~( ((pxPrior(i)px(i)) (rxPrior(i)rx(i))) ||((abs(pxPrior(i)-px(i))tol) (rxPrior(i)rx(i)))...

||((pxPrior(i)px(i)) (abs(rxPrior(i)-rx(i))tol)) || (cxPrior(i)weight) )

if rand(1,1)0.5

xbest(i,:)=x(i,:);

pxbest(i)=pxPrior(i);rxbest(i)=rxPrior(i);cxbest(i)=cxPrior(i);

end

end

end

%% 更新非劣解集合

px=pxPrior;

rx=rxPrior;

cx=cxPrior;

%更新升级非劣解集合

s=size(flj,1);%目前非劣解集合中元素个数

%先将非劣解集合和xbest合并

pppx=zeros(1,s+xSize);

rrrx=zeros(1,s+xSize);

cccx=zeros(1,s+xSize);

pppx(1:xSize)=pxbest;pppx(xSize+1:end)=flj(:,1)';

rrrx(1:xSize)=rxbest;rrrx(xSize+1:end)=flj(:,2)';

cccx(1:xSize)=cxbest;cccx(xSize+1:end)=flj(:,3)';

xxbest=zeros(s+xSize,Dim);

xxbest(1:xSize,:)=xbest;

xxbest(xSize+1:end,:)=fljx;

%筛选非劣解

flj=[];

fljx=[];

k=0;

tol=1e-7;

for i=1:xSize+s

flag=0;%没有被支配

%判断该点是否非劣

for j=1:xSize+s

if j~=i

if ((pppx(i)pppx(j)) (rrrx(i)rrrx(j))) ||((abs(pppx(i)-pppx(j))tol) ...

(rrrx(i)rrrx(j)))||((pppx(i)pppx(j)) (abs(rrrx(i)-rrrx(j))tol)) ...

|| (cccx(i)weight) %有一次被支配

flag=1;

break;

end

end

end

%判断有无被支配

if flag==0

k=k+1;

flj(k,1)=pppx(i);flj(k,2)=rrrx(i);flj(k,3)=cccx(i);%记录非劣解

fljx(k,:)=xxbest(i,:);%非劣解位置

end

end

%去掉重复粒子

repflag=0; %重复标志

k=1; %不同非劣解粒子数

flj2=[]; %存储不同非劣解

fljx2=[]; %存储不同非劣解粒子位置

flj2(k,:)=flj(1,:);

fljx2(k,:)=fljx(1,:);

for j=2:size(flj,1)

repflag=0; %重复标志

for i=1:size(flj2,1)

result=(fljx(j,:)==fljx2(i,:));

if length(find(result==1))==Dim

repflag=1;%有重复

end

end

%粒子不同,存储

if repflag==0

k=k+1;

flj2(k,:)=flj(j,:);

fljx2(k,:)=fljx(j,:);

end

end

%非劣解更新

flj=flj2;

fljx=fljx2;

end

%绘制非劣解分布

plot(flj(:,1),flj(:,2),'o')

xlabel('P')

ylabel('R')

title('最终非劣解在目标空间分布')

disp('非劣解flj中三列依次为P,R,C')

粒子群算法

粒子群算法(particle swarm optimization,PSO)是计算智能领域中的一种生物启发式方法,属于群体智能优化算法的一种,常见的群体智能优化算法主要有如下几类:

除了上述几种常见的群体智能算法以外,还有一些并不是广泛应用的群体智能算法,比如萤火虫算法、布谷鸟算法、蝙蝠算法以及磷虾群算法等等。

而其中的粒子群优化算法(PSO)源于对鸟类捕食行为的研究,鸟类捕食时,找到食物最简单有限的策略就是搜寻当前距离食物最近的鸟的周围。

设想这样一个场景:一群鸟在随机的搜索食物。在这个区域里只有一块食物,所有的鸟都不知道食物在哪。但是它们知道自己当前的位置距离食物还有多远。那么找到食物的最优策略是什么?最简单有效的就是搜寻目前离食物最近的鸟的周围区域。

Step1:确定一个粒子的运动状态是利用位置和速度两个参数描述的,因此初始化的也是这两个参数;

Step2:每次搜寻的结果(函数值)即为粒子适应度,然后记录每个粒子的个体历史最优位置和群体的历史最优位置;

Step3:个体历史最优位置和群体的历史最优位置相当于产生了两个力,结合粒子本身的惯性共同影响粒子的运动状态,由此来更新粒子的位置和速度。

位置和速度的初始化即在位置和速度限制内随机生成一个N x d 的矩阵,而对于速度则不用考虑约束,一般直接在0~1内随机生成一个50x1的数据矩阵。

此处的位置约束也可以理解为位置限制,而速度限制是保证粒子步长不超限制的,一般设置速度限制为[-1,1]。

粒子群的另一个特点就是记录每个个体的历史最优和种群的历史最优,因此而二者对应的最优位置和最优值也需要初始化。其中每个个体的历史最优位置可以先初始化为当前位置,而种群的历史最优位置则可初始化为原点。对于最优值,如果求最大值则初始化为负无穷,相反地初始化为正无穷。

每次搜寻都需要将当前的适应度和最优解同历史的记录值进行对比,如果超过历史最优值,则更新个体和种群的历史最优位置和最优解。

速度和位置更新是粒子群算法的核心,其原理表达式和更新方式:

每次更新完速度和位置都需要考虑速度和位置的限制,需要将其限制在规定范围内,此处仅举出一个常规方法,即将超约束的数据约束到边界(当位置或者速度超出初始化限制时,将其拉回靠近的边界处)。当然,你不用担心他会停住不动,因为每个粒子还有惯性和其他两个参数的影响。

粒子群算法求平方和函数最小值,由于没有特意指定函数自变量量纲,不进行数据归一化。

学习多目标优化需要掌握哪些python知识

多目标优化

目标优化问题一般地就是指通过一定的优化算法获得目标函数的最优化解。当优化的目标函数为一个时称之为单目标优化(Single-

objective Optimization Problem,

SOP)。当优化的目标函数有两个或两个以上时称为多目标优化(Multi-objective Optimization Problem,

MOP)。不同于单目标优化的解为有限解,多目标优化的解通常是一组均衡解。

多目标优化算法归结起来有传统优化算法和智能优化算法两大类。

1. 传统优化算法包括加权法、约束法和线性规划法等,实质上就是将多目标函数转化为单目标函数,通过采用单目标优化的方法达到对多目标函数的求解。

2. 智能优化算法包括进化算法(Evolutionary Algorithm, 简称EA)、粒子群算法(Particle Swarm Optimization, PSO)等。

Pareto最优解:

若x*∈C*,且在C中不存在比x更优越的解x,则称x*是多目标最优化模型式的Pareto最优解,又称为有效解。

一般来说,多目标优化问题并不存在一个最优解,所有可能的解都称为非劣解,也称为Pareto解。传统优化技术一般每次能得到Pareo解集中的一个,而

用智能算法来求解,可以得到更多的Pareto解,这些解构成了一个最优解集,称为Pareto最优解。它是由那些任一个目标函数值的提高都必须以牺牲其

他目标函数值为代价的解组成的集合,称为Pareto最优域,简称Pareto集。

Pareto有效(最优)解非劣解集是指由这样一些解组成的集合:与集合之外的任何解相比它们至少有一个目标函数比集合之外的解好。

求解多目标优化问题最有名的就是NSGA-II了,是多目标遗传算法,但其对解的选择过程可以用在其他优化算法上,例如粒子群,蜂群等等。这里简单介绍一下NSGA-II的选择算法。主要包含三个部分:

1. 快速非支配排序

要先讲一下支配的概念,对于解X1和X2,如果X1对应的所有目标函数都不比X2大(最小问题),且存在一个目标值比X2小,则X2被X1支配。

快速非支配排序是一个循环分级过程:首先找出群体中的非支配解集,记为第一非支配层,irank=1(irank是个体i的非支配值),将其从群体中除去,继续寻找群体中的非支配解集,然后irank=2。

2. 个体拥挤距离

为了使计算结果在目标空间比较均匀的分布,维持种群多样性,对每个个体计算拥挤距离,选择拥挤距离大的个体,拥挤距离的定义为:

L[i]d=L[i]d+(L[i+1]m−L[i−1]m)/(fmaxm−fminm)

L[i+1]m是第i+1个个体的第m目标函数值,fmaxm 和 fminm是集合中第m个目标函数的最大和最小值。

3. 精英策略选择

精英策略就是保留父代中的优良个体直接进入子代,防止获得的Pareto最优解丢失。将第t次产生的子代种群和父代种群合并,然后对合并后的新种群进行非支配排序,然后按照非支配顺序添加到规模为N的种群中作为新的父代。


新闻标题:Python粒子群库函数 python粒子系统
文章来源:http://jkwzsj.com/article/dojgcpg.html

其他资讯