【神经网络学习笔记】遗传算法优化BP神经网络-非线性函数拟合

news/2024/7/10 3:46:06 标签: BP神经网络, 优化, 遗传算法

我们知道,在建立神经网络的时候,需要给各个节点和连接赋予阈值和权值,但一般我们都是随机赋予,然后让系统在一次次的训练中需找到最小值。这种方法很有一种碰运气的成分在里面,而用遗传算法优化BP神经网络则可以让神经网络从一个较接近的水准开始训练。

所谓用遗传算法优化优化的是神经网络训练前各节点的初始值,这些初始值不再取随机值,而是用我们通过遗传算法得到的值来代替。

我们把每个物种赋予一个DNA序列,这个序列包含着各个阈值和权值,假设我们的网络是一个2-5-1的网络,那么DNA的长度就可以是2*5+5+5*1+1 = 21,每位表示一个阈值或权值。

再设定好这个种群的大小,即有多少个个体,然后就可以开始进化这个物种啦。

进化过程不短重复这几步

1.计算个体的适应度,即代入它的基因(阈值权值)计算所得到的与期望值的差值。

2.记录适应度最好即差值最小的个体。

3.轮盘法选择个体,适应度好的更容易被选到。

4.把选择出来的个体进行交叉和变异,相当于生物的有性繁殖和基因突变。

到了设定的遗传代数之后,得到的最优个体基因就比较接近最终的阈值权值啦,我们用这个个体的基因来初始化BP神经网络,再进行训练和预测,可以得到更好的效果。

下面是主函数的代码,其中的子函数请下载资源。

%% 该代码为基于遗传算法神经网络的预测代码
% 清空环境变量
clc
clear
% 
%% 网络结构建立
%读取数据
load data input output

%节点个数
inputnum=2;
hiddennum=5;
outputnum=1;

%训练数据和预测数据
input_train=input(1:1900,:)';
input_test=input(1901:2000,:)';
output_train=output(1:1900)';
output_test=output(1901:2000)';

%选连样本输入输出数据归一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);

%构建网络
net=newff(inputn,outputn,hiddennum);

%% 遗传算法参数初始化
maxgen=20;                         %进化代数,即迭代次数
sizepop=10;                        %种群规模
pcross=[0.2];                       %交叉概率选择,0和1之间
pmutation=[0.1];                    %变异概率选择,0和1之间

%节点总数
numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum;

lenchrom=ones(1,numsum);        
bound=[-3*ones(numsum,1) 3*ones(numsum,1)];    %数据范围

%------------------------------------------------------种群初始化--------------------------------------------------------
individuals=struct('fitness',zeros(1,sizepop), 'chrom',[]);  %将种群信息定义为一个结构体
avgfitness=[];                      %每一代种群的平均适应度
bestfitness=[];                     %每一代种群的最佳适应度
bestchrom=[];                       %适应度最好的染色体
%初始化种群
for i=1:sizepop
    %随机产生一个种群
    individuals.chrom(i,:)=Code(lenchrom,bound);    %编码(binary和grey的编码结果为一个实数,float的编码结果为一个实数向量)
    x=individuals.chrom(i,:);
    %计算适应度
    individuals.fitness(i)=fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn);   %染色体的适应度
end
FitRecord=[];
%找最好的染色体
[bestfitness bestindex]=min(individuals.fitness);
bestchrom=individuals.chrom(bestindex,:);  %最好的染色体
avgfitness=sum(individuals.fitness)/sizepop; %染色体的平均适应度
% 记录每一代进化中最好的适应度和平均适应度
trace=[avgfitness bestfitness]; 
 
%% 迭代求解最佳初始阀值和权值
% 进化开始
for i=1:maxgen
    i
    % 选择
    individuals=Select(individuals,sizepop);
    avgfitness=sum(individuals.fitness)/sizepop;
    %交叉
    individuals.chrom=Cross(pcross,lenchrom,individuals.chrom,sizepop,bound);
    % 变异
    individuals.chrom=Mutation(pmutation,lenchrom,individuals.chrom,sizepop,i,maxgen,bound);
    
    % 计算适应度 
    for j=1:sizepop
        x=individuals.chrom(j,:); %解码
        individuals.fitness(j)=fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn);   
    end
    
  %找到最小和最大适应度的染色体及它们在种群中的位置
    [newbestfitness,newbestindex]=min(individuals.fitness);
    [worestfitness,worestindex]=max(individuals.fitness);
    % 代替上一次进化中最好的染色体
    if bestfitness>newbestfitness
        bestfitness=newbestfitness;
        bestchrom=individuals.chrom(newbestindex,:);
    end
    individuals.chrom(worestindex,:)=bestchrom;
    individuals.fitness(worestindex)=bestfitness;
    
    avgfitness=sum(individuals.fitness)/sizepop;
    
    trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度
    FitRecord=[FitRecord;individuals.fitness];
end

%% 遗传算法结果分析 
figure(1)
[r c]=size(trace);
plot([1:r]',trace(:,2),'b--');
title(['适应度曲线  ' '终止代数=' num2str(maxgen)]);
xlabel('进化代数');ylabel('适应度');
legend('平均适应度','最佳适应度');
disp('适应度                   变量');

%% 把最优初始阀值权值赋予网络预测
% %用遗传算法优化的BP网络进行值预测
w1=x(1:inputnum*hiddennum);
B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

net.iw{1,1}=reshape(w1,hiddennum,inputnum);
net.lw{2,1}=reshape(w2,outputnum,hiddennum);
net.b{1}=reshape(B1,hiddennum,1);
net.b{2}=B2;

%% BP网络训练
%网络进化参数
net.trainParam.epochs=100;
net.trainParam.lr=0.1;
%net.trainParam.goal=0.00001;

%网络训练
[net,per2]=train(net,inputn,outputn);

%% BP网络预测
%数据归一化
inputn_test=mapminmax('apply',input_test,inputps);
an=sim(net,inputn_test);
test_simu=mapminmax('reverse',an,outputps);
error=test_simu-output_test;

END


http://www.niftyadmin.cn/n/1869386.html

相关文章

【神经网络学习笔记】粒子群算法和遗传算法比较

粒子群算法(PSO)和遗传算法(GA)都是优化算法,都力图在自然特性的基础上模拟个体种群的适应性,它们都采用一定的变换规则通过搜索空间求解。 PSO和GA的相同点: (1)都属于仿生算法。PSO主要模拟鸟类觅食、人类认知等…

论坛高级签名_泰斗新书首发仪式暨“土木技术论坛”第三讲:上海隧道工程之肈端隆重举行【赠书】...

(文末福利)《基坑工程时空效应理论与实践》《隧道泰斗地铁先驱资深专家王振信访谈录》新书首发仪式暨“土木技术论坛”第三讲“上海隧道工程之肈端”隆重举行11月6日,上海市土木工程学会主办的《基坑工程时空效应理论与实践》、《隧道泰斗地铁先驱资深专家王振信访谈…

【神经网络学习笔记】PID神经元网络解耦控制算法

%% 该代码为基于pso算法优化的PID神经网络的系统控制算法 % %% 清空环境变量 clc clear%% 粒子初始化 %粒子群算法中的两个参数 c11.49445; c21.49445; %最大最小权值 wmax0.9; wmin0.1; %最大最小速度 Vmax0.03; Vmin-0.03; %最大最小个体 popmax0.3; popmin-0.3;maxgen50; …

网站刷关键词_如何让关键词SEO排名,长期稳定?

对于每个企业主而言,他们都期望关键词SEO排名,可以长期稳定,从而带来持续不断可观的收入,但在现实工作中,关键词排名几乎是一个动态指标,如果你试图让关键词SEO排名,长期稳定,我们可…

【matlab学习笔记】交叉验证

在建模时,如果数据较少,我们常用交叉验证的方法来验证模型的正确性。 在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和…

烂泥:学习mysql数据库主从同步复制原理

MySQL的Replication(英文为复制)是一个多MySQL数据库做主从同步的方案,特点是异步复制,广泛用在各种对MySQL有更高性能、更高可靠性要求的场合。与之对应的是另一个同步技术是MySQL Cluster,但因为MySQL Cluster配置比…

【神经网络学习笔记】基于离散Hopfield神经网络的数字识别

在日常生活中,经常会遇到带噪声字符的识别问题,如交通系统中汽车车号和汽车牌照,由于汽车在使用过程中,要经受自然环境的风吹日晒,造成字体模糊不清,难以辨认。如何从这些残缺不全的字符中攫取完整的信息&a…

go python 比较 devops_python字符串方法总结

最近想着总结一下python里面关于字符串方法使用的相关知识,无意间发现一个比较好的内容,所以搬移到此,以便后期查找,也分享给大家,如若原文作者有疑问请联系我及时删除,谢谢!转载于:…