量;
(4)输入一个学习样本,计算网络输出值
y?w1h1?w2h2????wmhm
(1)
(5)输出权值wj、隐层节点中心cj和节点基宽函数bj的学习迭代算法:
wj(k)?wj(k?1)??(y(k)?ym(k))hj
(2)
?bj?(y(k)?ym(k))wjhjX?Cjb3j2
(3)
bj(k)?bj(k?1)???bj
(4)
?Cji?(y(k)?ym(k)wjxj?cjib2j
(5)
Cji(k)?Cji(k?1)???Cji
(6)
其中?为学习步长;各个学习步长都取一个较小值0.2。 (6) 反复输入学习样本,并调整所学习的三个参数; (7)若学习达到所要求的性能指标,则停止;否则返回第4步;
其中网络的性能指标函数(误差精度)为:
9
m1N??J(k)???y?k???wi?k?hi?k??2k?1?i?1?2
(7)
N为学习的样本个数。学习终止条件为J(n)?0.01。 经过1014次训练后网络收敛。训练和检验结果见表1。可见训练样本与检验样本的网络实际输出与期望输出非常接近。
4粒子群算法优化
优化的基本方法是建立一个指标函数,通过在可行解集中迭代来改进指标函数值。传统的优化方法是产生一个确定的试验解序列,当满足一定条件时这个确定序列收敛于局部最优解,但欲寻求全局最优解或指标函数中存在随机摄动时
传
统方法就无能为力了,有学者将遗传算法引入材料工艺优化中来,取得了不错的效果。但是遗传算法要通过交叉(crossover)、变异(mutation)、选择(selection)等算子操作,因此收敛速度较慢,优化效率不高。而粒子优化群算法(PSO)是根据自己的速度来决定搜索,因此能圆满地解决上述问题
粒子群优化算法是Kennedy和Eberhart等在1995年提出的一种优化算法。该算法模拟鸟集群飞行觅食的行为,通过鸟之间的集体协作使群体达到目的。其基本思想如下:
10
[9]
[8]
[7]
设在D维空间上考虑一个优化问题:
C?f(x1,x2,…,xd)
(8)
为此在D维空间上取n个点构成该算法的种群,用C的大小来评价每个点的优劣。粒子i的信息可以用D维向量表示, 位置表示为Xi?(xi1,xi2,......,xiD)T, 速度为Vi?(vi1,vi2,......,viD)T, 其他向量类似。则速度和位置更新方程为
k?1kkkkkkvid?wvid?c1rand1k(pbestid?xid)?c2rand2(gbestd?xid)
k?1kk?1xid?xid?vid(9)
1?d?D (10)
1?i?n
本文所建立的粒子群优化的主要参数叙述如下: 1)优化结果空间:1维,聚合效率y;
2)搜索空间为D:4维,分别是激光能量密度x1、环境压强x2、沉积时间x3和靶与衬底之间的距离x4。初始点的位置Xi0及其速度Vi0通常是在允许的范围内随机产生的。并用RBF神经网络计算出其相应的值pbest,记录其中最好值gbest和序号Xi0, 并置为当前位置 3)群体规模n:12个初始粒子;
4)惯性权重w的确定:w=0.729;惯性权重w 使微粒保持运动惯性, 使其有扩展搜索空间的趋势, 有能力探索新的区域
5)加速常数c1 和c2的确定:选择c1 =c2=1.494;加速常数c1
11
和c2 代表将每个微粒推向pbestt 和gbest 位置的统计加速项的权重。
6)最大速度Vmax的确定;选择Vmax=1;为防止粒子远离搜索空间飞过好解。
7) 指标函数的取得:本例取为训练好的RBF神经网络评价每一个粒子计算粒子的适应度值。如果好于该粒子当前的个体极值, 则将pbest设置为该粒子的位置, 且更新个体极值。如果所有粒子的个体极值中最好的好于当前的全局极值, 则将gbest 设置为该粒子的位置, 记录该粒子的序号, 且更新全局极值;
8)粒子的更新;用式(9) 和式(10) 对每一个粒子的速度和位置进行更新。
9)优化终止条件Gmax的确定:学习次数达到400次; 采用上述算法每迭代100次显示一次优化结果见下表2,收敛过程见图3。
12
相关推荐: