您好,欢迎来到化拓教育网。
搜索
您的当前位置:首页神经网络及其控制

神经网络及其控制

来源:化拓教育网


第一章 神经网络计算

§1-1神经元模型 一、概述 神经网络的特点

1. 定义:用于模拟人脑神经元活动过程,包括对信息的加工、处理、存贮和搜索过程。 2. 特点

(1) 信息分布式存贮 (2) 信息的并行处理与推理 (3) 信息的自组织、自学习 二、神经元的模型特征

神经元——多输入单输出的信息处理单元

膜电位——细胞内部和外部具有不同的电位,当外部电位为零时,内部电位称为膜电位。

ωi>0 —— 兴奋性神经元的突触 ωi<0 —— 抑制性

ωi=0 —— 第i个输入信号对该神经元不起任何作用

神经元具有以下特征: 1. 时空整合功能: (1) 空间总和:

定量描述为:整个神经元的膜电位(状态变化)与输入信号与其权重的线性组合:

nxii1i 是线性相关的

(2) 时间总和:不同时刻的输入信息对神经元的影响会重叠,

加起来,同时起作用。

(3) 时空整合: 根据空间和时间总和,神经元对不同时刻和

不同部位的输入进行处理,该过程称之为时空整合作用。 定量描述为:设第i个输入信号t时间后对膜电位的影响为ωi(t′),则在t时刻,神经元膜电位的变化与下式有关:

ni1ti(tt’)xi(t’)dt’ (1—1)

)——第i个输入在时间t′时的输入信号 式中xi(t’2 阈值特性

神经元的输入输出之间为非线性,如图1—2所示:

图1—2 阈值特性

即:

_yyu0u

——阈值

3. 不应期 本身是随着兴奋程度的变化而变化。

绝对不应期——当—>时,无论输入信号多强大,也不会有输出信号。

4. 突触结合的可塑性:即权重ωi是实时变化的。

二、 神经模型

图1—3 神经元模型

n输入处理:uik1KIK (1—2)

活化处理:xi(t)Fi(ui,xi) (1—3) 输出处理:oi(t)fi(xi) (1—4) 式中,fi()——输出函数,根据不同模型而定。

介绍三种典型的神经元模型: 1. 阈值单元模型(MP模型)

MP模型——处理0和1二值离散信息的阈值单元模型。

MP模型的数学表达式为:

yi1(ijxji)j10n(兴奋)ijxji(抑制)ijxji

()——阶跃函数

2. 准线性单元模型

特点:输入和输出均为连续值。(BP网络) 神经元i的总输入为:

n xij1ijxji (1—6)

输出为:

yifi(xi)11exp(xii) (1—7)

3. 概率神经元模型:

特点:输入信号采用0与1的二值离散信息,并把神经元的兴奋与抑制以概率表示。 神经元的总输入为

n

xij1ijxji (1—8)

xi到输出yi的概率分布为:

11exp(xi/T)P(yi1) (1—9)

式中:T——网络温度的函数 应用:用于Boltzman神经网络。

三、 基于控制观点的神经元模型

其主要功能由下列三部分完成: 1. 加权加法器---空间总和,即:

nMiji(t)ak1yi(t)bk1ikuk(t)i (1—10)

i——常数,其作用是控制神经元保持某一状态。

2. SISO线性动态系统---时间总和:

SISO线性系统对于单位脉冲函数的响应就完成了时间总和,该响应为卷积分:

xith(tt')vi(t')dt' (1—12)

式中,h(t)函数常选用下列五种形式:

(1)(2)h(t)(t)0t0h(t)1t0h(t)h(t)1T1a0eetT传递函数:H(s)1H(s)11Ts1a0sa1sT1S(3)(4)(5)

H(s)a0)t(a1H(s)h(t)(tT)H(s)e附:函数是用于处理许多集中于一点或一瞬时常,例如,点电荷,点热源,窄脉冲,集中力等现象,它可用以下三种形式来定义: (t)limG(t)(t)lim120πt(t)limsinwtwt

a 图b 图c

图a

图b

图c0

故有:

(t)dt1

对应于上述五种时间函数,vi(t)与xi(t)之间的关系分别为:

2.xi(t)vi(t)3.Txi(t)xi(t)vi(t) (1—14)

4.a0xi(t)a1xi(t)vi(t)5.xi(t)vi(tT)

1.xi(t)vi(t)3. 非线性函数---输出函数:

名称

yig(xi) (1—16)

式中,非线性函数g()的常见类如下表所示: 阈值函数 双向阈值函数 Sigma函数 双曲正切函高斯函数 数 g(x) 1x0g(x)1x0x g(x)g(x) 1e 1x00x01g(x)eeeexxxxx23 g(x)e 图形 特征

不可微,类阶不可微,类阶可微,类阶可微,类阶可微,类脉跃,正值 跃,零均值 跃,正值 跃,零均值 冲

§1-3 神经网络的结构和学习规则 一、 结构

层状结构:每层中有若干个神经元,相邻层中神 经元单向联接,同层内的神经内不连接

网状结构:任何两个神经元之间都可能双向联接。 1. 前向网络(前馈网络)

属于层状网络,如图1—5所示:

图1—5 前向网络

特点:(1).相邻层之间的神经元之间相互连接,各层内神经元

之间无连接 (2)无反馈

(3)各神经元可以有多个输入(输入层除外),并只有

一个输出给下一层的各神经元 (4)输入层中各输入关节无计数功能。

2. 反馈网络:

属于层状结构,如图1—6所示:

图1—6 反馈网络

特点:(1)每个神经元都具有计算功能,即为计算节点。

(2)每一个节点接收两个输入

a)外界输入

b)其它节点的反馈输入

(3)自环反馈:同一节点的输出反馈给自身做输入。

3. 相互结合型网络

属于网状结构,如图1—7所示:

图1—7 相互结合型网络

特点:(1)各个神经元之间都有可能双向连接

(2)各个神经元既作输入又做输出

4. 混合型网络

介于层状结合和网状结构之间的一种网络。如图1—8所示:

图1—8 混合型神经网络

特点:在前向网络中,同层神经元之间有互联的结构, 目的:同层内神经元同时兴奋或者抑制的神经元数目。

二、 神经网络的学习和训练

学习——一个节点收到兴奋输入,而且兴奋输入抑制输入足够大

时,使神经元对另一个神经元的影响发生变化,此即发生了学习行为。

学习方式:有教师学习

无教师学习

样本数据 输入 x1 输出 y1 输出误差 有教师学习 ys(教师数据) . . . . xs . . . . ys ys(网络输出)  无教师学习 图1—9 有——无教师学习的直观描述图

三、

神经网络的学习规则 ai 1. 联想式学习——Hebb规则 如图1—10所示:

ij u

i aj yi uuju输出 教师信号图1—10 Hebb规则

ti 权重变化ij:

ijG[ai(t),ti(t)]H[yj(t),ij] (1—17)

输出yj(t)与ai(t)之间满足:

yj(t)fj[aj(t)] (1—18)

式中fj[]——非线性函数

当无教师信号ti(t)时,式(1—17)就变为:

 ijai(t)yj(t) (1—19) 式中:——学习效率(>0)

2. 误差传播式学习——Delta规则(规则) 前述的函数G表示为:

G[ai(t),ti(t)]1[ti(t)ai(t)] (1—20) 则,把差值ti(t)ai(t)称为

1——正数 即>0

1设,函数H与yj(t)成比例,即:

H[yj(t),ij]2yj(t) (2>0) (1—21)

根据Hebb规则可得:

ij1[ti(t)ai(t)]2yj(t)

即:ij[ti(t)ai(t)]yj(t) (>0) (1—22)

式中:12

在式(1—22)中,若将教师信号ti(t)作为期望的输出di,ai(t)作为实际输出yi,则该式变为:

ij[diyi]yj(t)yj(t) (1—23)

——期望输出与实际输出的差值,式中:该式即为规则(误

差修正规则)

中心思想:通过反复迭代运算,求出最值的ij值, 使——>min.

缺点:只适用于线性可分函数

第二章 典型神经网络

§2-1 前向网络------BP网络 一、 感知器(Perception)

一种用于模式分类的网络模型,是一种具有单层计算单元的神经网络,信息处理规则为:

ny(t)fWi(t)xi (2-1)

i1x1

学习规则:

Wi(t1)Wi(t)dytxi 式中,------学习率(0<<1) d-------期望输出(教师信号) yt---实际输出

二、 前向分层网络的BP学习算法

x1W1(t) yj(t)x2W2(t)  第j个神经元输出采用阶跃函数 xn Wn(t)

如图2-1所示,BP网络包括输入层、隐含层及输出层,隐含层可以是一层或多层。

输入单元的活性(状态)代表输入的网络中的原始信息,每个隐单元的活性取决于输入单元的活性及它们之间的权值,同样,输出单元的行为取决于隐单元的活性及它们之间的权值。 1、

BP网络误差反向传播学习算法的基本思想。

BP算法的基本思想:

设EA------- 误差变化率(对于隐单元而言)。对于输出单元即为实际输出与期望输出之间的差值。

当计算在输出层前一层的一个隐单元的EA时,首先识别该隐单元与输出单元之间连接的权值,再

将这些权值分别乘以各自输出单元的EA,再求和,此和值即为该隐单元的EA。再计算前一层的EA值,其计算顺序与状态传播的方向相反。故称为误差反向传播算法。 2、

BP算法计算步骤

输入层 隐层 输出层 图2-1 BP网络结构 如图2-1所示,设单元j、i分别表示输出层和它前面一层中的一个单元,则,对输出层单元j的总加权输入x为:

j

xjywiiij (2-3)

式中,yi-------与输出层相邻的隐含层中第i单元的状态(活性水

平)

wij------第i与第j单元的连接权值

采用Sigmond函数(即S到函数)作为输出单元的状态,则

yj11exj (2-4)

则,利用(2-3)和(2-4)即可确定所有输出单元的活性,则网络的误差为:

E12j(yjdj) (2-5)

2式中,dj-------输出层中,第j个单元的期望输出。 则BP算法可分下列四个步骤,

a).计算输出单元j的实际输出与期望输出的差值 EAjEyjyjdj (2-6)

b).当总输入xj变化时,计算j单元的误差导数EIj,即 EIExjEyjyjdj(11exjjyjxj)exjxj1e

化简,并考虑式(2-4): EIjEAjyj(1yj) (2-7)

c).当wij改变时,计算j单元的误差变化率EWij, EWijEWijExjWijxjEIjyj (2-8)

式中,yj------与j单元相连接

d)当单元i的输出变化时的误差变化率EAi,

EAiEyixjEjxjyiEIjjWij (2-9)

由此可见,利用式(2-7)和(2-9)把一层单元的EA变成步面一层单元的EA,再利用式(2-7)和(2-8)计算作用于该单元上的EW。

3.BP算法的计算机实现过程:

a)初始化,对所有权值赋以任意小值,并设定阈值 b)给定训练数据样本,即(输入向量x,期望输出y c)计算实际输出:yifWx (2-10)

iji f ---------- Sigmaid函数 fx11ex (2-11)

d)调整权值,按误差反向传播方向,按下式修正权值 Wijt1Wijt式中,-------增益,>0

j------节点j的误差(其定义与(2-5)式相同)

yj1yjyjyjj为输出节点时 jyj1yjkWjkj为隐节点时kjyi (2-12)

 (2-13)

当使用冲量时,权值调整公式为:

Wijt1WijtjyjWijtWijt1(2-14) 式中,------动量因子,01

e)返回第2步重复,直至误差满足要求为止。(图2-2为其等法



框图)

初始化 给定输入向量和期望输出 求隐层、输出层各单元输出 求实际输出与期望输出的误差E Y E满足要求? 全部Ei满足? Y END N N 计算隐层单元误差 求误差梯度 权值学习(修改) 图2-2 BP算法框图

三、BP网络的改进算法

BP算法的优缺点:

优点:具有Sigmoid函数的三层网络可以任意精度逼近任何连续函数。 缺点:(1)迭代次数多,收敛速度慢

(2)易形成局部最小,得不到整体最优

(3)无反馈连接,影响信息交换速度和效率

(4)输入及输出节点据实际问题而定,而隐节点的选取无理论指导,据经验而定

(5)在训练学习样本,有遗忘旧样本的趋势。

1、MFBP算法

思路:在BP算法,增益系数为一固定值,因此收敛速度慢。为此,克服该缺点的基本出发点:(1)网络中每个参数的调节应有各自的学习率(增益)

(2)在网络学习过程中, 应根据网络误差曲面上的不同区域的曲率变化自适应调节。自适应调节规则为:

网络中每个节点的输入输出关系修改为:

Opj21exp2WjiOpjji11 (2-15)

式中,Opj---------模式输至网络时,节点j的输出

Opj---------模式输至网络时,与节点j以权重Wji相连接的节点i的输出 j-----------节点j的阈值 节点j的误差信号pj变为

tpjopj1opj1opjj为输出节点时pkWkj1opj1opjj为隐节点时k pj (2-16)

式中,tpj-------------当模式(样本)输入网络时,第j节点(输出层)的期望输出。

根据上述公式,可以得出一种快速FBP算法(MFBP算法之一)

权重调节公式:

Wji(t1)Wji(t)ji(t)ji(t)yi(t

p j(t1)jj(t)pj(t)

p式中,学习率ji和j的算法公式为:

ji(t) ji(t1)ji(t)ji(t)当pj(t)yj(t)2(t1)0p当pj(t)yj(t)2(t1)0 pelse 式中,1(t)1(t1)1pj(t)yi(t)

p 2(t)2(t1)1pj(t)

p 1(0) 2(0)ppj(0)yi(0) (0)

ppj式中,1,01,0p1均为选定的常数因子 Wji(0)与j(0)预先初始化为[-1,1]内随机数 ji(0)和j(0)为预先给定的一个小的正数

3、 自构形学习算法(隐节点重组过程)

在在网络拓扑结构中,隐节点的选择没有依据,隐节点较少,学习过程不收敛,隐节点

多了,存在冗余节点,网络性能下降。

学习过程分为预估和自构形两个阶段,预估就是根据经验设定一个隐节点数很大的步向网络结构,自构形就是网络根据学习情况合并无用的冗余节点,从而得到一个合适的网络。

设,yip隐节点i和j在学习第P个样本时的输出

yi,yj隐节点i和j在学习完所有几个样本后的平均输出

yi 则,

1n1nnp1nyip

yjp1yjp定义:同层隐节点的相关系数及样本分散度如下: 同层隐节点i和j之间相关系数

rij1n1nnp1yip2yyyyipjpijp1n212yiyipyjnp1n2

rij过大,说明节点i和j功能重复,应合并压缩样本分散度:

Si1n

Sjn1nyipyiyipyj222p12

np1Si过小,表明隐节点i的输出值变化很小,对网络的训练没有起什么作用。

基于上述定义,给出以下隐节点动态合并与删减规则: (1) 合并规则:

若rijC1且si,sj≥C2,则同层隐节点i和j可以合而为一。 式中C1=0.8~0.9,C2=0.001~0.01。 合并方法:令yj≈ayi+b 1 annyp1ipjpy1yiyj/nnyp12ipyi 2byjayi

输出节点k的输入为(如下图所示):

net(ink)(wkiyiwkjyj(wkb*1wklylli,jli,jwkiawkj)yiwkbbwkj)*1wklyl

得合并算法:

wkiwkiawkjkb

wkbwwb

k Wkb Wki Wkj yi Bias i J Yj

k bWkj + Wkb Wki + aWkj yi i

J

(2)删减规则:若si<c2,节点i可以删除。

Wkj Yj Bias

删减方法:令

yiyi,则输出节点k的输入为

li,jnet(ink)(wkiyiwkb*1wklyl

wkbwkiyi)*1wklylli,j删减方法:

wkbwkbyiwki

如下图所示:

K K

yiWki Wkb Wki + Wkb Bias i Bias i

总结:BP算法实质上是把一组样本输入输出问题转化为一个非线性优化问题,并通过梯度算法利用替代运算求解数值问题的一种算法。常见的改进算法有 (1) 冲量算法:其数值调整公式为

wkj(t1)wkj(t)jjjyR[wkj(t)wkj(t1)]

jj(t1)(t)j[(t)(t1)]α

------------冲量算法中的动量因子

对比试验 算法 BP基本算法 冲量BP算法 η 0.36 0.36 α 无 0.26 学习误差 0.001 0.001 学习次数 3361 2580

(2) 数值和阀值的初始化:

一般为[0,1]之间的随机值,但是改变赋值范围可以改变BP网的收敛性。下表为其他条件相同的情况下,初始数值范围不同得出的结果

数值范围(赋值) 【0,1】随机值 【0,0.5】随机值 η 0.36 学习误差 0.47325 0.001 学习次数 3361 2580 0.36 (3) 学习样本的预处理 合适选择样本的数量级,可以明显改善网络的收敛特性。 定义:学习样本输入向量之间的Hamming距离

d(,x)HxIJIJ12ni1(IxixJi)

2式中x,x----------第i和j个样本向量。

I,J-----------第i个样本向量的第i个对应元素。 xixi n------------------向量的长度。

Hamming距离大,数量级大,反之,Hamming距离小,数量级小。

下表位神经网络结构,初始数值,学习函数,算法条件相同的情况下,Hamming距离变化对网络的影响。 学习样本预处理 原样本/10 原样本 原样本*10

η 0.36 0.36 0.36 学习误差 1.99907 0.001 0.44256 学习次数 10000 3361 10000

模糊遗传算法及建模(genetic algorithm)

一、GA算法简介

GA算法是具有“生成+检测”(generate and test)的迭代过程的搜索算法。 GA算法的三个主要操作算子为

(1) selection (2) crossover (3) mutation

GA算法的五个基本要素 (1) 参数编码

(2) 初始群体的设定 (3) 适应度函数的设计

(4) 遗传操作设计

(5) 控制参数设计(群体大小,遗传操作的概率)

编码和初始群体的生成 群体中个体适应度的检测评估 选择selection 交叉crossover 变异mutation

用一个求函数数值为例,来概述遗产算法的基本概念及处理过程。 例:用GA求f(x)=x2的最大值,x∈[0,31]下表为计算过程及结果

串编号 初始群体 X值(无

(随机符号产生) 整(n=4) 数) 二进制 1 2 3 4 适应度总

适应度f(x)=x2 选择概率Ps 适应度期望值fi/f 实际计数 复后制配对交(随交叉位置新一代群Xf(x)=x2 值 配率 机选(随体 择) 机选择) 4 4 2 2 01100 12 144 11001 25 625 11011 27 729 10000 16 256 1754 01101 11000 01000 10011 13 24 8 19 169 576 361 0.14 0.58 0.49 1.97 0.06 0.22 0.31 1.23 1 2 0 1 011011 2 110010 1 111000 4 101011 3 1170 1.00 4.00 4.0

和 平均适应度 最大适应度

其中:Ps=fi/∑f

平均适应度f表中计算数据的解释

(1) 编码

GA不能直接处理解空间的解数据,数通过编码将其表示程遗传空间的基因型串结构数据。如x=13表示成01101的形式。 (2) 初始群体的组成

遗传操作需要一个由若干初始解组成的初始解群体。为简化起见,取群体大小为4,即4个个体组成(如表中13,24,8,19)。初始群体的每个个体都是随机产生的。初始群体也叫第一代(first generation) (3) 适应度评价检测

GA是用评估函数来评估个体或解的优劣,并作为遗传操作的依据。评估函数值又称为适应度(fitness)。例中,根据f(x)=x2来评估群体中各个个体。显然,为了利用f(x)=x2这一评估函数即适应度函数,要将基因型个体(即二进制个体)译码成表现性个体(即十进制个体),亦即搜索空间中的解。 (4) 选择(selection)(或者叫复制操作)

目的是为了从群体中选择出优良的个体,使他们有机会作为父代为下一代繁殖子孙。判断优良的准则就是各自的适应度值。个体适应度越高,其被选择的机会就越多。其选择方式是采用概率方式,即计算每个个体的适应度值与群体中的所有个体的适应度值的总和之比来表述选择概率。即fi/∑f(表中,给出了选择4个个体的概率)。由概率可以计算出每个个体被选择的次数。

可采用如图所示的赌轮(roulette wheele)的方式来决定各个个体的选择份数。在赌轮上,按照各个个体适应度值按比例进行了分配,转动赌轮4次,就可以决定各自的选择份数。

表中的结果是:个体1和4各复制(或选择)1份,个体2复制2份(各占个体3的位置),个体3被淘汰了。

由此。得到4份复制送到配对库,以备繁殖。

293 0.25 1.0 1.0 439 576 0.49 1.97 2.0 729 fin

31% 14% 6% 49%

(5) 交叉操作

可分两步进行:

①配对库的个体进行随机配对(如个体1和2,3和4) ②在配对个体中随机设定交叉处 如: 01101

交叉

01100

01100 11001

11000

交叉

11011 10000

10011

即形成了新一代。由表中可以看出,新群体中的个体适应度的平均值和最大值都有了明显的提高。

事实上,对于有几十个到几百个变量组成的函数,GA可以不依靠任何外部知识,而仅用适应度函数来指导优化搜索方向。

(6)变异(mutation)

变异是按位进行的,即把某一位的内容进行变异。对于二进制编码的个体来说,若某位原为“0”,变异后就变成了“1”。

变异操作也是随机进行的。

一般而言,变异概率Pm取值很小,如本例中,取Pm=0.001,由群体中可以变异的位数为:4个个体×5位=20位。

则可变异的位数为:20×0.001=0.02位。即说明群体中没有异味可以变异。

变异的目的是克服有可能限于局部最优解的缺点。上述GA算法为简单遗传算法(SGA) 二、遗传算法在模糊规则优化和模糊模式识别中的应用。 1、基于遗传算法的模糊推理规则的优化

(1)编码:

为讨论方便,条件都以可变的三角行录属函数为例结论都以实数值构成。如下图所示:对录属函数的每一个个体的编码由三部分组成:

1) 条件都录属函数的顶点之间的距离S

2) 以顶点横坐标为基点,至底边两端点的距离M和N

(2)适应度函数:

为对上述个体进行定量评价,须设定适应度函数(评价函数),为此,定义:实际输出和期望输出(计算输出)之间的误差平方和E,E↓则适应度函数高,则定义适应度函数如下式: F(Si)1/E1PK112

2(ykytk)式中: Si ----- 第i个个体 E ----- 误差平方和 (3)交叉操作

在初始群体中,随机选取A和B两个个体进行交叉操作,如下图,以S为例,可以交叉点为界,分为左右两侧

A1ab A2cd B1 B2

可以产生四种子本:

子本1: 子本2:

a b

B2A2

B2A2 α β

cA2B2

dA2B2

(交差点左侧,继承A左侧信息,右侧,按 (交叉点左侧继承B左侧信息,右 比例继承A的部分信息) 侧按比例)继承B的部分信息) 子本3: 子本4

B1A1

B1A1 c d

A1B1

A1B1  

其他遗传操作,如变异,选择等可按常规方法,通过GA对录属函数进行初调,确定录属函数的形状。

2、遗传算法在模糊模式识别中的应用

模糊模式识别方法一般采用将模式空间进行分割的方法,这种方法有一定局限性。例如,如图所示黑白两种员的模式识别问题,很显然,左半边需要细的模糊分割,右半边则教粗。若采用单一的模糊格子要进行合适的模糊分割是很困难的。因此,提出一种同时采用粗的模糊分割和细的模糊分割想结合,这种多种模糊分割,将引起模糊if----then 规则数大大增加的问题。

因此,下面介绍一种从对应于多种模糊分割的多个模糊if----then规则中选出最必须的最小限度规则,并建立小型高性能的模糊识别系统。

下面分两步进行介绍:

第一步:介绍一种基于一般模糊if----then规则的模式识别,它首先将构成模糊识别系统作为一种选择if----then规则组合优化问题,其目标函数是正确率最大和规划数最小化。

第二步,介绍采用遗传算法,将模糊if----then规则的集合作为一个个体,将上述两个目标的加权和作为个体的适应度,然后用GA进行优化组合。

(1)

由模糊if----then规则的模式识别说明一下模糊if----then规则的生成方法。以二维问题为例。 定义:模式之间设定为[0,1]×[0,1],学习用数据分成M个群[C1,C2,----Cm)对应于M个模式Xp(xp1,xp2),p=1,2,---M. 各维由模糊分割成k个模糊集合A1,A2,,AK

KKK

则,基于模糊if----then规则的模糊识别系统可采用如下规则: Rij:if x1 is AiK and x2 is Aj

Then (x1, x2) belongs to Cijwith CF=CFij 式中:AiK,Aj----规则条件部的模糊集合。 Cij----规则的结论。 CFij----规则的可信度

对于k=2和k=3时,各维的模糊分割和模糊集合的标志关系为:

22KKKKKKKA R(S2) R(S4) 212222A 33R13(S7) R23(S10) R33(S13) R13(S6) R22(S9) R3(S) 3212R11(S5) R21(S8) R31(S11) 33333333X2 21 R11(S1) R21(S3)22A2 3 A A1 3A1 2A22A1 A2 A3 333 A 的下标表示分割的空间编号 A的上标表示分割的总数 上图中,Si-----规则的顺序符号(将在GA中应用)

上图是采用三角形模糊集合(不是三角行录属函数)对应的,三角形模糊集合Ai的录

K属函数可写成i()

Kkai(x)max1xk,0i=1,2,------,k

bkikk式中:ai---三角形模糊集合的中心,ai(i1)/(k1)

b1/(k1)

If----then规则的结论Cij及可信度CFij,可由学习模式Xp(p=1,2,---M)按下述程序自动生成:

(1) 对t群(Ct),求出: ctkkkpCtki(xp1)j(xp2) (t=1,2,----,m)

k(2) 求出ct最大的数据群Cx,即:

Cx:cx=maxc1,c2,,cm 则CijCx

若有若干个群取最大值,则Cij就不能唯一确定,此时,令Cij=Φ

(3) 若Cij=Φ时,CFij=0,若Cij≠Φ时,CFij按下式计算:

mkkkkkk

CFkijcx/ct

t1 ct1,ttx(ctcx)t/(m1)

如前所述的黑白圆的模式识别问题,设k=2,k=6两种情况生成的模糊if----then 规则如下图所示

图中:斜线区域:Cij是第一群(黑圆规则) 点的区域:Cij是第二群(白圆规则) 空白区域:Cij是Ф的空规则

由此可见,分割越细(k↑),结论Ф的虚规则属较多 下面进行模糊识别:

按上述方法生成的模糊if----then规则集合的全部集合用sall表示: SALLRiji1,2,k;j1,2,k;k2,3,L

kkkk式中:L—各维模糊分割数的最大值。 此时,未知模式Xp(xp1,xp2)的识别方式为:

①对于t群Ct:aCtmaxikxp1kxp2cFijkcijkt;RijkS j式中:S-------SSAll,表示部分规则集 ②求满足下式的群CX:



acxmaxac1,ac2,,acm,

若式中,有两个以上的群都有最大值,则未知模式Xp很难识别,在上述图中,k=2和k=6的识别结果为:

k=2 k=6 图中,网格区域为不能识别的区域。

(2) 组合最优化问题:

目标函数:NCP(S)→max (由规则集S能正确识别学习用模式的数目,即正确率)

∣S∣→min (模糊if---then规则数) 约束条件:SSAll

对该优化问题采用GA来求解

(3) 基于GA算法的最优化方法:

a) 适应度函数的定义:

WNCPNCP(S)WSS,0 定义规则集S的适应度:f(s)max式中:WNCP0,为NCP(S)的权值。 WS0为∣S∣的权值。

b)定义个体:

把规则集S表示成张为N(N=∣SAll∣)的序列: SS1,S2,,SN

1表示第r号规则是S中的规则 式中:Sr0表示第r号规则是虚规则 r=1,2,---,N

1表示第r号规则不是S中的规则 c)遗传操作:

①初始群体的开分成

对虚规则以Sr0表示,其他的模糊if---then规则随机以Sr1或Sr1表示,从而生成初始群体。

②随机选择概率:

选择概率公式:PSf(S)/ 表示以P(S)概率选择S

S'Tf(S')

式中:t---第t个代个体的集合

③交叉操作:

按上述选择概率选出两个个体进行交叉操作,生成两个新的个体,不断重复,

生成下一代个体群。

④变异操作:

由交叉操作生成的各个个体Sr,按变异概率进行如下操作 SrSr(1)

由1→(-1)或由(-1)→1,但对Sr0时,Sr值不变 ⑤优化保存方法:

对于前一代中最佳个体,即适应度f(S)最大的个体,必须在下一代中保存下来。

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- huatuo9.cn 版权所有 赣ICP备2023008801号-1

违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务