第一范文网 - 专业文章范例文档资料分享平台

第4章 SOM自组织特征映射神经网络

来源:用户分享 时间:2020-06-21 本文由只剩骄傲 分享 下载这篇文档 手机版
说明:文章内容仅供预览,部分内容可能不全,需要完整文档或者需要复制内容,请下载word后使用。下载word有问题请添加微信号:xxxxxx或QQ:xxxxxx 处理(尽可能给您提供完整文档),感谢您的支持与谅解。

第4章 SOM自组织特征映射神经网络

生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。

据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。

4.1 竞争学习算法基础[6]

4.1.1 自组织神经网络结构

1.定义

自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

2.结构

层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。

?竞争层输入层?

图4-1 自组织神经网络结构

· 输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。

竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。

4.1.2 自组织神经网络的原理

1.分类与输入模式的相似性

分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。

2.相似性测量

神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。

(1)欧式距离法

设X,Xi为两向量,其间的欧式距离

d?X?Xi?d (X?Xi)(X?Xi)T (4-1)

越小,X与Xi越接近,两者越相似,当d?0时,X?Xi;以d?T(常数)为判据,可对输入向量模式进行聚类分析:

由于d12,d23,d31均小于T,d45,d56,d46均小于T,而d1i?T(i?4,5,6), d2i?T(i?4,5,6), 故将输入模式X1,X2,X3,X4,X5,X6d3i?T(i?4,5,6),

(2)余弦法

设X,Xi为两向量,其间的夹角余弦

cos??XXXT分为类1和类2两大类,如图4-2所示。

Xi (4-2)

?越小,X与Xi越接近,两者越相似;当?=0时,cos?=1,X?Xi;同样以???0为

判据可进行聚类分析。

X2X1X4X5X6X3类1T类2

图4-2 基于欧式距离法的模式分类

3.竞争学习原理

竞争学习规则的生理学基础是神经细胞的侧抑制现象:当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。最强的抑制作用是竞争获胜的“唯我独兴”,这种做法称为“胜者为王”(Winner-Take-All,WTA)。竞争学习规则就是从神经细胞的侧抑制现象获得的。它的学习步骤为:

(1)向量归一化

对自组织网络中的当前输入模式向量X、竞争层中各神经元对应的内星权向量

?: ?和Wwj(j?1,2,?,m),全部进行归一化处理,如图4-3所示,得到Xj??XXX??Wj (4-3) , WjWjyjjW1jWijX1Wnjk??XnXi

图4-3 向量归一化

(2)寻找获胜神经元

?(j?1,2,?,m)进行相似性比较。最相似?与竞争层所有神经元对应的内星权向量W将Xj?*: 的神经元获胜,权向量为Wj??X?Wj*?minj?{1,2,?,n}???W?Xj?

??W?*??Xj??W*)(X??W*)T?(Xjj?X?XT?*X??2WjT?*W?*T??Wjj?*X?T) 2(1?Wj?*X?T?max(W?X?T) (4-4) ?Wjjj(3)网络输出与权调整

按WTA学习法则,获胜神经元输出为“1”,其余为0。即:

??1yj(t?1)????0j?j*j?j* (4-5)

只有获胜神经元才有权调整其权向量Wj。其权向量学习调整如下:

*?*(t)??W*?W?*(t)??(X??W?*)?W*(t?1)?Wjjjj?j (4-6) ?*?j?j??Wj(t?1)?Wj(t)0???1为学习率,?一般随着学习的进展而减小,即调整的程度越来越小,趋于聚类中心。

(4)重新归一化处理

归一化后的权向量经过调整后,得到的新向量不再是单位向量,因此要对学习调整后的向量重新进行归一化,循环运算,直到学习率?衰减到0。

为了更好地说明竞争学习算法的聚类分析效果,下面以一具体实例进行计算[6]。

【例4-1】用竞争学习算法将下列各模式分为两类

X1?(0.8,0.6), X2?(0.1736,?0.9848), X3?(0.707,0.707), X4?(0.342,?0.9397), X5?(0.6,0.8),

学习率?=0.5。

【解】 将上述输入模式转换为极坐标形式:X1?1?36.89?,X2?1??80?,

X3?1?45?,X4?1??70?,X5?1?53.13?。如图4-4所示。

X5X3X1W2W1X4X2

图4-4 模式向量图

要求将各模式分为两类,则竞争层为两个神经元,设两个权向量,随机初始化为单元向量:W1(0)?(1,0)?1?0?,W2(0)?(?1,0)?1??180?,其竞争学习过程如下:

(1)X1

d1?X1?W1(0)?1?36.89,d2?X1?W2(0)?1?216.89 d1?d2,神经元1获胜,W1调整。

W1(1)?W1(0)??(X1?W1(0))?0?0.5?36.89?1?18.43W2(1)?W2(0)?1??180????

(2)X2

d1?X2?W1(1)?1?98.43,d2?X2?W2(1)?1?100 d1?d2,神经元1获胜,W1调整。

W1(2)?W1(1)??(X2?W1(1))?18.43?0.5?(?80?18.43)?1??30.8W2(2)?W2(1)?1??180????

(3)X3

d1?X3?W1(2)?1?75.8,d2?X3?W2(2)?1?225 d1?d2,神经元1获胜,W1调整。

W1(3)?W1(2)??(X3?W1(2))??30.8?0.5?(45?30.8)?1?7???

搜索“diyifanwen.net”或“第一范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,第一范文网,提供最新小学教育第4章 SOM自组织特征映射神经网络 全文阅读和word下载服务。

第4章 SOM自组织特征映射神经网络 .doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
本文链接:https://www.diyifanwen.net/wenku/1091763.html(转载请注明文章来源)
热门推荐
Copyright © 2018-2022 第一范文网 版权所有 免责声明 | 联系我们
声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。
客服QQ:xxxxxx 邮箱:xxxxxx@qq.com
渝ICP备2023013149号
Top