建立起一个竞争网络,有输入层和竞争层组组成,如下图所示,初始权向量为已经归一化为:
训练集合有五个样本向量$x_n ,n = 1,2,3,4,5$,均位于单位圆上,各自所对应的角度分别为:
$$\left| {x_n } \right| = 1,\space \space \space \space x_n = \left{ {45^ \circ ,90^ \circ ,210^ \circ ,240^ \circ ,300^ \circ } \right}$$
1.使用胜者为王的算法对权系数 $W_1 ,W_2$ 进行调整, 写出经过一轮训练之后的权系数调整结果。假设学习速率η=0.6.
2.对比讨论学习速率η不同收敛情况对于训练结果的影响。
(1) 第一种情况:η按照等比下降。
$$\eta \left[ {n + 1} \right] = 0.5\eta \left[ n \right]$$
(2) 第二种情况:η按照训练步数线性下降.
$$\eta \left[ n \right] = {{N - n} \over N} \times 0.5,\space \space N = 100$$
N:训练总步数,可以选取N=100
3.讨论 $W_1 ,W_2$ 不同的初始化位置,对于训练结果是否有影响。
下面是三个字母C,H,L样本的5×5点阵图:
给它们添加噪声,形成带有噪声的样本,噪声样本与正确样本之间的海明距离(Hamming Distance)为1,即两个二值向量之间不相同元素的个数为1,下面是三个字母的噪声样本的示例:
带有噪声的样本可以在原有正确样本的基础上,随机选择一个元素,将其从原来的0或者1,改变成1,或者0。因此字母C,H,L各自有25个与其Hamming距离为1的带有噪声的样本。
1. 建立一个竞争层三个节点的竞争神经网络,并对其权系数随机初始化成0~1之间的随机小数;
2. 使用胜者为王(Win-Take-All)算法,使用三个字母正确的样本和5个带有噪声的样本进行训练。自行设置学习速率和它的减少规律;
3. 给出最终的训练后三个神经元的内星向量结果。
4. 验证三个字母其它剩余的20个噪声样本在该竞争网络的识别性能。
5. (选做)随机生成三个字母的Hamming距离为2的噪声样本,并验证上述竞争网络识别的效果。
使用SOM对于下面六种点阵字体进行聚类,分别讨论三种拓扑结构下聚类的效果:
(1) 无拓扑结构 (2) 一维拓扑结构 (3) 二维拓扑结构
从网络上截屏得到六种5×7点阵ASCII字体,分别将A~Z字符点阵转换成0-1字符串,存储在作业文件ASCIIFONT.TXT中。
点阵数据也可以从下面CSDN文章中拷贝而得。
关于字符点阵转换过程说明参见如下CSDN文章。https://zhuoqing.blog.csdn.net/article/details/121060703
(1) 网络设计要求
(2) 从六种字体点阵中选择如下八个字符训练SOFM,
总共有48个字符。
G H I N O Q U H(3) 竞争层分别采用三种不同的拓扑结构,讨论训
练结果。
(4) 拓展练习:可以自行选择其它字符的六种不同的
字体对设计的网络进行训练。
使用SOM对于下面六种数据集合进行聚类。
(1) 任选2~3种数据集合进行实验;
(2) 根据数据分布特征,确定合适的竞争层神经元数据,并分别利用一维,二维拓扑结构完成网络训练。
(3) 对于训练结果进行展示,并讨论网络参数(神经元个数,拓扑结构)对于训练结果的影响。
注:由于SOFM网络是无导师训练算法,因此,对于不同的数据集合,将所有的点阵都当做统一的训练数据。
数据集合产生方法参考文献:
应用在机器学习中的聚类数据集产生方法: https://zhuoqing.blog.csdn.net/article/details/109975990
产生螺旋分类样本集合 SpiralData: https://zhuoqing.blog.csdn.net/article/details/119114663
自组织特征映射(SOFM)网络有15个竞争层的神经元,它们具有一维的拓扑结构。100个样本随机均匀选取于下图所示的三角形区域内。
进行训练后,给出神经元在坐标平面上的位置分布。阐述SOFM的“保序”特性。
提示:所用到的MATLAB语句
net = newsom([0 1;0 1],[50]);
net = train(net,P)
plotsom(net.iw{1,1}, net.layers{1}.distances)
利用SOFM解决旅行商路径规划问题。
(1) 下面给出了三种位置 所在的位置分布;
(2) 请使用SOM网络求解这三种位置分布优化后的路径。
使用CPN网络逼近Hermit多项式。
训练样本:从[-4,4]之间随机选取x取值以及对应的Hermit多项式的函数值。
1. 构造单向CPN和双向CPN完成上述网络并进行训练。
2. 对比在相同的20个隐层节点的情况下,两种CPN逼近函数的精度。
构造LVQ网络完成下面两类样本的分类问题。
(1) 上面数据集合产生方法请参照第四小题;
(2) 任选择其中一个数据集和,完成LVQ网络构建与训练;
(3) 对于每一类对应的神经元个数n,分别选择n=5, n=20来讨论训练的结果。
(4) 选做:讨论LVQ1算法对于训练结果的影响。
Net = newlvq(PR,S1,PC,LR,LF)_
PR is an R-by-2 matrix of minimum and maximum values for R input elements.
S1 is the number of first-layer hidden neurons.
PC is an S2-element vector of typical class percentages.
LR is the learning rate (default 0.01).
LF is the learning function (default is learnlv1).
● 相关图表链接:
★ 本文来自于CSDN文献:<
![](https://img-blog.csdnimg.cn/8e702179383e458588d48fd0fd9002d3.png#pic_center =800x)
建立起一个竞争网络,有输入层和竞争层组组成,如下图所示,初始权向量为已经归一化为:
![▲ 图1.1.1 竞争网络结构](https://img-blog.csdnimg.cn/803cc49f86f5466e8b58167ef5b80d9c.png#pic_center =560x)
▲ 图1.1.1 竞争网络结构
训练集合有五个样本向量$x_n ,n = 1,2,3,4,5$,均位于单位圆上,各自所对应的角度分别为:
$$\left| {x_n } \right| = 1,,,,,x_n = \left{ {45^ \circ ,90^ \circ ,210^ \circ ,240^ \circ ,300^ \circ } \right}$$
![▲ 图1.1.2 样本分布的位置](https://img-blog.csdnimg.cn/c5bd6cf500654b7f98e28835c687acae.png#pic_center =560x)
▲ 图1.1.2 样本分布的位置
1.使用胜者为王的算法对权系数 $W_1 ,W_2$ 进行调整, 写出经过一轮训练之后的权系数调整结果。假设学习速率η=0.6.
2.对比讨论学习速率η不同收敛情况对于训练结果的影响。
(1) 第一种情况:η按照等比下降。
$$\eta \left[ {n + 1} \right] = 0.5\eta \left[ n \right]$$
(2) 第二种情况:η按照训练步数线性下降.
$$\eta \left[ n \right] = {{N - n} \over N} \times 0.5,,,N = 100$$
N:训练总步数,可以选取N=100
3.讨论 $W_1 ,W_2$ 不同的初始化位置,对于训练结果是否有影响。
下面是三个字母C,H,L样本的5×5点阵图:
![▲ 图2.1.1 C、H、L样本点阵图](https://img-blog.csdnimg.cn/838682a644b34329abb569b84a404c85.png#pic_center =560x)
▲ 图2.1.1 C、H、L样本点阵图
给它们添加噪声,形成带有噪声的样本,噪声样本与正确样本之间的海明距离(Hamming Distance)为1,即两个二值向量之间不相同元素的个数为1,下面是三个字母的噪声样本的示例:
![▲ 图2.1.2 与三个样本Hamming距离为1的样本](https://img-blog.csdnimg.cn/ba8bb499432e4309b370efd06c71994c.png#pic_center =560x)
▲ 图2.1.2 与三个样本Hamming距离为1的样本
带有噪声的样本可以在原有正确样本的基础上,随机选择一个元素,将其从原来的0或者1,改变成1,或者0。因此字母C,H,L各自有25个与其Hamming距离为1的带有噪声的样本。
1. 建立一个竞争层三个节点的竞争神经网络,并对其权系数随机初始化成0~1之间的随机小数;
2. 使用胜者为王(Win-Take-All)算法,使用三个字母正确的样本和5个带有噪声的样本进行训练。自行设置学习速率和它的减少规律;
3. 给出最终的训练后三个神经元的内星向量结果。
4. 验证三个字母其它剩余的20个噪声样本在该竞争网络的识别性能。
5. (选做)随机生成三个字母的Hamming距离为2的噪声样本,并验证上述竞争网络识别的效果。
![▲ 图2.1.3 HAMMING距离为2 的样本](https://img-blog.csdnimg.cn/d6a0a26f492744869041ab15d0ece14d.png#pic_center =560x)
▲ 图2.1.3 HAMMING距离为2 的样本
使用SOM对于下面六种点阵字体进行聚类,分别讨论三种拓扑结构下聚类的效果:
(1) 无拓扑结构 (2) 一维拓扑结构 (3) 二维拓扑结构
从网络上截屏得到六种5×7点阵ASCII字体,分别将A~Z字符点阵转换成0-1字符串,存储在作业文件ASCIIFONT.TXT中。
![▲ 图3.1.1 不同字体的ASCII码](https://img-blog.csdnimg.cn/85b3e1aa05464443ae6525eca8f97e0b.png#pic_center =560x)
▲ 图3.1.1 不同字体的ASCII码
点阵数据也可以从下面CSDN文章中拷贝而得。
关于字符点阵转换过程说明参见如下CSDN文章。https://zhuoqing.blog.csdn.net/article/details/121060703
▲ 图3.1.2
(1) 网络设计要求
(2) 从六种字体点阵中选择如下八个字符训练SOFM, 总共有48个字符。
G H I N O Q U H(3) 竞争层分别采用三种不同的拓扑结构,讨论训 练结果。
(4) 拓展练习:可以自行选择其它字符的六种不同的 字体对设计的网络进行训练。
使用SOM对于下面六种数据集合进行聚类。
![▲ 图4.1.1 聚类数据集合](https://img-blog.csdnimg.cn/713509931aa84064baee0041e311fb86.png#pic_center =560x)
▲ 图4.1.1 聚类数据集合
(1) 任选2~3种数据集合进行实验;
(2) 根据数据分布特征,确定合适的竞争层神经元数据,并分别利用一维,二维拓扑结构完成网络训练。
(3) 对于训练结果进行展示,并讨论网络参数(神经元个数,拓扑结构)对于训练结果的影响。
注:由于SOFM网络是无导师训练算法,因此,对于不同的数据集合,将所有的点阵都当做统一的训练数据。
数据集合产生方法参考文献:
应用在机器学习中的聚类数据集产生方法: https://zhuoqing.blog.csdn.net/article/details/109975990
产生螺旋分类样本集合 SpiralData: https://zhuoqing.blog.csdn.net/article/details/119114663
自组织特征映射(SOFM)网络有15个竞争层的神经元,它们具有一维的拓扑结构。100个样本随机均匀选取于下图所示的三角形区域内。
![▲ 图5.1.1 训练样本示意图](https://img-blog.csdnimg.cn/ed9de6ef513e4b2f96711b9c59ac47f0.png#pic_center =560x)
▲ 图5.1.1 训练样本示意图
进行训练后,给出神经元在坐标平面上的位置分布。阐述SOFM的“保序”特性。
提示:所用到的MATLAB语句
构建一维的SOFM网络 net = newsom([0 1;0 1],[50]);
训练神经网络 net = train(net,P)
绘出一维的图形 plotsom(net.iw{1,1}, net.layers{1}.distances)
利用SOFM解决旅行商路径规划问题。
![▲ 图6.1.1 地点分布示意图](https://img-blog.csdnimg.cn/712a4c8bbf4544059982edb35a5ae0f1.png#pic_center =560x)
▲ 图6.1.1 地点分布示意图
(1) 下面给出了三种位置 所在的位置分布;
(2) 请使用SOM网络求解这三种位置分布优化后的路径。
![▲ 图6.1.2 地点分布数据](https://img-blog.csdnimg.cn/696353bf73924dc6af5c1f5f3be74e15.png#pic_center =560x)
▲ 图6.1.2 地点分布数据
使用CPN网络逼近Hermit多项式。
![▲ 图7.1.1 Hermit多项式](https://img-blog.csdnimg.cn/ad2b9d11baa9479bb67cc9a9cb393a75.png#pic_center =560x)
▲ 图7.1.1 Hermit多项式
![▲ 图7.1.2 网络结构示意图](https://img-blog.csdnimg.cn/a348f3f6a65748f38ba5cba02f4fac10.png#pic_center =560x)
▲ 图7.1.2 网络结构示意图
训练样本:从[-4,4]之间随机选取x取值以及对应的Hermit多项式的函数值。
1. 构造单向CPN和双向CPN完成上述网络并进行训练。 2. 对比在相同的20个隐层节点的情况下,两种CPN逼近函数的精度。
构造LVQ网络完成下面两类样本的分类问题。
![▲ 图8.1.1 分类数据](https://img-blog.csdnimg.cn/d9411d8d1df243b49cf9da7b23ae50f8.png#pic_center =560x)
▲ 图8.1.1 分类数据
![▲ 图8.1.2 网络结构示意图](https://img-blog.csdnimg.cn/f2ec321dd47141cdbe2742b507937e19.png#pic_center =560x)
▲ 图8.1.2 网络结构示意图
(1) 上面数据集合产生方法请参照第四小题;
(2) 任选择其中一个数据集和,完成LVQ网络构建与训练;
(3) 对于每一类对应的神经元个数n,分别选择n=5, n=20来讨论训练的结果。
(4) 选做:讨论LVQ1算法对于训练结果的影响。
Net = newlvq(PR,S1,PC,LR,LF)_
PR is an R-by-2 matrix of minimum and maximum values for R input elements.
S1 is the number of first-layer hidden neurons.
PC is an S2-element vector of typical class percentages.
LR is the learning rate (default 0.01).
LF is the learning function (default is learnlv1).
● 相关图表链接:
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。