2 Star 2 Fork 0

卓晴 / 教学资源

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
第二次作业要求.md 24.47 KB
一键复制 编辑 原始数据 按行查看 历史

 

§01 第一题


1.1 题目要求

1.1.1 设计要求

  建立起一个竞争网络,有输入层和竞争层组组成,如下图所示,初始权向量为已经归一化为:

▲ 图1.1.1 竞争网络结构

  训练集合有五个样本向量$x_n ,n = 1,2,3,4,5$,均位于单位圆上,各自所对应的角度分别为:

$$\left| {x_n } \right| = 1,\space \space \space \space x_n = \left{ {45^ \circ ,90^ \circ ,210^ \circ ,240^ \circ ,300^ \circ } \right}$$

▲ 图1.1.2 样本分布的位置

1.1.2 实验要求

  1.使用胜者为王的算法对权系数 $W_1 ,W_2$ 进行调整, 写出经过一轮训练之后的权系数调整结果。假设学习速率η=0.6.

  2.对比讨论学习速率η不同收敛情况对于训练结果的影响。

(1) 第一种情况:η按照等比下降。

$$\eta \left[ {n + 1} \right] = 0.5\eta \left[ n \right]$$

(2) 第二种情况:η按照训练步数线性下降.

$$\eta \left[ n \right] = {{N - n} \over N} \times 0.5,\space \space N = 100$$

  N:训练总步数,可以选取N=100

  3.讨论 $W_1 ,W_2$ 不同的初始化位置,对于训练结果是否有影响。

1.2 参考解答

 

§02 第二题


2.1 题目要求

2.1.1 设计要求

  下面是三个字母C,H,L样本的5×5点阵图:

▲ 图2.1.1 C、H、L样本点阵图

  给它们添加噪声,形成带有噪声的样本,噪声样本与正确样本之间的海明距离(Hamming Distance)为1,即两个二值向量之间不相同元素的个数为1,下面是三个字母的噪声样本的示例:

▲ 图2.1.2 与三个样本Hamming距离为1的样本

  带有噪声的样本可以在原有正确样本的基础上,随机选择一个元素,将其从原来的0或者1,改变成1,或者0。因此字母C,H,L各自有25个与其Hamming距离为1的带有噪声的样本。

2.1.2 实验要求

  1. 建立一个竞争层三个节点的竞争神经网络,并对其权系数随机初始化成0~1之间的随机小数;

  2. 使用胜者为王(Win-Take-All)算法,使用三个字母正确的样本和5个带有噪声的样本进行训练。自行设置学习速率和它的减少规律;

  3. 给出最终的训练后三个神经元的内星向量结果。

  4. 验证三个字母其它剩余的20个噪声样本在该竞争网络的识别性能。

  5. (选做)随机生成三个字母的Hamming距离为2的噪声样本,并验证上述竞争网络识别的效果。

▲ 图2.1.3 HAMMING距离为2 的样本

2.2 参考解答

 

§03 第三题


3.1 题目要求

3.1.1 设计要求

  使用SOM对于下面六种点阵字体进行聚类,分别讨论三种拓扑结构下聚类的效果:

(1) 无拓扑结构 (2) 一维拓扑结构 (3) 二维拓扑结构

(1)六种字体数据集合说明

  从网络上截屏得到六种5×7点阵ASCII字体,分别将A~Z字符点阵转换成0-1字符串,存储在作业文件ASCIIFONT.TXT中。

▲ 图3.1.1 不同字体的ASCII码

  点阵数据也可以从下面CSDN文章中拷贝而得。

  关于字符点阵转换过程说明参见如下CSDN文章。https://zhuoqing.blog.csdn.net/article/details/121060703

▲ 图3.1.2

3.1.2 实验要求

(1) 网络设计要求

  • 输入层35,输出层25;
  • 学习速率:0.6线性递减至0.01

(2) 从六种字体点阵中选择如下八个字符训练SOFM,

  总共有48个字符。

G H I N O Q U H

(3) 竞争层分别采用三种不同的拓扑结构,讨论训

  练结果。

(4) 拓展练习:可以自行选择其它字符的六种不同的

  字体对设计的网络进行训练。

3.2 参考解答

 

§04 第四题


4.1 题目要求

4.1.1 设计要求

  使用SOM对于下面六种数据集合进行聚类。

▲ 图4.1.1 聚类数据集合

4.1.2 实验要求

(1) 任选2~3种数据集合进行实验;

(2) 根据数据分布特征,确定合适的竞争层神经元数据,并分别利用一维,二维拓扑结构完成网络训练。

(3) 对于训练结果进行展示,并讨论网络参数(神经元个数,拓扑结构)对于训练结果的影响。

注:由于SOFM网络是无导师训练算法,因此,对于不同的数据集合,将所有的点阵都当做统一的训练数据。

4.1.3 数据产生

  数据集合产生方法参考文献:

4.2 参考解答

 

§05 第五题


5.1 题目要求

5.1.1 设计要求

  自组织特征映射(SOFM)网络有15个竞争层的神经元,它们具有一维的拓扑结构。100个样本随机均匀选取于下图所示的三角形区域内。

▲ 图5.1.1 训练样本示意图

  进行训练后,给出神经元在坐标平面上的位置分布。阐述SOFM的“保序”特性。

  提示:所用到的MATLAB语句

  • 构建一维的SOFM网络

  net = newsom([0 1;0 1],[50]);

  • 训练神经网络

  net = train(net,P)

  • 绘出一维的图形

  plotsom(net.iw{1,1}, net.layers{1}.distances)

5.2 参考解答

 

§06 第六题


6.1 题目要求

6.1.1 设计要求

  利用SOFM解决旅行商路径规划问题。

▲ 图6.1.1 地点分布示意图

6.1.2 实验要求

(1) 下面给出了三种位置 所在的位置分布;

(2) 请使用SOM网络求解这三种位置分布优化后的路径。

▲ 图6.1.2 地点分布数据

6.2 参考解答

 

§07 第七题


7.1 题目要求

7.1.1 设计要求

  使用CPN网络逼近Hermit多项式。

▲ 图7.1.1 Hermit多项式

▲ 图7.1.2 网络结构示意图

  训练样本:从[-4,4]之间随机选取x取值以及对应的Hermit多项式的函数值。

7.1.2 实验要求

  1. 构造单向CPN和双向CPN完成上述网络并进行训练。

  2. 对比在相同的20个隐层节点的情况下,两种CPN逼近函数的精度。

7.2 参考解答

 

§08 第八题


8.1 题目要求

8.1.1 设计要求

  构造LVQ网络完成下面两类样本的分类问题。

▲ 图8.1.1 分类数据

▲ 图8.1.2 网络结构示意图

8.1.2 实验要求

(1) 上面数据集合产生方法请参照第四小题;

(2) 任选择其中一个数据集和,完成LVQ网络构建与训练;

(3) 对于每一类对应的神经元个数n,分别选择n=5, n=20来讨论训练的结果。

(4) 选做:讨论LVQ1算法对于训练结果的影响。

Net = newlvq(PR,S1,PC,LR,LF)_
PR is an R-by-2 matrix of minimum and maximum values for R input elements. 
S1 is the number of first-layer hidden neurons. 
PC is an S2-element vector of typical class percentages. 
LR is the learning rate (default 0.01). 
LF is the learning function (default is learnlv1). 

8.2 参考解答

● 相关图表链接:

★ 本文来自于CSDN文献:<

![](https://img-blog.csdnimg.cn/8e702179383e458588d48fd0fd9002d3.png#pic_center =800x)

 

§01 第一题


1.1 题目要求

1.1.1 设计要求

  建立起一个竞争网络,有输入层和竞争层组组成,如下图所示,初始权向量为已经归一化为:

![▲ 图1.1.1 竞争网络结构](https://img-blog.csdnimg.cn/803cc49f86f5466e8b58167ef5b80d9c.png#pic_center =560x)

▲ 图1.1.1 竞争网络结构

  训练集合有五个样本向量$x_n ,n = 1,2,3,4,5$,均位于单位圆上,各自所对应的角度分别为:

$$\left| {x_n } \right| = 1,,,,,x_n = \left{ {45^ \circ ,90^ \circ ,210^ \circ ,240^ \circ ,300^ \circ } \right}$$

![▲ 图1.1.2 样本分布的位置](https://img-blog.csdnimg.cn/c5bd6cf500654b7f98e28835c687acae.png#pic_center =560x)

▲ 图1.1.2 样本分布的位置

1.1.2 实验要求

  1.使用胜者为王的算法对权系数 $W_1 ,W_2$ 进行调整, 写出经过一轮训练之后的权系数调整结果。假设学习速率η=0.6.

  2.对比讨论学习速率η不同收敛情况对于训练结果的影响。

(1) 第一种情况:η按照等比下降。

$$\eta \left[ {n + 1} \right] = 0.5\eta \left[ n \right]$$

(2) 第二种情况:η按照训练步数线性下降.

$$\eta \left[ n \right] = {{N - n} \over N} \times 0.5,,,N = 100$$

  N:训练总步数,可以选取N=100

  3.讨论 $W_1 ,W_2$ 不同的初始化位置,对于训练结果是否有影响。

1.2 参考解答

 

§02 第二题


2.1 题目要求

2.1.1 设计要求

  下面是三个字母C,H,L样本的5×5点阵图:

![▲ 图2.1.1 C、H、L样本点阵图](https://img-blog.csdnimg.cn/838682a644b34329abb569b84a404c85.png#pic_center =560x)

▲ 图2.1.1 C、H、L样本点阵图

  给它们添加噪声,形成带有噪声的样本,噪声样本与正确样本之间的海明距离(Hamming Distance)为1,即两个二值向量之间不相同元素的个数为1,下面是三个字母的噪声样本的示例:

![▲ 图2.1.2 与三个样本Hamming距离为1的样本](https://img-blog.csdnimg.cn/ba8bb499432e4309b370efd06c71994c.png#pic_center =560x)

▲ 图2.1.2 与三个样本Hamming距离为1的样本

  带有噪声的样本可以在原有正确样本的基础上,随机选择一个元素,将其从原来的0或者1,改变成1,或者0。因此字母C,H,L各自有25个与其Hamming距离为1的带有噪声的样本。

2.1.2 实验要求

  1. 建立一个竞争层三个节点的竞争神经网络,并对其权系数随机初始化成0~1之间的随机小数;

  2. 使用胜者为王(Win-Take-All)算法,使用三个字母正确的样本和5个带有噪声的样本进行训练。自行设置学习速率和它的减少规律;

  3. 给出最终的训练后三个神经元的内星向量结果。

  4. 验证三个字母其它剩余的20个噪声样本在该竞争网络的识别性能。

  5. (选做)随机生成三个字母的Hamming距离为2的噪声样本,并验证上述竞争网络识别的效果。

![▲ 图2.1.3 HAMMING距离为2 的样本](https://img-blog.csdnimg.cn/d6a0a26f492744869041ab15d0ece14d.png#pic_center =560x)

▲ 图2.1.3 HAMMING距离为2 的样本

2.2 参考解答

 

§03 第三题


3.1 题目要求

3.1.1 设计要求

  使用SOM对于下面六种点阵字体进行聚类,分别讨论三种拓扑结构下聚类的效果:

(1) 无拓扑结构 (2) 一维拓扑结构 (3) 二维拓扑结构

(1)六种字体数据集合说明

  从网络上截屏得到六种5×7点阵ASCII字体,分别将A~Z字符点阵转换成0-1字符串,存储在作业文件ASCIIFONT.TXT中。

![▲ 图3.1.1 不同字体的ASCII码](https://img-blog.csdnimg.cn/85b3e1aa05464443ae6525eca8f97e0b.png#pic_center =560x)

▲ 图3.1.1 不同字体的ASCII码

  点阵数据也可以从下面CSDN文章中拷贝而得。

  关于字符点阵转换过程说明参见如下CSDN文章。https://zhuoqing.blog.csdn.net/article/details/121060703

▲ 图3.1.2

▲ 图3.1.2

3.1.2 实验要求

(1) 网络设计要求

  • 输入层35,输出层25;
  • 学习速率:0.6线性递减至0.01

(2) 从六种字体点阵中选择如下八个字符训练SOFM,   总共有48个字符。

G H I N O Q U H

(3) 竞争层分别采用三种不同的拓扑结构,讨论训   练结果。

(4) 拓展练习:可以自行选择其它字符的六种不同的   字体对设计的网络进行训练。

3.2 参考解答

 

§04 第四题


4.1 题目要求

4.1.1 设计要求

  使用SOM对于下面六种数据集合进行聚类。

![▲ 图4.1.1 聚类数据集合](https://img-blog.csdnimg.cn/713509931aa84064baee0041e311fb86.png#pic_center =560x)

▲ 图4.1.1 聚类数据集合

4.1.2 实验要求

(1) 任选2~3种数据集合进行实验;

(2) 根据数据分布特征,确定合适的竞争层神经元数据,并分别利用一维,二维拓扑结构完成网络训练。

(3) 对于训练结果进行展示,并讨论网络参数(神经元个数,拓扑结构)对于训练结果的影响。

注:由于SOFM网络是无导师训练算法,因此,对于不同的数据集合,将所有的点阵都当做统一的训练数据。

4.1.3 数据产生

  数据集合产生方法参考文献:

4.2 参考解答

 

§05 第五题


5.1 题目要求

5.1.1 设计要求

  自组织特征映射(SOFM)网络有15个竞争层的神经元,它们具有一维的拓扑结构。100个样本随机均匀选取于下图所示的三角形区域内。

![▲ 图5.1.1 训练样本示意图](https://img-blog.csdnimg.cn/ed9de6ef513e4b2f96711b9c59ac47f0.png#pic_center =560x)

▲ 图5.1.1 训练样本示意图

  进行训练后,给出神经元在坐标平面上的位置分布。阐述SOFM的“保序”特性。

  提示:所用到的MATLAB语句

  • 构建一维的SOFM网络   net = newsom([0 1;0 1],[50]);

  • 训练神经网络   net = train(net,P)

  • 绘出一维的图形   plotsom(net.iw{1,1}, net.layers{1}.distances)

5.2 参考解答

 

§06 第六题


6.1 题目要求

6.1.1 设计要求

  利用SOFM解决旅行商路径规划问题。

![▲ 图6.1.1 地点分布示意图](https://img-blog.csdnimg.cn/712a4c8bbf4544059982edb35a5ae0f1.png#pic_center =560x)

▲ 图6.1.1 地点分布示意图

6.1.2 实验要求

(1) 下面给出了三种位置 所在的位置分布;

(2) 请使用SOM网络求解这三种位置分布优化后的路径。

![▲ 图6.1.2 地点分布数据](https://img-blog.csdnimg.cn/696353bf73924dc6af5c1f5f3be74e15.png#pic_center =560x)

▲ 图6.1.2 地点分布数据

6.2 参考解答

 

§07 第七题


7.1 题目要求

7.1.1 设计要求

  使用CPN网络逼近Hermit多项式。

![▲ 图7.1.1 Hermit多项式](https://img-blog.csdnimg.cn/ad2b9d11baa9479bb67cc9a9cb393a75.png#pic_center =560x)

▲ 图7.1.1 Hermit多项式

![▲ 图7.1.2 网络结构示意图](https://img-blog.csdnimg.cn/a348f3f6a65748f38ba5cba02f4fac10.png#pic_center =560x)

▲ 图7.1.2 网络结构示意图

  训练样本:从[-4,4]之间随机选取x取值以及对应的Hermit多项式的函数值。

7.1.2 实验要求

  1. 构造单向CPN和双向CPN完成上述网络并进行训练。   2. 对比在相同的20个隐层节点的情况下,两种CPN逼近函数的精度。

7.2 参考解答

 

§08 第八题


8.1 题目要求

8.1.1 设计要求

  构造LVQ网络完成下面两类样本的分类问题。

![▲ 图8.1.1 分类数据](https://img-blog.csdnimg.cn/d9411d8d1df243b49cf9da7b23ae50f8.png#pic_center =560x)

▲ 图8.1.1 分类数据

![▲ 图8.1.2 网络结构示意图](https://img-blog.csdnimg.cn/f2ec321dd47141cdbe2742b507937e19.png#pic_center =560x)

▲ 图8.1.2 网络结构示意图

8.1.2 实验要求

(1) 上面数据集合产生方法请参照第四小题;

(2) 任选择其中一个数据集和,完成LVQ网络构建与训练;

(3) 对于每一类对应的神经元个数n,分别选择n=5, n=20来讨论训练的结果。

(4) 选做:讨论LVQ1算法对于训练结果的影响。

Net = newlvq(PR,S1,PC,LR,LF)_
PR is an R-by-2 matrix of minimum and maximum values for R input elements. 
S1 is the number of first-layer hidden neurons. 
PC is an S2-element vector of typical class percentages. 
LR is the learning rate (default 0.01). 
LF is the learning function (default is learnlv1). 

8.2 参考解答


● 相关图表链接:

马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/tsinghuajoking/teaching-resources.git
git@gitee.com:tsinghuajoking/teaching-resources.git
tsinghuajoking
teaching-resources
教学资源
master

搜索帮助

344bd9b3 5694891 D2dac590 5694891