# 人工智能第十周作业 **Repository Path**: HundredReview/AIWeek10 ## Basic Information - **Project Name**: 人工智能第十周作业 - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2018-12-25 - **Last Updated**: 2020-12-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README ## FCN的学习及理解 如下图所示:对原图进行卷积conv1、pool1后图像缩小为1/2;对图像进行第二次卷积conv2、pool2后图像缩小为1/4;对图像进行第三次卷积conv3、pool3后图像缩小为1/8,此时保留pool3的featuremap;对图像进行第四次卷积conv4、pool4后图像缩小为1/16,此时保留pool4的featuremap;对图像进行第五次卷积conv5、pool5后图像缩小为1/32,然后把原来CNN操作过程中的全连接编程卷积操作的conv6、conv7,图像的featuremap的大小依然为原图的1/32,此时图像不再叫featuremap而是叫heatmap。 ![Alt text](addall.png) 1.以经典的分类网络为初始化。 ![Alt text](fcno.png) 2.从特征小图(16*16*4096)预测分割小图(16*16*21),之后升采样为大图。 反卷积步长为32,这个网络称为FCN-32s。 ![Alt text](fcn32.png) 3.把第4个pooling层的预测结果融合进来。第二次反卷积步长为16,这个网络称为FCN-16s。 ![Alt text](fcn16.png) 3.把第3个pooling层的预测结果融合进来。第二次反卷积步长为8,这个网络称为FCN-8s。 ![Alt text](fcn8.png) 较浅层的预测结果包含了更多细节信息。比较2,3,4阶段可以看出,跳级结构利用浅层信息辅助逐步升采样,有更精细的结果。 ![Alt text](result.png) tinymind: ![Alt text](tm1.png) ![Alt text](tm2.png) 从训练结果来看,需要比较多的训练次数才能得出比较好的效果,花的时间比较长。 参考:https://blog.csdn.net/qq_36269513/article/details/80420363