# 2022SRP项目:基于优化的少样本学习 **Repository Path**: SiranTang/SRP2022 ## Basic Information - **Project Name**: 2022SRP项目:基于优化的少样本学习 - **Description**: 本仓库用于上传2022SRP项目(基于优化的少样本学习)的任务 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 0 - **Created**: 2022-03-08 - **Last Updated**: 2023-03-03 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 2022SRP项目:基于优化的少样本学习 #### 介绍 本仓库用于上传2022SRP项目(基于优化的少样本学习)的任务,作为大家的评分依据。 #### 提交须知 每个人创建一个文件夹,以自己名字命名。在这个文件夹下,以“第一次任务”“第二次任务”等来命名子文件夹。上传的文件要条理清晰、有序。如所给例子。 #### 参考资料来源 Github、CSDN、paperswithcode、Google学术等平台 #### 第一次任务 * 开始时间:2022.3.8 * 结束时间:2022.4.1 * 任务: 1. 扎实基础:调研少样本学习的经典文献、最新文献(2019-2022),然后写一篇总结。参考文献不少于两篇,总结字数不少于600字,要图文并茂。总结可以包括但不限于以下内容: (1) 少样本学习方法的分类 (2) 列出属于某一种方法的经典文献、最新文献 (3) 概括该文献的创新点 ... 2. 动手实践:阅读并复习论文《Prototypical networks for few-shot learning》,复现时要求分别在两个数据集上进行训练和测试:MNIST、Omniglot。需要把代码、实现结果上传到码云。 #### 第二次任务 * 开始时间:2022.5.8 * 结束时间:2022.5.20 * 任务: 1. 调研Transformer、Capsule Network的最新文献(2019-2022),要求包括以下内容: (1) 文献实验所用的数据集包括但不限MNIST、FashionMNIST、CIFAR10、CIFAR100、SVHN(最好是分类任务,其他任务也可以) (2) Transformer部分:列出调研方法的创新点,相对于Transformer来说,做出了哪些改进 (3) Capsule Network部分:调研引用了Stacked Capsule Autoencoders的工作,并且比较该工作与“Stacked Capsule Autoencoders”的区别 (4) 每部分的参考文献不少于两篇,要求图文并茂 ... #### 第三次任务 * 开始时间: * 结束时间: * 任务说明:第三次任务分为两组,每组由2-4个同学合作完成;大家可以先选择自己感兴趣的任务 * 第1组任务:在任务1、2复现的模型的基础上对模型进行优化。在医学图像数据集上训练并测试模型(包括但不限于眼底血管图像、甲状腺图像等数据集)。 * 任务成员: * 分工情况: * 第2组任务:在任务1、2复现的模型的基础上对模型进行优化。如使用半监督学习方法,加入Attention机制,或者是通过一些基础算法改进模型计算原型的过程。 然后在MNIST、Omniglot两个数据集上做验证。 * 任务成员: * 分工情况: