# DeepLearningTutorial **Repository Path**: xiaming03/DeepLearningTutorial ## Basic Information - **Project Name**: DeepLearningTutorial - **Description**: ML & DL …… - **Primary Language**: Python - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 2 - **Forks**: 0 - **Created**: 2023-08-28 - **Last Updated**: 2023-10-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # machine learning & deep learning # machine learning ## AI learning - numpy + scipy [original github repository](https://github.com/apachecn/ailearning) 代码实现在ai-learning包下 1. 跟着AI learning学习教程进行了代码实现。 2. 使用版本较新的API 3. 添加了练习使用到的的数据集 4. 使用jupyter-notebook 方便读者学习 ## 机器学习-白板推导系列 [video](https://space.bilibili.com/97068901/channel/seriesdetail?sid=594044) [github repository](https://github.com/shuhuai007/Machine-Learning-Session) ## 机器学习-统计学习方法 The code is in the statistical-learning-methods package from repository: [lihang-code](https://github.com/fengdu78/lihang-code) # deep learning ## PyTorch深度学习实践 [video](https://www.bilibili.com/video/BV1Y7411d7Ys/?p=1&vd_source=e472d54fbaf4a2a11e9526662ac3a29b) [homework](https://blog.csdn.net/bit452/category_10569531.html) 代码实现在pytorch-deep-learning-tutorial包下 ## 动手学深度学习v2 code in d2l-pytorch-slides package [video](https://space.bilibili.com/1567748478/channel/seriesdetail?sid=358497) [book](https://zh-v2.d2l.ai/index.html#) [course](https://course.d2l.ai/zh-v2/) [d2l-zh-pytorch-slides-github](https://github.com/d2l-ai/d2l-zh-pytorch-slides) ## 一起学deep_thoughts的tutorial codes in deep-thoughts-tutorial package [video](https://space.bilibili.com/373596439/channel/collectiondetail?sid=57707&ctype=0) # read and recur papers [paper-roadmap-github](https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap) [mli-paper-reading](https://github.com/mli/paper-reading) [video](https://space.bilibili.com/1567748478/channel/collectiondetail?sid=32744) tips: 建议使用python-3.8 在进行论文复现时有用到李沐老师的d2l包 选择合适的版本可以节约大家的时间~ ## 自然语言处理 - Transformer | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2017 | [Transformer](https://arxiv.org/pdf/1706.03762.pdf) | 继MLP、CNN、RNN后的第四大类架构 | ⬜ | | 2018 | [BERT](https://arxiv.org/pdf/1810.04805.pdf) | Transformer一统NLP的开始 | ⬜ | ## 自然语言处理 - 语音处理 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2018 | [WAVE-U-NET](https://arxiv.org/pdf/1806.03185.pdf) | U-Net进行人声伴奏分离 | ⬜ | ## 计算机视觉 - CNN | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2022 | [Patches Are All You Need?](https://arxiv.org/pdf/2201.09792.pdf) | ConvMixer减少参数 | ⬜ | | 2012 | [AlexNet](https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf) | 深度学习热潮的奠基作 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/papers-recurrence/AlexNet.ipynb) | | 2015 | [ResNet](https://arxiv.org/pdf/1512.03385.pdf) | 构建深层网络都要有的残差连接。 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/papers-recurrence/ResNet.ipynb) | | 2021 | [RepVGG](https://arxiv.org/pdf/2101.03697.pdf) | 算子融合, 深度可分离卷积网络 | ⬜ | | 2022 | [ConvNeXt](https://arxiv.org/pdf/2201.03545.pdf) | 2020s 下一代卷积 | ⬜ | | 2015 | [U-Net](https://arxiv.org/pdf/1505.04597.pdf) | 图像分割经典模型 | ⬜ | ## 计算机视觉 - Transformer | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2020 | [ViT](https://arxiv.org/pdf/2010.11929.pdf) | Transformer杀入CV界 | ⬜ | | 2021 | [MAE](https://arxiv.org/pdf/2111.06377.pdf) | BERT的CV版 | ⬜ | | 2021 | [Swin Transformer](https://arxiv.org/pdf/2103.14030.pdf) | 多层次的Vision Transformer | ⬜ | # 扩散模型 - Diffusion Model | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2015 | [Deep Unsupervised Learning using Nonequilibrium Thermodynamics](https://arxiv.org/pdf/1503.03585.pdf) | 首次提出diffusion | ⬜ | | 2020 | [Denoising Diffusion Probabilistic Models](https://arxiv.org/pdf/2006.11239.pdf) | 在CV领域应用扩散模型 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/tree/main/papers-recurrence/ddpm) | | 2021 | [Diffusion Models Beat GANs on Image Synthesis](https://arxiv.org/pdf/2105.05233.pdf) | 扩散模型与GAN | ⬜ | | 2022 | [Understanding Diffusion Models: A Unified Perspective](https://arxiv.org/pdf/2208.11970.pdf) | 扩散模型博客 | ⬜ | ## PointCloud 点云处理 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2017 | [Point Net](https://arxiv.org/pdf/1612.00593.pdf) | 深度学习点云处理开山之作 | ⬜ | | 2022 | [Stratified Transformer for 3D Point Cloud Segmentation](https://arxiv.org/pdf/2203.14508.pdf) | 3D点云之层级式Transformer | ⬜ | | 2021 | [Point Transformer](https://arxiv.org/pdf/2012.09164.pdf) | Transformer应用于点云 | ⬜ | | 2022 | [Point Transformer_v2](https://arxiv.org/pdf/2210.05666.pdf) | Point Transformer v2 | ⬜ | | 2023 | [Spherical Transformer for LiDAR-based 3D Recognition](https://arxiv.org/pdf/2303.12766v1.pdf) | 3D语义分割SOTA | ⬜ | ## 生成模型 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2014 | [GAN](https://proceedings.neurips.cc/paper/2014/file/5ca3e9b122f61f8f06494c97b1afccf3-Paper.pdf) | 生成模型的开创工作 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/papers-recurrence/GAN.ipynb) | | 2014 | [cGAN](https://arxiv.org/pdf/1411.1784.pdf) | 条件生成对抗模型 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/papers-recurrence/cgan_mnist.ipynb) | | 2016 | [LSGAN](https://arxiv.org/pdf/1611.04076.pdf) | 最小二乘生成对抗模型 使用卷积网络 | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/papers-recurrence/ls_cgan_mnist.ipynb) | ## 对比学习 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2018 | [InstDisc](https://arxiv.org/pdf/1805.01978.pdf) | 提出实例判别和memory bank做对比学习 | ⬜ | | 2018 | [CPC](https://arxiv.org/pdf/1807.03748.pdf) | 对比预测编码,图像语音文本强化学习全都能做 | ⬜ | | 2019 | [InvaSpread](https://arxiv.org/pdf/1904.03436.pdf) | 一个编码器的端到端对比学习 | ⬜ | | 2019 | [CMC](https://arxiv.org/pdf/1906.05849.pdf) | 多视角下的对比学习 | ⬜ | | 2019 | [MoCov1](https://arxiv.org/pdf/1911.05722.pdf) | 无监督训练效果也很好 | ⬜ | | 2020 | [SimCLRv1](https://arxiv.org/pdf/2002.05709.pdf) | 简单的对比学习 (数据增强 + MLP head + 大batch训练久) | ⬜ | | 2020 | [MoCov2](https://arxiv.org/pdf/2003.04297.pdf) | MoCov1 + improvements from SimCLRv1 | ⬜ | | 2020 | [SimCLRv2](https://arxiv.org/pdf/2006.10029.pdf) | 大的自监督预训练模型很适合做半监督学习 | ⬜ | | 2020 | [BYOL](https://arxiv.org/pdf/2006.07733.pdf) | 不需要负样本的对比学习 | ⬜ | | 2020 | [SWaV](https://arxiv.org/pdf/2006.09882.pdf) | 聚类对比学习 | ⬜ | | 2020 | [SimSiam](https://arxiv.org/pdf/2011.10566.pdf) | 化繁为简的孪生表征学习 | ⬜ | | 2021 | [MoCov3](https://arxiv.org/pdf/2104.02057.pdf) | 如何更稳定的自监督训练ViT | ⬜ | | 2021 | [DINO](https://arxiv.org/pdf/2104.14294.pdf) | transformer加自监督在视觉也很香 | ⬜ | ## 图神经网络 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2021 | [图神经网络介绍](https://distill.pub/2021/gnn-intro/) | GNN的可视化介绍 | ⬜ | ## 新领域 | 年份 | 名字 | 简介 | recurrence | | ---- | ------------------------------------------------------------ | -------------------- | :----: | | 2021 | [指导数学直觉](https://www.nature.com/articles/s41586-021-04086-x.pdf) | 分析不同数学物体之前的联系来帮助发现新定理 | ⬜ | ## 其它 | 年份 | 名字 | recurrence | | ---- | ---- | :----: | | 2006 | [A fast learning algorithm for deep belief nets](http://www.cs.toronto.edu/~hinton/absps/ncfast.pdf) | ⬜ | | 2006 | [Reducing the dimensionality of data with neural networks.](http://www.cs.toronto.edu/~hinton/absps/science_som.pdf) | ⬜ | | 2014 | [Dropout](https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf) | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/deep-thoughts-tutorial/dropout.ipynb) | | 2015 | [Deep learning-Three Giants' Survey](http://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf) | ❌ | | 2016 | [Layer Normalization](https://arxiv.org/pdf/1607.06450.pdf) | ⬜ | | 2017 | [Glow: Generative Flow](https://arxiv.org/pdf/1807.03039.pdf) | [✅](https://github.com/xiamingtx/DeepLearningTutorial/tree/main/papers-recurrence/glow) | | 2018 | [Automatic Differentiation in Machine Learning](https://www.jmlr.org/papers/volume18/17-468/17-468.pdf) | ❌ | | 2021 | [R-Drop](https://arxiv.org/pdf/2106.14448.pdf) | [✅](https://github.com/xiamingtx/DeepLearningTutorial/blob/main/deep-thoughts-tutorial/dropout.ipynb) | # 一起学习~ 有问题欢迎指出