# deep_learning_project **Repository Path**: oneday150/study ## Basic Information - **Project Name**: deep_learning_project - **Description**: 深度学习知识点平台。 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-09-11 - **Last Updated**: 2025-11-12 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 深度学习核心知识点学习平台 #### 项目简介 本项目是一个基于 Streamlit 构建的交互式深度学习核心知识点学习平台,旨在通过直观的可视化演示、详尽的原理解析和可运行的代码示例,帮助学习者快速掌握深度学习的核心概念与算法逻辑。平台覆盖从神经网络基础结构到模型训练优化的全流程知识点,支持实时参数调整与动态效果预览,适配从新手入门到进阶巩固的不同学习需求。 #### 核心功能 1. 模块化知识体系:涵盖 9 大深度学习核心模块,形成完整的知识闭环 2. 交互这里是列表文本式可视化:通过动态图表展示算法原理,支持参数实时调整与效果预览 3. 多维度代码实现:提供手动推导与 PyTorch 框架实现,兼顾原理理解与工程实践 4. 响应式布局设计:支持宽屏显示与移动端适配,优化学习体验 #### 核心模块详解 1. 神经网络基础(neural_networks.py) - 核心内容:神经元计算原理、网络分层结构、激活函数作用 - 交互功能:动态调整输入层 / 隐藏层 / 输出层神经元数量,实时生成网络结构示意图 - 代码示例:单个神经元计算实现、神经网络类定义、前向传播过程演示 2. 前向传播(forward_propagation.py) - 核心内容:线性变换与非线性激活交替计算流程、多层网络数据流动逻辑 - 交互功能:配置隐藏层神经元数量与激活函数类型,可视化前向传播完整计算步骤 - 代码示例:NumPy 手动实现、PyTorch 框架实现、单样本分步计算验证 3. 反向传播(backward_propagation.py) - 核心内容:链式法则应用、误差项反向传递、参数梯度计算与更新 - 交互功能:调整学习率与训练轮次,观察损失变化曲线与参数优化轨迹 - 代码示例:单神经元手动推导、深层网络 PyTorch 自动求导、梯度计算正确性验证 4. 激活函数(activation_functions.py) - 核心内容:Sigmoid、ReLU、Leaky ReLU、Tanh 等主流激活函数的数学特性与适用场景 - 交互功能:拖动输入值滑块,实时查看各激活函数的输出值与梯度变化 - 代码示例:PyTorch 内置函数调用、手动实现代码、训练过程中的应用示例 5. 损失函数(loss_functions.py) - 核心内容:回归任务(MSE、MAE、Huber)与分类任务(交叉熵)损失函数原理 - 交互功能:选择任务类型,输入真实值与预测值,对比不同损失函数计算结果 - 代码示例:NumPy 底层实现、PyTorch 内置 API 使用、异常值影响分析实验 6. 优化器(optimizers.py) - 核心内容:GD、SGD、Momentum、NAG、AdaGrad、RMSprop、Adam 等 8 种优化器特性对比 - 交互功能:选择测试函数与学习率,可视化不同优化器的优化路径差异 - 代码示例:基础实现与进阶实践、工业界最佳参数配置、训练效果对比实验 7. 学习率调度器(LR_scheduler.py) - 核心内容:StepLR、MultiStepLR、CosineAnnealingLR 等 6 种调度策略原理 - 交互功能:配置调度器参数,对比不同策略的学习率变化曲线与训练收敛效果 - 代码示例:PyTorch 调度器初始化、训练循环集成、动态调整逻辑实现 8. 正则化(regularization.py) - 核心内容:L1/L2 正则化、Elastic Net、Dropout、权重衰减等防过拟合技术 - 交互功能:调整正则化强度与 Dropout 概率,观察权重变化与神经元失活效果 - 代码示例:自定义正则化损失函数、PyTorch 内置实现、泛化能力提升实验 #### 技术栈 - 前端框架:Streamlit - 数值计算:NumPy、PyTorch - 可视化工具:Matplotlib、Plotly - 代码运行环境:Python 3.10+ #### 目录结构 deep-learning-platform/ ├── app.py # 应用入口(主程序) ├── README.md # 项目说明文档 ├── pages/ # 各知识点模块页面 │ ├── home.py # 首页 │ ├── neural_networks.py # 神经网络基础 │ ├── forward_propagation.py # 前向传播 │ ├── backward_propagation.py # 反向传播 │ ├── activation_functions.py # 激活函数 │ ├── loss_functions.py # 损失函数 │ ├── optimizers.py # 优化器 │ ├── LR_scheduler.py # 学习率调度器 │ └── regularization.py # 正则化 └── visualizations/ # 可视化函数库 ├── function_visualization.py # 函数可视化(激活函数、损失函数等) ├── network_visualization.py # 网络结构可视化 └── training_visualization.py # 训练过程可视化 #### 快速开始 - 环境搭建 1. 克隆项目仓库 git clone <仓库地址> cd deep-learning-platform 2. 安装依赖包 pip install -r requirements.txt 核心依赖:streamlit numpy matplotlib plotly torch - 运行应用 streamlit run app.py #### 项目指南 1. **导航操作** :通过左侧侧边栏的 "选择学习模块" 单选框切换知识点 2. **交互操作** : - 滑块组件:调整参数值(如学习率、神经元数量等) - 按钮组件:触发代码展示、训练对比等操作 - 展开面板:查看详细的原理推导与公式解析 3. **代码使用** :各模块右侧代码区提供可直接复制运行的示例代码,支持本地调试与扩展 #### 学习路径建议 1. **基础入门** :神经网络基础 → 激活函数 → 前向传播 2. **核心原理** :损失函数 → 反向传播 → 优化器 3. **进阶优化** :正则化 → 学习率调度器 4. **综合实践** :结合各模块知识,通过代码示例复现完整训练流程 #### 注意事项 1. 部分可视化功能依赖 matplotlib 与 plotly,确保相关依赖包版本兼容 2. PyTorch 代码示例需确保 CUDA 环境配置正确(如需 GPU 加速) 3. 调整参数时建议逐步修改,便于观察单一变量对结果的影响 4. 代码运行过程中如遇内存占用过高,可减少批量大小或降低网络复杂度 #### 扩展与贡献 1. 新增深度学习知识点模块(如批归一化、注意力机制等) 2. 优化可视化效果与交互体验 3. 补充更多框架的代码实现(如 TensorFlow) 4. 修复潜在 bug 与优化性能