代码拉取完成,页面将自动刷新
把一些重要的数值计算方法用原始的C++语言实现出来 更加深入的学习DeepLearn,同时这也是我重头学习DL的项目,看了也学了这么多,重头再来又是另外一番风景。 为了省去一些不必要的底层计算,所有的矩阵相关的计算我使用C++的线性代数框架Eigen实现
注:所有的实现都是CV实现,没有NLP,因为C++不具备繁重的字符串处理能力,暂时不写NLP,测试用例是对每一个调用的单元测试,能够更直观的看到每一个输出和函数、成员方法工作状态
什么是激活函数?
激活函数的用途?
有哪些激活函数、性质和特点?
应用中如何选择合适的激活函数?
2.1 均方误差损失
2.2 交叉熵损失
2.3 交叉熵损失
2.3.1 交叉熵损失的两个图像
2.3.1.1 指数图像
2.3.1.2 对数图像
2.3.1.3 交叉熵损失+Sigmoid激活函数
2.4 svm合页损失
2.5 Smooth L1损失
2.6 梯度爆炸
3.1 全连接神经网络单层实现 [ANNLayer](./sss.md)
3.2 卷积神经网络
3.3 循环神经网络
3.3.1 RNN
3.3.2 LSTM
3.3.3 GRU
3.4 图卷积神经网络
3.4.1 GCN
3.4.2 GNN
4.1 构建自己的模型
4.2 池化
4.3 全连接
4.4 ResNet
4.5 AlexNet
4.6 GoogleNet
4.7 HighWay Network
5.1 CUDA
5.2 OpenCL
5.3 FPGA
6.1 OpenMPI
6.2 MPCH
[Python神经网络编程]
[神经网络设计]
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。