卷积神经网络相关知识点

发布时间:2024年01月03日

梯度下降算法

写的都很好,第一个看不懂可以接着看第二个,第二个里面有复现代码,第三篇是一篇综述,进阶阶段可以看。

详解梯度下降算法icon-default.png?t=N7T8https://blog.csdn.net/JaysonWong/article/details/119818497线性回归模型——梯度下降算法icon-default.png?t=N7T8https://blog.csdn.net/m0_37940048/article/details/120923023梯度下降优化算法综述icon-default.png?t=N7T8https://blog.csdn.net/google19890102/article/details/69942970机器学习:随机梯度下降法icon-default.png?t=N7T8https://blog.csdn.net/qq_38150441/article/details/80533891

反向传播算法

“反向传播算法”过程及公式推导(超直观好懂的Backpropagation)icon-default.png?t=N7T8https://blog.csdn.net/ft_sunshine/article/details/90221691

损失函数

第3章 损失函数icon-default.png?t=N7T8https://www.cnblogs.com/woodyh5/p/12067215.html

批归一化

什么是批标准化 (Batch Normalization)icon-default.png?t=N7T8https://zhuanlan.zhihu.com/p/24810318

优化器

理解optimizer.zero_grad(), loss.backward(), optimizer.step()的作用及原理icon-default.png?t=N7T8https://blog.csdn.net/PanYHHH/article/details/107361827?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2~default~OPENSEARCH~Rate-1-107361827-blog-108630740.pc_relevant_default&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~OPENSEARCH~Rate-1-107361827-blog-108630740.pc_relevant_default&utm_relevant_index=2optimizer.zero_grad()icon-default.png?t=N7T8https://blog.csdn.net/weixin_36670529/article/details/108630740

学习率

史上最全学习率调整策略lr_schedulericon-default.png?t=N7T8https://blog.csdn.net/weiman1/article/details/125647517torch.optim.lr_scheduler.MultiStepLR()用法研究 台阶/阶梯学习率icon-default.png?t=N7T8https://blog.csdn.net/jiongta9473/article/details/112388516

文章来源:https://blog.csdn.net/qq_43307074/article/details/128871534
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。