AlexNet

发布时间:2023年12月22日

一、AlexNet介绍

1、历史背景

???????AlexNet赢得了2012年ImageNet竞赛的冠军。AlexNet本质上相当于一个更深更大的LeNet,相比于LeNet的主要改进有下面三个:

  • 丢弃法:用丢弃法来做正则,在多个全连接层组成的多层感知机里面使用了丢弃法(Dropout)。
  • ReLU:将激活函数从LeNet的Sigmoid改成了ReLU,ReLU相对于Sigmoid的梯度更大。
  • MaxPooling:将平均池化改成了最大池化,使得输出的值比较大,梯度相对来说就比较大,训练更加容易。

2、AlexNet与LeNet模型对比

(1)第一层卷积

(2)中间卷积层

(3)多层感知机

3、AlexNet更多细节

???????数据增强操作对原始图片进行随机裁剪、随机亮度和随机色温,在输入图片中增加大量变种,减小模型的敏感程度,提高鲁棒性。

4、总结

二、代码实现

文章来源:https://blog.csdn.net/m0_56312629/article/details/135141402
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。