diffGrad: An Optimization Method for Convolutional Neural Networks
Shiv Ram Dubey , Member, IEEE, Soumendu Chakraborty , Swalpa Kumar Roy , Student Member, IEEE, Snehasis Mukherjee, Member, IEEE, Satish Kumar Singh, Senior Member, IEEE,
and Bidyut Baran Chaudhuri, Life Fellow, IEEE
Adaptive moment estimation (Adam), difference of gradient, gradient descent, image classification, neural networks, optimization, residual network.
解决模型训练容易陷入局部最优的情况
随机梯度下降(SGD)是深度神经网络成功的核心技术之一。梯度提供了函数变化速度最快的方向的信息。基本SGD的主要问题是对所有参数以相同大小的步长变化,而不考虑梯度行为。因此,深度网络优化的一个有效方法是对每个参数具有自适应的步长。最近,人们试图改进梯度下降方法,如AdaGrad、AdaDelta、RMSProp和自适应矩估计(ADAM)。这些方法依赖于过去梯度平方的指数滑动平均的平方根,因此这些方法没有利用梯度的局部变化,因此提出了一种基于当前梯度和最近过去梯度之差的优化器(即DiffGrad)。在DiffGrad优化技术中,对每个参数的步长进行调整,使其具有较大的步长和较小的步长,以适应较快的梯度变化参数和较低的梯度变化参数。收敛分析采用在线学习框架的遗憾界方法。本文对三个合成的复非凸函数进行了深入的分析。并在CIFAR10和CIFAR100数据集上进行了图像分类实验,观察了DifferGrad相对于SGDM、AdaGrad、AdaDelta、RMSProp、AMSGrad等最新优化器的性能,实验中采用了基于残差单元(ResNet)的卷积神经网络(CNN)结构,实验结果表明,DiffGrad的性能优于其他优化器。此外,我们还表明,对于使用不同的激活函数训练CNN,DiffGrad的性能是一致的。
采用了类似学习率动量(momentum)的策略。