深度学习记录--梯度检验

发布时间:2024年01月17日

数值逼近

为了对梯度进行检验,需要计算近似误差值来接近梯度

对于单边误差和双边误差公式,其中双边误差与真实梯度相差更小,故一般采用双边误差公式

双边误差

公式:g(\theta )=\frac{f(\theta+\varepsilon)-f(\theta-\varepsilon )}{2\varepsilon}

梯度检验(gradient checking)

对于成本函数,求出\theta^{[i]}的导数,计算出双边误差d\Theta^{[i]}=\frac{J(\theta1,\theta2,...,\theta i+\varepsilon,...)-J(\theta1,\theta2,...,\theta i-\varepsilon,...)}{2\varepsilon},再将两者进行比较

比较方法:

s=\left \| d\Theta_{approx}-d\Theta \right \|_{2},判断s的大小

s<10^{-7},则误差很小,效果很好

s<10^{-5},则误差一般,效果一般

s<10^{-3},则误差较大,需要考虑是否错误较多


梯度检验的注意事项

不要在训练中使用梯度检验,它只适用于调试

梯度检验的计算时间较长,且通常在backprop后向传播中进行

当梯度检验得出偏差过大时,要对所有参数进行检查

使用正则化时,要记住在梯度检验中保留正则项

不要在梯度检验的过程中使用dropout

在每次迭代过程中,dropout会随机消除隐层单元的不同子集,J函数难以明确计算

文章来源:https://blog.csdn.net/Xudong_12345/article/details/135650450
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。