在 CNN 网络中有一个很重要的技术,叫作批归一化(bn, BatchNorm )。
归一化层一般位于卷积的后面,学术或者工程上,一般习惯将卷积+批归一化+激活统一成一个小的网络结构,比如口语化上称为conv+bn+relu。
这是因为基本上卷积后面肯定会有批归一化,而后面肯定会接激活函数 relu。
为了更贴近实际中的叫法,之后的文章,称批归一化统一称为 BN, 称卷积统一称为 conv, 称池化统一称为pooling。
归一化我们都好理解,就是计算出一堆数据的平均值和方差,然后通过减掉均值除以方差的办法,或者其他办法,将所有数据归一化到[0,1]的区间。
那为什么神经网络中也要有归一化呢?
这主要是由于在实际训练过程中,一般都采用多批次进行训练,而多个批次的数据分布并不是完全一致的。
比如我有 1 万张图片用于训练,受限于计算资源或者其他方面的限制,每一次训练我不可能把1万张图片全部喂给神经网络。
大部分的做法是,将1万张训练图片分为10份,每次喂给神经网络1000张图片来进行训练,这1000张图片称为mini-batch,也就是一小批训练数据。
那么问题就来了,我们怎么保证分成的这10份图片训练集中的数据具有相同的分布呢?
举个例子,我们粗浅的用灰度图来表示图片的分布:如果图片大部分为黑色,代表图片数据贴近于0, 如果图片大部分为白色,则代表图片数据的分布贴近于 255。关于灰度图的描述可以查看最开始灰度图的章节。
继续假设,第一份中的图片大部分都是黑色系的图片,第二份