? ?空间注意力已经被证明能够使卷积神经网络专注于关键信息来提高网络性能,但它仍然有局限性。本文中从一个新的角度解释了空间注意力的有效性,即
空间注意力机制本质上解决了卷积核参数共享的问题
。然而,对于大尺寸卷积核,空间注意力生成的注意力图中包含的信息仍然缺乏。? ?因此,本文提出了一种新的注意力机制,称为
感受野注意力(RFA)
。卷积块注意力模块(CBAM
)和协调注意力模块(CA
)只关注空间特征,不能完全解决卷积核参数共享的问题,但在RF
A中,感受野空间特征不仅集中,而且为大尺寸卷积核提供了良好的注意力权重
。RFA设计的感受野注意力卷积运算(RFAConv
)可以被认为是取代标准卷积的一种新方法,它带来的计算成本和许多参数几乎可以忽略不计
。? ?在Imagenet-1k、MS COCO和VOC上的大量实验证明了本文方法在分类、目标检测和语义分割任务中的优越性能。重要的是,作者认为对于目前一些只关注空间特征的空间注意力机制,
是时候通过关注感受野空间特征来提高网络的性能了
。
卷积神经网络通过使用具有共享参数的卷积运算显著降低了模型的计算开销和复杂性。在LeNet、AlexNet和VGG等经典网络的驱动下,卷积神经网络现在已经建立了一个完整的系统&