YoloV8改进策略:BN和LN的自适应结合的BCN| 正则化改进|有效涨点|代码二次改进,加注释详解

发布时间:2024年01月14日

摘要

本文尝试使用最新的BCN改进YoloV8,在我自己的数据集上实现了涨点。

论文:《BCN:图像分类的批处理通道归一化》

归一化技术已被广泛应用于深度学习领域,因为它们能够提高学习率并减少对初始化的依赖。然而,流行的归一化技术的有效性通常仅限于特定领域。与标准的批量归一化(Batch Normalization,BN)和层归一化(Layer Normalization,LN)不同,其中BN沿(N,H,W)维度计算均值和方差,而LN沿(C,H,W)维度计算均值和方差(N、C、H和W分别是批量、通道、空间高度和宽度维度),本文提出了一种名为批量通道归一化(Batch Channel Normalization,BCN)的新型归一化技术。为了利用通道和批次的依赖性,并基于特定数据集或任务自适应地结合BN和LN的优点,BCN分别沿(N,H,W)和(C,H,W)轴对输入进行归一化,然后根据自适应参数组合归一化的输出。作为基本块,BCN可以轻松集成到计算机视觉领域的各种现有模型中。实验结果表明,所提出的技术可以无缝应用于各种版本的CNN或Vision Transformer架构。代码可在https://github.com/AfifaKhaled/BatchChannel-Normalization上公开获取。

1、Introduction

在过去的几十年里,机器学习(ML

文章来源:https://blog.csdn.net/m0_47867638/article/details/135585684
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。