YoloV8改进策略:ASF-YOLO,结合了空间和尺度特征在小目标和密集目标场景有效涨点

发布时间:2023年12月19日

摘要

本文提出了一种新型的Attentional Scale Sequence Fusion based You Only Look Once (YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,以实现准确且快速的细胞实例分割。该框架建立在YOLO分割框架之上,采用Scale Sequence Feature Fusion (SSFF)模块增强网络的多尺度信息提取能力,并使用Triple Feature Encoder (TPE)模块融合不同尺度的特征图以增加详细信息。此外,还引入了一个Channel and Position Attention Mechanism (CPAM),以整合SSFF和TPE模块,该机制专注于信息通道和空间位置相关的小物体,以改进检测和分割性能。在两个细胞数据集上的实验验证表明,本文提出的ASF-YOLO模型在分割准确性和速度方面均表现出色,在2018 Data Science Bowl数据集上达到了0.91的box mAP、0.887的mask mAP以及47.3 FPS的推理速度,超过了当前最先进的方法。

经过验证,在小目标和密集目标场景有效涨点。

论文:《ASF-YOLO:一种基于注意尺度序列融合的细胞实例分割YOLO模型》

我们提出了一种基于注意力尺度序列融合的You Only Look Once(YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,用于准确快速的细胞实例分割。在YOLO分割框架的基础上,我们采用尺度序列特征融合(SSFF)模块增强网络的多尺度信息提取能力,并采用三重特征编码器(TPE)模块融合不同尺度的特征图以增加详细信息。我们进一步引入通道和位

文章来源:https://blog.csdn.net/m0_47867638/article/details/135075455
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。