本文提出了一种新型的Attentional Scale Sequence Fusion based You Only Look Once (YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,以实现准确且快速的细胞实例分割。该框架建立在YOLO分割框架之上,采用Scale Sequence Feature Fusion (SSFF)模块增强网络的多尺度信息提取能力,并使用Triple Feature Encoder (TPE)模块融合不同尺度的特征图以增加详细信息。此外,还引入了一个Channel and Position Attention Mechanism (CPAM),以整合SSFF和TPE模块,该机制专注于信息通道和空间位置相关的小物体,以改进检测和分割性能。在两个细胞数据集上的实验验证表明,本文提出的ASF-YOLO模型在分割准确性和速度方面均表现出色,在2018 Data Science Bowl数据集上达到了0.91的box mAP、0.887的mask mAP以及47.3 FPS的推理速度,超过了当前最先进的方法。
经过验证,在小目标和密集目标场景有效涨点。
我们提出了一种基于注意力尺度序列融合的You Only Look Once(YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,用于准确快速的细胞实例分割。在YOLO分割框架的基础上,我们采用尺度序列特征融合(SSFF)模块增强网络的多尺度信息提取能力,并采用三重特征编码器(TPE)模块融合不同尺度的特征图以增加详细信息。我们进一步引入通道和位