4866 IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS, VOL. 27, NO. 10, OCTOBER 2023
3T 图像的信号对比度和分辨率有限,因此在常规 3T MRI 中自动分割这些子场具有挑战性,本文旨利用超高场 7T MRI 合成来改善 3T MRI 中的海马亚场分割。
为了确定最适合HS分割的合成MRI模式,我们比较了3种超高场MRI合成:7T T1 MRI、7T T2 MRI和7T T1 + T2 MRI (即同时合成7T T1 MRI和7T T2 MRI)。将合成的图像与原始输入( 3T T1 + T2 MRI)进行拼接,得到最终的分割结果。本实验是在左HS分割数据上进行的。合成7T T1 MRI获得了最高的平均DSC ( 0.677 )和最低的HD95 ( 1.366 ),在大多数HS分割(见表Ⅱ)中优于其他模态。定性地,与7T T2 MRI (见图8)相比,该网络显示了7T T1 MRI更好的细节恢复。基于这些发现,我们进行了7T T1 MRI合成,用于后续实验。
AWCLoss涨了0.01,ds涨了0.02,RoiLoss涨了0.02,fml涨了0.01,self-att涨了0.01
合成、分割的方法涨了0.002
研究表明,将合成的7T MRI数据与常规3T MRI相结合,提高了HS分割的准确性。我们的研究结果突出了联合训练在合成和分割任务中的优越性。不同的任务之间可以互惠互利,从而提高下游任务的性能。ROI损失起着最重要的作用。通过重点保留ROI内重要的结构和纹理信息,ROI损失增强了合成的7T MRI的质量,从而提高了HS分割的准确性。
输入是3T数据,合成7T数据
简单的生成对抗网络,加了self-Attention
3DUNet加上深度监督
确定Syn _ SegNet的最佳超参数值是一个挑战。在评估多个权重组合后,我们设置如下值:
损失函数多,生成对抗损失函数的权重是0.001,分割的权重是200,相差好大。为啥捏
此篇重要参考文献:
[36] Y. Huo et al., “Synseg-net: Synthetic segmentation without target modality ground truth,” IEEE Trans. Med. Imag., vol. 38, no. 4, pp. 1016–1025, Apr. 2019.
[41] L. Qu, Y. Zhang, S. Wang, P-T. Yap, and D. Shen, “Synthesized 7T MRI from 3T MRI via deep learning in spatial and wavelet domains,” Med. Image Anal., vol. 62, 2020, Art. no. 101663.
[42] Z. Huang, L. Lin, P. Cheng, L. Peng, and X. Tang, “Multi-modal brain tumor segmentation via missing modality synthesis and modality-level attention fusion,” 2022, arXiv:2203.04586.
[43] Z. Zhang, L. Yang, and Y. Zheng, “Translating and segmenting multimodal medical volumes with cycle-and shape-consistency generative adversarial network,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., 2018, pp. 9242–9251.