经典文献阅读之--U-CE(用于语义分割的不确定性感知交叉熵)

发布时间:2024年01月15日

0. 简介

深度神经网络在各项任务中均展现出卓越的性能,但是它们缺乏鲁棒性、可靠性以及过于自信的倾向,这给它们在自动驾驶等安全关键应用中的部署带来挑战。在这方面,量化模型预测所固有的不确定性是解决这些缺陷的有希望的努力方向。在《U-CE: Uncertainty-aware Cross-Entropy for Semantic Segmentation》中提出了一种新型的不确定性感知交叉熵损失(U-CE),通过对交叉熵损失(CE)逐像素加权,将动态预测不确定性加入训练过程。

1. 主要贡献

本文的贡献总结如下:

  1. 本文提出了U-CE损失函数,其利用不确定性估计来引导优化过程,突出了具有高度不确定性的区域;
  2. 本文在两个基准数据集Cityscapes和ACDC上进行了大量的实验,通过两个常见的主干网络ResNet-18和ResNet-101,证明了U-CE相对于常规CE训练的优越性;
  3. 本文通过多次消融研究和深入讨论,提出了U-CE的额外见解、局限性和潜在改进方向。

2. 总体框架

U-CE的核心思想是将预测的不确定性纳入训练过程中,以提高分割性能。如图2所示,我们提出了两种简单但非常有效的改进方法来适应常规训练过程:

  1. 在训练过程中,我们使用蒙特卡洛Dropout从后验分布中进行采样,以获得与常规分割预测一起的预测不确定性

  2. 我们根据收集到的不确定性对常规交叉熵损失进行像素级加权

    在这里插入图片描述

    图2. U-CE训练过程的示意图。U-CE将Monte Carlo Dropout(MC-Dropout)模型的预测不确定性整合到训练过程中,以提高分割性能。与大多数Monte Carlo Dropout的应用相比,U-CE不仅在测试时利用不确定性,还通过对常规交叉熵损失进行像素级加权,在训练过程中动态地利用不确定性。


…详情请参照古月居

文章来源:https://blog.csdn.net/lovely_yoshino/article/details/132019275
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。