论文地址:https://arxiv.org/ftp/arxiv/papers/1907/1907.10213.pdf
源码地址:https://github.com/zskuang58/WTRN-TIP
??这篇论文提出了一种基于小波变换的纹理重构网络(WTRN),用于从参考图像中提取和迁移纹理信息,提高低分辨率图像的质量。该方法利用小波变换将纹理特征分解为不同频率的子带,分别进行特征匹配和特征交换,同时引入了一种基于小波的纹理对抗损失函数,使得生成的图像具有更真实的纹理效果。该方法在四个数据集上的实验结果表明,它优于之前的RefSR方法。
??图像超分辨率的方法分为三种:基于失真的方法,基于感知的方法和基于参考的方法。基于失真的方法:这类方法以像素级误差(如MSE和MAE)为主要优化目标,能够实现较小的失真,但是由于回归到均值的现象,它们恢复的图像通常是模糊和过度平滑的,导致人类视觉效果不佳。基于感知的方法:这类方法利用许多与感知相关的约束(如感知损失和对抗损失)来提高重建结果的视觉质量。虽然恢复的图像对人类视觉感知更宽容,但是这些结果容易出现较大的PSNR降低和不理想的纹理伪影。基于参考的方法(RefSR):这类方法能够在超分辨率的图像上生成更合理和真实的纹理,超过了前述的图像SR方法。在RefSR中,LR图像中丢失的细节可以用HR参考图像中的丰富纹理信息来补充。这些HR参考图像,