CANet|拼接注意力网络

时间:2022-07-23
本文章向大家介绍CANet|拼接注意力网络,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

标题&作者团队

Paper: https://arxiv.org/abs/2006.11162

Abstract

该文提出一种用于low-level视觉任务(包含压缩伪影移出、图像降噪)的通用框架,作者提出一种新颖的Concatenated Attention Neural Network(CANet)用于图像复原任务。该文的主要贡献包含以下几点:

  • 通过简洁而有效的concat与特征选择机制,构件了一种新颖的连接机制;
  • 在每个block内同时使用了像素级与通道级注意力机制,有助于提取更有强有力的特征;
  • 通过充分实验验证了所提方法在压缩伪影移出与降噪方面的SOTA性能。

Method

下图给出了该文所提网络的整体流程图,它包含N个注意力模块与跳过连接,每个注意力模块又包含多个带注意力机制的block。

Attention Residual Block

关于Block这里好像并没有什么值得深入介绍的,直接上图咯。下图给出了图像超分领域用的比较多的几个:SRGAN中的模块(见下图a)、EDSR中的ResBlock(见下图b)、RCAN中的模块(见下图c)以及本文提出的注意力模块(下图d)。下面四个图基本上也代表了图像分类网络结构在图像超分应用的演变过程,以后可能还会有类似SKNet、ResNeSt、Res2Net等形式在low-level中的应用,再看到就没什么好意外的了。

上面提到了核心模块的构成示意图,接下来再看一下PA与CS的结构示意图,见下图。其实非常简单的,略过。

Loss Function

Experiments

直接上结果了,训练过程没什么好介绍的,都是非常基本的操作。下表给出了LIVE1、BSDS500、WIN143数据集上的效果对比。

下表给出了Urban100、CBSD68数据集上的效果对比。

最后看一下所提方法的视觉效果图吧。

全文到此结束,对该文感兴趣的同学建议去看一下原文。