首页 > 代码库 > DL论文

DL论文

论文:Deeply-Recursive Convolutional Network for Image Super-Resolution

      摘要: 提出网络DRCN:deeply-recusrive convolutional network.特点:增加递归层可在不引入额外卷积层(引入新参数)的情况下提高性能。缺点:由于梯度消失,利用标准梯度下降训练DRCN很难。两种解决训练的方案:递归监督(recursive-supervision)和skip-connection.

1.介绍

1)对于super-resolution(SR超分辨),卷积网络的receptive field决定了contextual information的数量。而这些信息与缺失的高维细节特征有关。收集分析更多临域像素可能给出下采样带来的损失的原因。  High-resolution(HR高分辨).

2)深度卷积网络(DCN)成功在各种各样的计算机视觉任务,它们往往有非常大的receptive field。那么拓宽receptive field方法有啥呢??may增加网络深度。具体方式有两种:filter尺寸大于1*1的卷积层或者池化层that reduces the dimension of intermediate representation can be used.前者缺点:引入了更多参数,后者缺点:丢弃了一些pixel-wise信息。池化层又叫下采样层。

3)问题又来了,引入池化会丢失细节,因为对于像超分辨和去噪的图像复原问题细节很重要,所以这种问题不用池化;然而加入新的weight layer也有问题,引入卷积层来增加网络深度会导致过拟合可能性更大(又需要更多数据来降低过拟合)、模型更庞大(不利于存入和恢复)。

4)那么3)中分析了池化和卷积带来的麻烦,所以引入DRCN来解决问题。它重复多次应用相同的卷积层。它不会带来参数增加的问题,和SRCNN(下篇论文讲)比receptive field更大。然而DRCN利用梯度下降不易收敛,与梯度消失有关。还有一个缺点:用单权重网络层学习大范围独立像素很困难。

5)阐述recursive-supervisionskip-connection.他俩解决训练问题。前者:首先,所有递归被监督,每次递归后,特征映射被用来重构HR,重构方法对于递归过程都相同,每次递归给出一个HR预测,结合递归的不同层次所带来的不同预测结果来达到更精确预测。后者:在SR中,低分辨(输入)和高分辨(输出)大范围享有共同信息,对于输入的精准复制然而在前向传播会衰减,我们对于输出重构将输入与网络层结合起来。如果输入和输出高度相关时尤其有效(对于SR,输入输出图像高度相关)。

2.相关工作

1)许多方法应用于寻找LR到HR的更好的回归函数,有neighbor embedding、sparse coding、convolutional neural network、random forest.

2)RNN适合于temporal和sequential数据,但是对于单幅静态图像的算法中应用局限.SR处理中不允许有维数减少,因为它预测full-size图像。递归层有着相同维数的输入输出,但是递归卷积比起单纯卷积有更糟的表现,因为过拟合问题。。有人提出来克服过拟合的方法:takes feed-forward inputs into all unfolded layers。他们提出这种克服过拟合的方法表现优异,且网络结构类似于CNN。本文与其类似的地方在于也是用递归或周期性网络层+卷积,进一步的,利用深层递归并也验证了深层递归可以提高SR的表现。本文将相同的卷积进行了16次(之前最多也不过3次)。

 3.具体方法(basic model)

1)网络结构包含三个子网络:embedding、inference、reconstruction.

2)embedding网络接收输入图像(灰度或RGB)并将其视作一组特征映射(feature maps)。

3)inference网络为主网络,处理SR。单递归层分析图像区域,每个递归都有相同的卷积操作,卷积过滤器大于1*1,receptive field随着每次递归而增加,最后一层递归代表了HR图像,这时是图像是多通道的。

4)reconstruction网络将多通道转换为单或3通道。

4.具体方法(advanced model)

1)recursive-supervision

2)skip-connnection

 

DL论文