前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >基于深度循环卷积神经网络的图像超分辨率重建 学习笔记

基于深度循环卷积神经网络的图像超分辨率重建 学习笔记

作者头像
Natalia_ljq
发布2020-06-03 10:45:42
7570
发布2020-06-03 10:45:42
举报
文章被收录于专栏:基于深度学习的图像增强

介绍

本文使用 深度循环卷积神经网络deeply-recursive convolutional network (DRCN),该网络可以重复使用一个卷积层,多次循环也不会增加参数,尽管DRCN具有较好的性质,但也存在一个问题,由于梯度消失或者爆炸,使用随机梯度下降优化时很难收敛,使用单个权重层来学习像素之间的长期依赖关系是非常困难的。 为了解决难训练的问题,提出了两种方法: ①所有递归都是受监督的。每次循环后的特征矩阵用来重建高分辨率的图像( high-resolution ,HR),并且所有循环的重建方法都是一样的,每次循环会得到一个不同的HR预测,将所有预测结合返回一个精确的最后预测结果。 ②使用跃层连接(skip-connection),在许多向前传递过程中,输入的精确拷贝可能会被减弱,所以我们将输入连接到各个层以进行输出重构。 本文中提出的方法展现了非常好的效果。

网络结构

基本模型

图1:基本的模型结构,包含了三个部分,嵌入式网络(Embedding network),将输入图像表示为一系列的特征映射,使用33的filter;推理网络(Inference network)为主要部分,用于完成超分辨率任务,使用3\3的卷积;重建网络(Reconstruction network)将高分辨率图像(多通道)转变成原始状态(1或3通道)。Inference network是一个循环结构,展开如图2。

图2:未折叠的inference network,左边是一个循环层,右边是未折叠的结构。特征映射循环使用相同的filter W,我们的模型可以在非常大的context中不引入新的权重参数。

改进的模型

图3:(a): 我们最终的模型,采用了recursive-supervision 和kip-connection。重建网络共享用于递归预测,使用中间循环的所有的预测结果得到最后的输出。(b):采用深度监督(deep-supervision),与(a)不同,(b)中使用不同地重建网络用于循环,参数也更多;(c):(a)的扩展,没有参数共享(没有循环),权重参数的数量与深度的平方成正比。 循环监督: 在改进的模型中,我们监督所有的循环过程来减小梯度消失或者爆炸的影响。循环监督结构降低了循环网络训练的结构,如果监督信号在之前的循环损失层中经过,那么反向传播只会穿过少量的层,这样不同的预测损失求得的梯度反向传播反馈影响就会比较小,这样就可以减缓梯度消失或爆炸问题。此外,监督还能利用所有中间层的预测结果使最优循环次数的重要性下降,如果循环次数越多,我们就希望后预测的权重比较小,先预测的权重比较大。 跃层连接 优点:①在循环过程中存储输入信号的网络容量被保存;②在目标预测时可以使用输入信号的精确拷贝,这种 skip-connection 简单却很有用。

实验结果

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-06-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 介绍
  • 网络结构
    • 基本模型
      • 改进的模型
      • 实验结果
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档