前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >DeepLearning笔记-自编码网络

DeepLearning笔记-自编码网络

作者头像
百川AI
发布2021-10-19 16:26:18
4080
发布2021-10-19 16:26:18
举报
文章被收录于专栏:我还不懂对话

自编码器是神经网络的一种,是一种无监督学习方法,使用了反向传播算法,目标是使输出=输入。 自编码器内部有隐藏层 ,可以产生编码表示输入。1986 年Rumelhart 提出。

自编码器主要作用在于通过复现输出而捕捉可以代表输入的重要因素,利用中间隐层对输入的压缩表达,达到像PCA那样的找到原始信息主成分的效果。

传统自编码器被用于降维或特征学习。 近年来,自编码器与潜变量模型理论的联系将自编码器带到了生成式建模的前沿。

下图是一个自编码网络的例子,对于输入

x^{(1)}, x^{(2)}, ...; x^{(i)} \in R^n

,让目标值等于输入值

y^{(i)} = x^{(i)}

1. 欠完备自编码器

简单而言就是我们不关心输出,而是中间多特征的压缩表达,所以会限制中间层维度小于输入输出,这种编码维度小于输入维度的自编码器称为欠完备自编码器

设定的损失函数为:

L(x,g(f(x)))

其中

g(f(x))

衡量

f(x)

和x的差异,比如均方误差MSE

2. 正则自编码器

在欠完备自编码器我们限制了隐层维度小于输入,而当隐层维度等于或者大于输入的时候,整个网络可能或直接学习到了恒等复制。

这个时候正则编码器就是在这种隐层维度比输入高的情况,使用的损失函数可以鼓励模型学习其他特性(除了将输入复制到输出),而不必限制使用浅层的编码器和解码器以及小的编码维数来限制模型的容量。

这个时候就可以根据要建模的数据分布的复杂性,选择合适的编码维数和编码器、解码器容量,就可以成功训练任意架构的自编码器。

2.1 稀疏自编码器

稀疏自编码器简单地在训练时结合编码层的稀疏惩罚

\Omega(h)

和重构误差:

L(x,g(f(x))) + \Omega(h)

其中

g(f(x))

衡量

f(x)

和x的差异,比如均方误差MSE

将惩罚项

\Omega(h)

视为加到前馈网络的正则项,这个前馈网络的主要任务是将输入复制到输出(无监督学习的目标),并尽可能地根据这些稀疏特征执行一些监督学习任务(根据监督学习的目标)。

2.2 去噪自编码器

去噪自编码从改变重构误差入手,先看看公式:

L(x,g(f(\tilde x)))

其中

\tilde x

是带有噪声的样本,x是原始无噪样本,

g(f(\tilde x))

衡量

f(\tilde x)

和x的差异,比如均方误差MSE。

从上面公式我们可以看出,去噪自编码网络的输入是带有噪声的样本,学习目标是原始无噪样本,通过模型的学习可以达到消除输入噪声的效果,具体见我的下一篇帖子。 实现的一个例子:去噪自编码网络-python keras实现

2.3 惩罚导数作为正则

正则化自编码器的另一个策略是使用一个类似稀疏自编码器中的惩罚项

\Omega

L(x,g(f(x))) + \Omega(h, x)

而其中:

\Omega(h, x) = \lambda \sum_i |\nabla_x h_i |^2

这迫使模型学习一个在

x

变化小时目标也没有太大变化的函数。 因为这个惩罚只对训练数据适用,它迫使自编码器学习可以反映训练数据分布信息的特征。

这样正则化的自编码器被称为收缩自编码器

Reference

  1. 自编码算法与稀疏性
  2. 自编码器
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017/08/13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 欠完备自编码器
  • 2. 正则自编码器
    • 2.1 稀疏自编码器
      • 2.2 去噪自编码器
        • 2.3 惩罚导数作为正则
        • Reference
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档