DeepLearning笔记-自编码网络

2021-10-19 16:26:18 浏览数 (1)

自编码器是神经网络的一种,是一种无监督学习方法,使用了反向传播算法,目标是使输出=输入。 自编码器内部有隐藏层 ,可以产生编码表示输入。1986 年Rumelhart 提出。

自编码器主要作用在于通过复现输出而捕捉可以代表输入的重要因素,利用中间隐层对输入的压缩表达,达到像PCA那样的找到原始信息主成分的效果。

传统自编码器被用于降维或特征学习。 近年来,自编码器与潜变量模型理论的联系将自编码器带到了生成式建模的前沿。

下图是一个自编码网络的例子,对于输入

x^{(1)}, x^{(2)}, ...; x^{(i)} in R^n

,让目标值等于输入值

y^{(i)} = x^{(i)}

1. 欠完备自编码器

简单而言就是我们不关心输出,而是中间多特征的压缩表达,所以会限制中间层维度小于输入输出,这种编码维度小于输入维度的自编码器称为欠完备自编码器

设定的损失函数为:

L(x,g(f(x)))

其中

g(f(x))

衡量

f(x)

和x的差异,比如均方误差MSE

2. 正则自编码器

在欠完备自编码器我们限制了隐层维度小于输入,而当隐层维度等于或者大于输入的时候,整个网络可能或直接学习到了恒等复制。

这个时候正则编码器就是在这种隐层维度比输入高的情况,使用的损失函数可以鼓励模型学习其他特性(除了将输入复制到输出),而不必限制使用浅层的编码器和解码器以及小的编码维数来限制模型的容量。

这个时候就可以根据要建模的数据分布的复杂性,选择合适的编码维数和编码器、解码器容量,就可以成功训练任意架构的自编码器。

2.1 稀疏自编码器

稀疏自编码器简单地在训练时结合编码层的稀疏惩罚

Omega(h)

和重构误差:

L(x,g(f(x))) Omega(h)

其中

g(f(x))

衡量

f(x)

和x的差异,比如均方误差MSE

将惩罚项

Omega(h)

视为加到前馈网络的正则项,这个前馈网络的主要任务是将输入复制到输出(无监督学习的目标),并尽可能地根据这些稀疏特征执行一些监督学习任务(根据监督学习的目标)。

2.2 去噪自编码器

去噪自编码从改变重构误差入手,先看看公式:

L(x,g(f(tilde x)))

其中

tilde x

是带有噪声的样本,x是原始无噪样本,

g(f(tilde x))

衡量

f(tilde x)

和x的差异,比如均方误差MSE。

从上面公式我们可以看出,去噪自编码网络的输入是带有噪声的样本,学习目标是原始无噪样本,通过模型的学习可以达到消除输入噪声的效果,具体见我的下一篇帖子。 实现的一个例子:去噪自编码网络-python keras实现

2.3 惩罚导数作为正则

正则化自编码器的另一个策略是使用一个类似稀疏自编码器中的惩罚项

Omega

L(x,g(f(x))) Omega(h, x)

而其中:

Omega(h, x) = lambda sum_i |nabla_x h_i |^2

这迫使模型学习一个在

x

变化小时目标也没有太大变化的函数。 因为这个惩罚只对训练数据适用,它迫使自编码器学习可以反映训练数据分布信息的特征。

这样正则化的自编码器被称为收缩自编码器

Reference

  1. 自编码算法与稀疏性
  2. 自编码器

0 人点赞