文章 "神经网络变得轻松(第二十部分):自动编码器"

 

新文章 神经网络变得轻松(第二十部分):自动编码器已发布:

我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。

一般情况下,自动编码器是由两个编码器和解码器模块组成的神经网络。 编码器源数据层和解码器结果层包含相同数量的元素。 它们之间有一个隐藏层,通常比源数据小。 在学习过程中,这一层的神经元形成一种潜在(隐藏)状态,能以压缩形式描述源数据。


这类似于我们采用主成分分析方法解决的数据压缩问题。 不过,稍后我们讨论的方法中会存在一些差异。

如上所述,自动编码器是一种神经网络。 它通过反向传播方法进行训练。 诀窍在于,因为我们用的是未标记的数据,所以我们首先训练模型,再用编码器将数据压缩到潜在状态的大小。 然后,在解码器中,模型在数据恢复到原始状态时信息损失将会最小。

作者:Dmitriy Gizlyk