Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 20): Autocodificadores"

 

Artículo publicado Redes neuronales: así de sencillo (Parte 20): Autocodificadores:

Continuamos analizando los algoritmos de aprendizaje no supervisado. El lector podría preguntarse sobre la relevancia de las publicaciones recientes en el tema de las redes neuronales. En este nuevo artículo, retomaremos el uso de las redes neuronales.

En general, podemos definir los autocodificadores como redes neuronales compuestas por 2 bloques de codificación y decodificación. La capa de datos de origen del codificador y la capa de resultados del decodificador contienen el mismo número de elementos. Entre el codificador y el decodificador hay una capa oculta que suele ser más pequeña que los datos de origen. Durante el aprendizaje, las neuronas de esta capa forman un estado latente (oculto) capaz de describir los datos de origen de forma concisa.


Este recuerda al problema de compresión de datos que resolvimos con el método de componentes principales. Pero hablaremos de la diferencia de enfoque un poco más tarde.

Como ya hemos dicho, el autocodificador es una red neuronal y se entrena usando el método de propagación hacia atrás del error que ya conocemos. El truco consiste en que, como estamos usando datos no etiquetados, entrenaremos el modelo para que primero comprima los datos con un codificador hasta el tamaño del estado latente. A continuación, restauraremos los datos a su estado original en el decodificador con una pérdida mínima de información.

Autor: Dmitriy Gizlyk