Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 22): Aprendizaje no supervisado de modelos recurrentes"

 

Artículo publicado Redes neuronales: así de sencillo (Parte 22): Aprendizaje no supervisado de modelos recurrentes:

Continuamos analizando los algoritmos de aprendizaje no supervisado. Hoy hablaremos sobre el uso de autocodificadores en el entrenamiento de modelos recurrentes.

Hemos probado el modelo con todos los parámetros usados antes: EURUSD, marco temporal H1, periodo de prueba - últimos 15 años. Parámetros por defecto de los indicadores. Las últimas 10 velas se introducirán en la entrada del codificador. El decodificador está entrenado para decodificar las últimas 40 velas. Podemos ver los resultados de la prueba en el siguiente gráfico. La entrada del codificador recibe los datos después de que se forme cada nueva vela.

Resultados del entrenamiento del autocodificador RNN

Como podemos ver en el gráfico, los resultados de la prueba confirman la validez de este enfoque para el entrenamiento preliminar no supervisado de modelos recurrentes. Durante el entrenamiento de prueba de nuestro modelo, después de 20 épocas de entrenamiento, el error del modelo casi se ha estabilizado con una tasa de pérdida inferior al 9%. No obstante, debemos decir que el estado latente del modelo almacena información sobre al menos 30 iteraciones anteriores.

Autor: Dmitriy Gizlyk