Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 2): Entrenamiento y prueba de la red"

 

Artículo publicado Redes neuronales: así de sencillo (Parte 2): Entrenamiento y prueba de la red:

En el presente artículo, proseguiremos nuestro estudio de las redes neuronales, iniciado en el artículo anterior, y analizaremos un ejemplo de uso en los asesores de la clase CNet que hemos creado. Asimismo, analizaremos dos modelos de red neuronal que han mostrado resultados semejantes tanto en su tiempo de entrenamiento, como en la precisión de sus predicciones.

La primera época depende al máximo de los pesos de la red neuronal elegidos al azar en la etapa inicial.

Tras 35 épocas de entrenamiento, la brecha en las estadísticas se amplió levemente a favor del modelo de regresión de la red neuronal:

Índice Red neuronal de regresión Red neuronal de clasificación
Error medio cuadrático 0.68 0.78
Porcentaje de "acierto" 12.68% 11.22%
Fractales "omitidos" 20.22% 24.65%

Resultado de la 35ª época de entrenamiento de la red neuronal de regresión (1 neurona de entrada) Resultado de la 35ª época de entrenamiento de la red neuronal de clasificación (3 neuronas de entrada)

Los resultados de la simulación muestran que ambas variantes de organización de la red neuronal ofrecen resultados semejantes tanto en su tiempo de entrenamiento, como en la precisión de sus predicciones. Asimismo, los indicadores obtenidos muestran la necesidad de gastar tiempo y recursos adicionales para el entrenamiento. Los lectores que deseen analizar la dinámica de aprendizaje de las redes neuronales, podrán estudiar las capturas de pantalla de cada época de entrenamiento en el archivo adjunto.

Autor: Dmitriy Gizlyk

 
Esta solo es mi opinion personal.
He estudiado Redes Neuronales en Metatrade4 durante años, he hecho redes de 3 layers con n neuronas en cada layer.
Como entradas he usado indicadores, en multitimeframe, etc, etc
Y el resultado siempre es el mismo. PESIMO.
Excelente cuando se entrenan, resultados casi perfectos.
Pero cuando tienen que poner en practica lo aprendido, son una completa decepcion.
 

Hi Dmitriy, I have read your article and I have gone through the code and I see that you only use one data set for training, but you do not use another data set for validation and thus avoid over-optimization. With such a large neural network, with several hidden layers and so many neurons per layer, the network will surely memorize all the data, but it will not be able to predict, once the training is finished.

Greetings and thanks for your article and the code


Gerardo