Redes neuronales. Preguntas de los expertos. - página 2

 
Hmm..... no tenemos claros los términos. Yo te entendí de otra manera desde el principio. Ahora el último puesto lo tiene bien....)))) Bien, gracias. ))
 
StatBars писал(а) >> El error en la prueba deja de disminuir.. .

Entonces otra pregunta )))) ¿Existe una correlación entre el error mínimo en la prueba y el beneficio máximo?

 
LeoV писал(а) >>

Entonces otra pregunta )))) ¿Existe una correlación entre el mínimo error en una prueba y el máximo beneficio?

La hay, pero no hay una fórmula (universal como en las matemáticas), hay que deducir la relación para cada estrategia/tarea.

 
StatBars писал(а) >>

La hay, pero no existe una fórmula (universal, como en las matemáticas), hay que deducir la relación para cada estrategia/tarea.

Bueno, yo, por ejemplo, en mi experiencia no sentí que el error mínimo en OOS conduce incondicionalmente a un beneficio máximo.

 

No, un error mínimo en sí mismo no significa un beneficio máximo, lo que quería decir es que se puede establecer la relación entre el error y el beneficio.

Por ejemplo:

error 0,6 - (-1000 p)

0,55 error - 0 p

error 0,5 - 1500 p

error 0.45p - 3800 puntos

 
StatBars писал(а) >>

No, un error mínimo en sí mismo no significa un beneficio máximo, lo que quería decir es que se puede establecer la relación entre el error y el beneficio.

Por ejemplo:

error 0,6 - (-1000 p)

0,55 error - 0 p

error 0,5 - 1500 p

error 0.45p - 3800 puntos

Estoy de acuerdo, pero estamos luchando por el máximo beneficio. Y aquí, el mínimo error no nos da el máximo beneficio. Bueno, al menos no he podido encontrar ninguna confirmación de esto con yo mismo......

 
LeoV >> :

De acuerdo, pero estamos luchando por los máximos beneficios...

Y el crecimiento de los beneficios, no máximo pero suave, ya no es satisfactorio (:

¿O el beneficio máximo es tan pequeño que apenas cubre el diferencial?

 
storm писал(а) >>

Y el crecimiento de los beneficios, no máximo pero suave, ya no es satisfactorio (:

¿O el beneficio máximo es tan pequeño que apenas cubre el diferencial?

OK - máximo beneficio, que se consigue con un crecimiento suave del patrimonio, sin detracciones significativas. )))

 
LeoV >> :

Entonces otra pregunta )))) ¿Existe una correlación entre el error mínimo en la prueba y el beneficio máximo?

Por lo que tengo entendido, no hubo tal tarea para el autor %)

 
mrstock >> :

1) ¿He entendido bien que una red neuronal no es capaz de reconstruir una función si es intrínsecamente dinámica como en el caso del ACC, aún teniendo todos los datos necesarios para calcularla, ya que si la fórmula es rígidamente estática como en el caso del LVSS o el EMA, no hay problema.

2) Si me equivoco, ¿qué redes deben utilizarse? Y utilizó MLP en las estadísticas.

3) He oído la opinión de que las redes automáticas y las redes de diseño propio e...., si se me permite decirlo, no hay fundamentalmente mucha diferencia. ¿Es realmente así?

4) ¿Qué redes y qué programas aconsejaría para su aplicación a los mercados financieros, en particular para la tarea que he descrito, es decir, para restablecer los valores a partir de todos los datos conocidos?

Punto 1 Según el paradigma de que la NS multicapa es capaz de restaurar cualquier función, la cuestión en la práctica suele reducirse a la preparación de los datos y a la metodología de entrenamiento. También puede intentar variar los datos de entrenamiento. Por cierto, como en la volatilidad media adaptativa varía con el tiempo, te sugiero que pruebes el método de la ventana deslizante para formar una muestra de entrenamiento.


El punto 2 MLP es suficiente, hay bastantes arquitecturas NS diferentes basadas en él.


p.3 Bueno, si se aplica correctamente, ¡qué más da!


p.4 Matlab, como arquitectura sugiero cualquier variante de red recurrente, aunque MLP debería ser suficiente ...