Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2407

 
mytarmailS:

Discutir sobre qué modelo es mejor es un juego de niños, yo sufría esta mierda hace unos 7 años.


cómo generar nuevos elementos informativos - SÍ

cómo crear funciones de aptitud objetivas para el mercado - SÍ

cómo transformar la información entrante - SÍ

cómo construir funciones adaptables al mercado - SÍ

pero discutir qué es mejor NS o Forrest sobre los mismos datos vacíos es sólo FEIS PALM...

la diferencia de error entre todas las docenas de algoritmos de MO diferentes es de 0,5 - 2%.

2% Carl!!! tenemos que discutir algo que da una brecha de 20-30%

¡¡¡¡Si los signos son informativos, cualquier AMO funcionará bien, lo contrario también es cierto!!!!

Estas son las palabras de un hombre que no entiende nada de lo que lleva discutiendo en este hilo desde hace AÑOS.

"La diferencia de error" en una prueba de avance entre laregresión lineal muda convencional y la NS puede ser MÁS del 20-30% y no a favor de la red.

Y esto es fácil de comprobar y demostrar.

Por eso, las redes son el ajuste habitual

 
Dmytryi Nazarchuk:

Estas son las palabras de alguien que no entiende nada de lo que lleva discutiendo en este hilo desde hace AÑOS.

"La diferencia de error" en una prueba de avance entre unaregresión lineal normal y NS puede ser MÁS del 20-30%.

Y es fácil de comprobar y demostrar.

Demostrar
 
mytarmailS:
Demo

Curva azul (GBP D1 - GBP LineReg), curva naranja(GBP D1 - GBP NN).

Muestra de aprendizaje 2009-2020, adelante 2021.

Las variables independientes son las mismas.


 
Dmytryi Nazarchuk:

Curva azul (GBP D1 - GBP LineReg), curva naranja(GBP D1 - GBP NN).

Muestra de formación 2009-2020, adelante 2021.

Las variables independientes son las mismas.


Por favor, envíenme los datos en el formato señales, objetivo, salidas de las neuronas, salidas de regresión, así como las etiquetas, donde traza donde prueba
 
mytarmailS:
Por favor, envíeme los datos en el formato de señales, objetivo, salidas de neuronas, salidas de regresión y etiquetas, donde traza es donde prueba

)No, no puedo restablecer las señales.

 
Dmytryi Nazarchuk:

)No, no puedo restablecer las señales.

¿Por qué?

Olvídalo, sólo quería mostrarte que si tienes un entendimiento, puedes hacer un lin. El modelo de regresión es tan bueno o incluso mejor que el NS...

Pero todo empezó no por eso, y que ningún AMO no da una ventaja considerable sobre otro para los datos estándar, la diferencia del 2 % no es nada cuando se necesita el 20-30 %
 
mytarmailS:
¿Por qué?

Bueno, eso ya es mi saber hacer.

 
Dmytryi Nazarchuk:

Bueno, ese es mi know-how.

Así que, si se lanza una matriz de características ya hechas y un objetivo ya hecho, ¿revela eso su tipo de conocimiento de la tecnología?

¡Dmitry, eres un genio! )) Será mejor que vaya a leer un libro ahora...

 
mytarmailS:

Así que, si se lanza una matriz de rasgos ya hechos y un objetivo ya hecho, ¿revelará sus conocimientos tecnológicos?

¡Dmitry, eres un genio! )) Será mejor que vaya a leer un libro.

Gracias.

 
A veces la gente no entiende la diferencia entre un modelo de regresión y un modelo de regresión con tallos f de activación, de ahí las conclusiones torcidas. Por ejemplo, si no se normalizan los datos del segundo correctamente, habrá una explosión de gradiente y no se aprenderá nada.
Además, no entienden que el primer modelo es una simple neurona sin f-siones de activación, de la que se deriva el segundo modelo.