Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1629

 
Maxim Dmitrievsky:

¿SA?

Está todo ahí sobre la conversión de filas. Así que eso es básico, ¿qué es lo que sufres?

SA == StackOwerflow

No hay nada ahí sobre la fractalidad en el contexto del aprendizaje de AMO.

Es horriblemente simple pero debería funcionar, no importa qué filas pongas en AMO, ya sean minutos/semanas, todas juntas, encontrará ambos patrones y lo más importante: me dará una respuesta adecuada...

 
mytarmailS:

SA == StackOwerflow

No hay nada sobre la fractalidad en el contexto del aprendizaje de AMO

Es horriblemente simple pero debería funcionar. No importa qué filas pongas en el AMO, ya sean minutos/semanas o lo que sea, encontrará patrones en ambos y lo más importante te dará la respuesta correcta.

Olvídate de la fractalidad, es sólo una ficción.

No, no he enmascarado nada ahí.
 
Maxim Dmitrievsky:

Olvídate de la fractalidad, es una ficción.

La ficción es buscar la dimensionalidad en khurst, pero escalar los datos para que encajen en una plantilla para AMO es correcto y necesario, de lo contrario no encontrarás repeticiones en los datos y por lo tanto no hay estadística, probabilidad...

 
mytarmailS:

Es una farsa buscar la dimensionalidad por khirst, pero escalar los datos a una sola plantilla para AMO es correcto y necesario, de lo contrario no se encuentra ninguna repetición en los datos, y por lo tanto ninguna estadística, probabilidad...

Lo escalé, es una mierda ) y por khirst es una mierda, claro, y por entropía

 
Maxim Dmitrievsky:

Lo he escalado.

¿Cómo?

 
mytarmailS:

¿Cómo?

preconversión afín.

 
mytarmailS:

¡Micha! ¿Vas a responder a mi pregunta de la última página o no?

Seguro que le responderé. Un poco más tarde. Fui a cambiar la nevera. Sólo por un par de horas...
 
Maxim Dmitrievsky:

transformaciones afines.

déjame adivinar, ¿y todo esto lo hiciste en una ventana deslizante, de tamaño fijo por supuesto? )

 
mytarmailS:

déjame adivinar, ¿y todo esto lo hiciste en una ventana deslizante, de tamaño fijo por supuesto? )

cuanto más grande sea la ventana, mejor será la correlación

y lo hizo para diferentes TFs. Todo es una mierda
 
Maxim Dmitrievsky:

en uno en expansión, como el más grande de la ventana y el más alto de la correlación el mejor

Hmm, y las predicciones sobre los datos de entrenamiento así como sobre los datos de prueba de reconocimiento, ¿se ampliaron/disminuyeron también? o había un marcador fijo