Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3287

 
Aleksey Vyazmikin #:

Si se encuentra "algo", ¿cuál es su vida útil fuera de la enseñanza habitualmente?

Sólo reentreno el modelo una vez a la semana. Puede vivir más tiempo, no lo he investigado.... pero puede ser menos y es necesario volver a entrenar como SanSanych en cada barra (si H1, es posible en principio).
Para mí una vez a la semana es aceptable en términos de velocidad - 5 años para 260 reentrenamiento aproximadamente pasa.
 
Aleksey Vyazmikin #:

Podemos concluir provisionalmente que, efectivamente, el éxito del entrenamiento depende del tamaño de la muestra. Sin embargo, observo que los resultados de la muestra "-1p1-2" son comparables, e incluso mejores según algunos criterios, con los de la muestra "-1p2-3", mientras que para la muestra "0p1-2" los resultados son el doble de malos en cuanto al número de modelos que cumplen el criterio dado.

Ahora he ejecutado una muestra con cronología invertida, en la que la muestra de entrenamiento consiste en la muestra inicial examen+prueba+entrenamiento_p3, y la muestra de prueba es entrenamiento_p2, y examen es entrenamiento_p1. El objetivo es ver si es posible construir un modelo exitoso con datos más recientes que hubiera funcionado hace 10 años.

¿Cuál crees que será el resultado?

No tuve que esperar mucho - el resultado está en la última columna de la tabla

Intentaré hacer un comentario imparcial. Por un lado, podemos decir que cambiar la cronología de la muestra empeoró significativamente los resultados según el criterio principal: el número de modelos adecuados, pero, por otro lado, el mero hecho de que se encontraran tales modelos dice que hay algunos patrones estables en los datos. ¿O es aleatorio? Sí, por supuesto, tenemos que tomar otras muestras y realizar estudios similares, y sólo entonces podremos sacar conclusiones con más confianza. Por ahora, esto es sólo información para reflexionar.

Objetivamente, hay muchos datos: suelo utilizar múltiplos de muestras más pequeñas para el entrenamiento, aunque comparables al curso cronológico. Más triste parece la tasa Recall en todos los experimentos. Incluso me sorprende que nadie le haya prestado atención. En general, podemos decir repetidamente que las métricas estándar dan una mala indicación del resultado financiero si no se utilizan takeouts y stops fijos.

Si tienes alguna idea/deseo de qué más combinar aquí (gráficos de muestra) con algo - dímelo - intentaré comprobar qué pasará.

 
Forester #:
Sólo vuelvo a entrenar el modelo una vez a la semana. Puede vivir más tiempo, no lo he investigado.... pero tal vez menos y es necesario volver a entrenar como SanSanych en cada barra (si H1, entonces, en principio, es posible).
Para mí una vez a la semana es aceptable en términos de velocidad - 5 años para 260 reentrenamiento aproximadamente pasa.

¿Cuál es el resultado de tal reentrenamiento en conjunto?

 
Aleksey Vyazmikin #:

¿Cuál es el resultado de esta reconversión en su conjunto?

Todos los gráficos que he mostrado para el último año se obtienen de esta manera. Sólo OOS por Valking-forward.
 
Andrey Dik #:

Max, no entiendo por qué te burlas de mí.

Si no hay suposiciones - no digas nada, si las hay - dilo, como "el resultado será una mierda".

Si es gracioso, puedes reírte, y si es triste, puedes llorar.

Lo que Aleksey Vyazmikin está discutiendo aquí no puede causar sugerencias y es imposible evaluar "mierda - no mierda".

Ejemplo, un hombre viene y dice

- enviemos una plancha a la luna.

Miramos con sorpresa.

Y el hombre dice:

- cambiaremos la temperatura de la plancha y le pondremos diferentes cantidades de agua.

¿Vas a reaccionar "si no hay supuestos - guardar silencio, si hay - hablar, como "el resultado será una mierda"?

Lo que hace leksey Vyazmikin no tiene nada que ver con los problemas del Ministerio de Defensa. Él tira de una ópera y trata de obtener una respuesta de otra ópera - toda la charla vacía de un hombre con un lío en la cabeza.

 
Forester #:
Todos los gráficos que he mostrado para el último año se obtienen de esta manera. Sólo OOS por Valking Forward.

A juzgar por las imágenes, el Recall también es bajo, es decir, el modelo confía poco en algo y es muy prudente en las previsiones.

 
Forester #:
Sólo vuelvo a entrenar el modelo una vez a la semana. Puede vivir más tiempo, no lo he investigado.... pero tal vez menos y es necesario volver a entrenar como SanSanych en cada barra (si H1, entonces, en principio, es posible).
Para mí una vez a la semana es aceptable en términos de velocidad - 5 años para 260 reentrenamiento aproximadamente pasa.

He descubierto un problema fundamental aquí: mirar hacia adelante. Se manifiesta de la siguiente manera: tomamos trozos de un archivo grande, los enseñamos, luego los probamos, los comprobamos - todo es normal, el error es más o menos el mismo. Pero en cuanto ejecutamos fuera de estos tres archivos, que son trozos de un archivo grande, el resultado es fundamentalmente diferente, normalmente catastrófico.

Si volvemos a entrenar en cada paso, se elimina el problema de "mirar hacia delante", porque la predicción se hace sobre los mismos valores predictores que el entrenamiento.

Y si no se enseña en cada paso, entonces todos los predictores, incluyendo la sección de entrenamiento, se enseñan sobre algunos valores y luego se predice sobre ellos. Y aquí está la cuestión: ¿coincidirán o no los nuevos valores de los predictores con los valores de los predictores en el gráfico de aprendizaje?

 
СанСаныч Фоменко #:

Aquí descubrí un problema fundamental: mirar hacia delante. Se manifiesta de la siguiente manera: tomamos trozos de un archivo grande, los estudiamos, luego los probamos, los comprobamos - todo es normal, el error es aproximadamente el mismo. Pero tan pronto como ejecutamos fuera de estos tres archivos, que son piezas de un archivo grande, el resultado es fundamentalmente diferente, por lo general catastrófico.

Si volvemos a entrenar en cada paso, se elimina el problema de "mirar hacia delante", porque la predicción se realiza sobre los mismos valores predictores que el entrenamiento.

Y si no se enseña en cada paso, entonces todos los predictores, incluida la sección de entrenamiento, se enseñan sobre algunos valores y luego se predice sobre ellos. Y aquí está la cuestión: ¿coincidirán o no los nuevos valores de los predictores con los valores de los predictores en el gráfico de aprendizaje?

¿Dónde está ese vistazo que tienes?

Lo he leído un par de veces y no le he visto la lógica.

Inventan problemas y luego los resuelven heroicamente: uno mira hacia el futuro, el otro busca el marcado perfecto....

 
СанСаныч Фоменко #:

Lo que hace el leksey Vyazmikin no tiene nada que ver con los problemas del Ministerio de Defensa. Tira de una ópera e intenta obtener una respuesta de otra ópera: todo palabrería vacía de un hombre con un lío en la cabeza.

Si no entiendes lo que hago, pregunta. Sí, a menudo mis experimentos van más allá del conocimiento académico.

 
СанСаныч Фоменко #:

Aquí descubrí un problema fundamental: mirar hacia delante. Se manifiesta de la siguiente manera: tomamos trozos de un archivo grande, los estudiamos, luego los probamos, los comprobamos - todo es normal, el error es aproximadamente el mismo. Pero tan pronto como ejecutamos fuera de estos tres archivos, que son piezas de un archivo grande, el resultado es fundamentalmente diferente, por lo general catastrófico.

Si volvemos a entrenar en cada paso, se elimina el problema de "mirar hacia delante", porque la predicción se realiza sobre los mismos valores predictores que el entrenamiento.

Y si no se enseña en cada paso, entonces todos los predictores, incluida la sección de entrenamiento, se enseñan sobre algunos valores y luego se predice sobre ellos. Y aquí está la cuestión: ¿los nuevos valores del predictor serán los mismos que los valores del predictor en el gráfico de aprendizaje o no?

Creo que es alguna implementación de tu código donde encontraste peeking. Yo solucioné los peeks hace unos 4 años. Mis datos se toman estrictamente hasta la barra actual (incluyendo el historial). Además, añado la sección Embargo 1-5 días(como recomienda Prado) a mi Valking Forward. Si el modelo capta movimientos de 100-300 pts, entonces 1 día es suficiente, si 1000 - entonces 5 días es más fiable.