Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2029

 
elibrarius:
¿Cuáles son los datos?

Cada minuto se abren compras con SLs y TPs de 100 a 2500 en incrementos de 100 sobre una base de 5 dígitos. Es decir, cada minuto se abren 625 compras. Todo al precio del minuto de apertura.

Después de la decodificación debería tener este aspecto:

No, precio de entrada (*10^5), hora unix, año, mes, día, minuto, segundo, día de la semana, día del año, ... ...todo lo mismo para la salida, ... , SL en pp, SL en precios, TP en PP, TP en precios, resultado comercial.

Los bosques deberían tomárselo con calma. También es interesante dividirlo en grupos.

 
Rorschach:

Cada minuto se abren compras con un SL y un TP de 100 a 2500 en incrementos de 100 sobre una base de 5 dígitos. Es decir, cada minuto se abren 625 compras. Todo al precio del minuto de apertura.

Después de la decodificación debería tener este aspecto:

No, precio de entrada (*10^5), hora unix, año, mes, día, minuto, segundo, día de la semana, día del año, ... ...todo lo mismo para la salida, ... , SL en pp, SL en precios, TP en PP, TP en precios, resultado comercial.

Los bosques deberían tomárselo con calma. También es interesante desglosar los grupos.

He estado haciendo lo mismo con TP\CL.
No hice un paso de 10 puntos, sino que hice 100,200,300,500,700,1000,2000 - si aplicas eso, obtienes 49 combinaciones diferentes por minuto, lo cual es casi 13 veces menos datos.
No creo que se necesite un paso fino en TP/SCL altos, 2400 y 2500 serán ligeramente diferentes, y el ahorro de recursos es de 13 veces.
También hice pases separados para cada combinación de CPOLs, en lugar de todos a la vez en un solo archivo.
Al igualar TP/SL, se puede evaluar inmediatamente la rentabilidad del sistema. Por ejemplo, en TP = 50. Obtengo el 53-55% de los tratos exitosos. En el probador.

Desde marzo, cuando la volatilidad aumentó, es imposible utilizar TP=SL=50, mientras que solía ser una combinación válida durante muchos años. Antes de marzo 50 pts podían ganar 10-20 min, mientras que en marzo tardaron 1-2-5 min.
Ahora sólo quiero buscar puntos de entrada y estimar resultados sobre la marcha con mi probador. Creo que será más universal para cualquier volatilidad.

Intente tomar una combinación de TP=SL=100 por ejemplo y entrene el modelo. Creo que debería tener suficiente potencia para ello. Si es superior al 55% en OOS, entonces sus datos son mejores que los míos) Y es incluso mejor comprobar no en OOS (ya que puede ser sólo suerte), pero por validación cruzada - es más fiable.
 
elibrarius:
Yo hice lo mismo con TP/SCL.
No hice un paso de 10 pt en el mío, pero en una cuadrícula de 100,200,300,500,700,1000,2000 - si aplicas eso, obtienes 49 combinaciones diferentes por minuto, eso es casi 13 veces menos datos.
No creo que se necesite un paso fino en TP/SCL altos, 2400 y 2500 serán ligeramente diferentes, y el ahorro de recursos es de 13 veces.
También hice pases separados para cada combinación de CPOLs, en lugar de todos a la vez en un solo archivo.
Al igualar TP/SL, se puede evaluar inmediatamente la rentabilidad del sistema. Por ejemplo, en TP = 50. Obtengo el 53-55% de los tratos exitosos. En el probador.

Desde marzo, cuando la volatilidad aumentó, es imposible utilizar TP=SL=50, mientras que solía ser una combinación válida durante muchos años. Antes de marzo 50 pts podían ganar 10-20 min, mientras que en marzo tardaron 1-2-5 min.
Ahora sólo quiero buscar puntos de entrada y estimar resultados sobre la marcha con mi probador. Creo que será más universal para cualquier volatilidad.

Intente tomar una combinación de TP=SL=100 por ejemplo y entrene el modelo. Creo que debería tener suficiente potencia para ello. Si es superior al 55% en OOS, entonces sus datos son mejores que los míos) Y es incluso mejor comprobar no en OOS (ya que puede ser sólo suerte), pero por validación cruzada - es más fiable.

Lo más probable es que tengas que adelgazar tus datos

 
Rorschach:

Es probable que tenga que diluir sus datos

Si haces un entrenamiento con TP/CL=50 o 100 escribe el resultado en la validación cruzada, me pregunto si obtendrás más del 55%
 
elibrarius:
Si haces el entrenamiento con SP/SL=50 o 100 escribe el resultado en la validación cruzada, me pregunto si consigues más del 55%.

Durante 10 años, he tenido un sistema en el probador que abría una compra una vez al día con diferentes ratios SL/TP. De los que sobrevivieron no había sistemas con la misma SL y TP, la mayoría con TP<SL. Puedes hacerlo tú mismo.

También hice una emulación, que demostró que un sistema con un SL<SL es más rápido para entrar en el negro.

 
mytarmailS:

¿Te has vuelto a meter en la red?)

Por fin he encontrado el error en el probador. Ahora todo está en su sitio.

Lo más probable es que haya cometido el mismo error en su probador.

cerró el tema ) a toda prisa, Lamba se pospone

 
Rorschach:

Ya tengo las fechas, ahora no sé cómo procesarlas, no tengo tanto poder((((

Ahora mismo es un csv con una columna de índices, pesa un giga. Tras la "descodificación", el binario pesará 17 veces más.

¿Quién lo necesita?

CatBoost se tragará estos datos - funciona bien con los archivos grandes. Sólo que no he entendido, qué objetivo...

Si preparas los datos en forma de csv con el objetivo, puedo ejecutarlo en mi casa.

 
Rorschach:

Durante 10 años, he tenido un sistema en el probador que abría una compra una vez al día con diferentes ratios SL/TP. De los sistemas que sobrevivieron no hubo sistemas con la misma SL y TP, la mayoría con TP<SL. Puedes hacerlo tú mismo.

También hice una emulación, que demostró que un sistema con TP<SL era más rápido para salir del lado positivo.

Logré hacer un sistema con TP que excede el SL por 2-3 veces, pero hay otro problema - 20%-25% de operaciones rentables, y no puedo entrenar adecuadamente el modelo para filtrar las entradas perdedoras.

 
Maxim Dmitrievsky:

Lo he comprobado, funciona mejor en el probador. Lo volveré a investigar )

acaba de entrar en las recurrencias... muy bueno en el aprendizaje.

Z.U. lo hizo bien - muy tristemente aprendible.

pensó en el amor, pero no - la experiencia de nuevo))

¿Por qué es tan triste? Maxim, ¿no tienes enlaces a la documentación sobre los recursores? Me interesa saber cómo se actualizan exactamente los pesos durante el entrenamiento
 
Alexander Alekseyevich:
¿Por qué es triste? Maxim, ¿no tienes enlaces a la documentación sobre la recurrencia? Me interesa saber cómo se actualizan exactamente los pesos durante el entrenamiento.

se reúnen de la misma manera que los demás

Hay mucha información en google

aquí hay una buena

https://towardsdatascience.com/gate-recurrent-units-explained-using-matrices-part-1-3c781469fc18

Gated Recurrent Units explained using Matrices: Part 1
Gated Recurrent Units explained using Matrices: Part 1
  • Sparkle Russell-Puleri
  • towardsdatascience.com
In the first step a dictionary of all of the unique characters is created to map each letter to a unique integer: Character dictionary : {‘h’: 0, ‘a’: 1, ‘t’: 2, ‘M’: 3} Our encoded input now becomes: MathMath = [3, 1, 2, 0, 3, 1, 2, 0] Step 1: Create batches of data This step is achieved by the user specifying how many batches (B), or sequence...