Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1977
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lástima, el aumento de la TF empeora el resultado, el rangy es mejor.
Añadido MA y adelgazamiento. Sin MA, el adelgazamiento funciona como un cambio de TF y hace que la distribución sea normal. RMS = raíz del paso de adelgazamiento. Si el MA es 2 veces mayor que el thinning, entonces tenemos un downsampling kosher, la predicción funciona con alta precisión, pero necesitamos un probador para calcular la recompensa esperada correcta. El zigzag está listo, pero no sé qué forma debe tener: matrices de índices con mínimos y máximos, o una matriz de índices, o una matriz de precios a la vez.
Puedo conseguir cualquier otro filtro en lugar del MA, pero sólo necesito saber la característica de impulso. En el código MA se hace como [1/per]*per, que se expandirá para per=4 en [0,25, 0,25, 0,25, 0,25]
Bosque: 55,89% de respuestas correctas, 2,36 de expectativa
Incrementos acumulativos forestales: 55,89% de respuestas correctas, 2,36 de expectativa, resultados idénticos
Sin embargo, hay una diferencia, los incrementos son mejores.
Problemas con el zigzag, no está claro cómo limitar el cambio mínimo, siempre micro-desplazamiento.
Más bien son tonterías, pero preguntaré.
¿Puede NS predecir estas series?
Como la probabilidad de que aparezca el siguiente personaje. Y si hay alguna dependencia de la serie A, de la serie B.
Más bien son tonterías, pero preguntaré.
¿Puede NS predecir estas series?
Como la probabilidad de que aparezca el siguiente personaje. ¿Y hay una correlación entre la serie A y la serie B?
Esta es su tarea directa.
Después de cambiar a TensorFlow 2.3 ha aparecido un error
"ADVERTENCIA:tensorflow:11 de las últimas 11 llamadas a la activación de tf.function retracing. Elrastreo es caro y el número excesivo de rastreos podría deberse a la creación de @tf.function repetidamente en un bucle " .Es decir, algún tf.function está jurando que está en un bucle. No tengo ninguna tf.function, pero en el bucle encuesta a los modelos prediction=model.predict(data).
El tf.function se describe aquí
Se trata claramente de una entidad desconocida, ¿alguien sabe lo que es?
UPD
De todos modos, esto es algo genial, no puedo prescindir de él, tengo que investigarlo. Resuelve los problemas de compatibilidad de TensorFlow con Python.
Creo que he terminado con el agente comercial. He supervisado la demo para las pruebas alfa. La lógica no es trivial, por lo que puede haber errores. Vamos a probarlo.
Ahora estoy interesado en probar LSTM en diferentes variantes y tal vez transformadores (pero puede ser difícil de averiguar).Creo que he terminado con el comerciante. He supervisado la demo para las pruebas alfa. La lógica no es trivial, por lo que puede haber errores. Vamos a probarlo.
Ahora estoy interesado en probar LSTM en diferentes variantes y tal vez transformadores (pero puede romper su cerebro tratando de entenderlo)La lógica es más compleja. Por un lado es bueno. Por otro lado, los bichos en zonas desconocidas. ¿Transformador es qué?
La lógica es más ramificada. Por un lado, esto es algo bueno. Por otro lado, hay bichos en zonas desconocidas. ¿Transformador es qué?
Un nuevo tipo de red para trabajar con secuencias temporales, del que se dice que es mejor que lstm. En el reconocimiento de textos, la traducción automática, etc., se utilizan para resaltar el contexto de las frases. Es decir, cuando una palabra está relacionada con otras (anteriores) por algún contexto.
transformadores de autoatención. Mecanismo - el análogo de la atención humana.
un nuevo tipo de red de secuencia temporal, del que se dice que es mejor que lstm. En el reconocimiento de textos, la traducción automática, etc., se utilizan para resaltar el contexto de las frases. Es decir, cuando una palabra está relacionada con otras (anteriores) por algún contexto.
transformadores de autoatención. Mecanismo - el análogo de la atención humana.
Complicaciones tan importantes. En primer lugar, la memoria es larga y corta, y luego está la semblanza de la atención en el modelo. Mi cerebro no puede con todo a la vez). Pero debería funcionar mejor.
Bueno, complicaciones tan significativas. En primer lugar, la memoria es larga y corta, y luego está la semblanza de la atención en el modelo. El cerebro definitivamente no está a la altura de )))). Pero debería funcionar mejor.
Funciona mejor, pero nunca sabrás a dónde va.
En general, las redes de retropropagación convencionales como la mlp no son adecuadas para las series temporales, en absoluto. Como mínimo necesita RNN