Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1195
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
digamos que ya tenemos una curva como la suya - una distribución de probabilidad a priori
Mediante la fórmula bayesiana se puede actualizar después de cada operación, por lo que el centro se desplazará y obtendrá una nueva distribución a posteriori, es decir, aproximadamente algún factor de desplazamiento que se actualizará después de cada operación. Esto ajustará el modelo ligeramente a las nuevas realidades, aunque el modelo en sí seguirá siendo el mismo.
No sé cómo hacerlo correctamente, de hecho debería ser fácil, pero nunca lo he hecho :)
En realidad no es un entrenamiento de modelos, porque no utilizamos nuevas leyes, sino que cambiamos la interpretación de las antiguas: los predictores del modelo y las divisiones de los árboles siguen siendo los mismos. Aquí necesitamos obtener información sobre qué regularidades se introdujeron - hay un array en catbust, donde están las regularidades de todas las hojas, y en consecuencia editar este array desplazando la regularidad (un número para interpretar la regularidad). El problema es que habrá muchas hojas por entrada, por lo que hay que distribuirlas proporcionalmente, ya sea entre los que estaban a favor de la entrada, disminuyéndolas, o entre los que estaban en contra, aumentándolas. La pregunta es cuántas hojas, si hay 100 y 1000 de tratos, entonces se puede utilizar la estadística para cada hoja.
Y si partimos de la base de que debido a la no estacionariedad no son los propios patrones los que cambian, sino que el modelo simplemente se desplaza y no da las señales adecuadas
No tenemos que ir siempre bajo el capó cuando queremos hacer un giro brusco, sólo tenemos que dirigir a veces... y aquí no veo mucha diferencia entre modificar el modelo y modificar la distribución de salida... lo que sea :)
Aún así, hay que ir bajo el capó, porque la respuesta final es la suma de los valores de las hojas y no siempre se utilizan todos, sino sólo cuando hay indicadores adecuados para ello. Por lo tanto, se puede utilizar 1 hoja por entrada, ¡o 100! Por lo tanto, no podemos cambiar la interpretación del modelo desplazando la probabilidad para todas las situaciones, o más bien podemos, pero no es lógico, porque una parte de las hojas puede seguir clasificando correctamente. Así que, o bien se cambian los indicadores de las hojas, o se hace una interpretación adicional de cada hoja y se cambia dependiendo de las combinaciones con otras hojas, pero no estoy seguro de que sea productivo.... Por eso prefiero los modelos pequeños: si los combinas, es más fácil descubrir cuál es el que miente y deshacerse de él.
Si hay pocas hojas, entonces tal vez se pueda desplazar la barrera de probabilidad, pero si hay muchas hojas y sólo se utiliza una pequeña parte de ellas por entrada, entonces no tiene sentido lógico.pero a veces hay que dirigir...
la transformación afín puede dirigir ;), aquí hay un ejemplo en KB fuehttps://www.mql5.com/ru/code/9378
hizo algo similar, pero ¿hacia dónde dirigirme entonces, cómo lo averiguo? )
no hay manera, sólo con un probador ((
Tal vez se podría añadir un filtro Kalman )
busca en google "kalman habrahabr", el artículo se leyó allí hace tiempo, lo más valioso está en los comentarios, el autor del artículo en pooh.... por lo que entiendo, funcionará como todos - sólo en los datos que cambian lentamente
PD: había ejemplos de Kalman en KB - ¿y si? ;)
Tal vez, aún no está claro... hasta que lo pruebes )
Es posible que tengas una hoja mala con un predictor inestable en una combinación de predicción correcta y necesites deshacerte de ella. Por ejemplo, se puede identificar la combinación por el 80% de las hojas que participan en ella, un determinado quórum, y si aparece una nueva hoja con un peso elevado, se puede filtrar. Incluso me pregunto cuántas combinaciones puede haber con este criterio por cada 1000 transacciones... Pero no tengo ni idea de cómo averiguarlo.
Un truco de importancia... la ley de Zipf (exponencial). Y también la demostración de que las variables con mayor varianza (mayor desfase de precios) siempre tienen mayor importancia en los modelos de árbol. Hay muchas características similares (500 en total), por lo que el gráfico no es muy demostrativo. Lo volveré a hacer más tarde.
¡bien!
Pregunta como especialista en Python, dame algo en Python para experimentar, casi he terminado con Sharp, se conecta a MT5 sin problemas, C# soporta Python también, puede que intente empezar con Python también ;)
¡Bonito!
Pregunta como experto en Python, dame algo en Python para experimentar, ya casi termino con Sharp, se enlaza con MT5 sin ningún problema, se supone que C# y Python son compatibles, entonces puedo cambiar a Python ;)
Estoy aprendiendo Python... bueno, qué hay que aprender, quiero decir que aún no domino los modelos de MO... ¿qué es lo que quieres exactamente? Toma un ejemplo de este sitio https://scikit-learn.org/stable/
como Random Forest, por ejemplo.
Estoy aprendiendo python... o mejor dicho, qué hay que aprender, es decir, aún no lo he usado realmente... ¿qué quieres exactamente? toma un ejemplo de aquí https://scikit-learn.org/stable/
como Random Forest, por ejemplo.
o el refuerzo del gradiente, ejemplos ya hechos.
Bien, gracias, lo miraré mañana.
Los gráficos aquí y aquí e incluso aquí fueron trazados con un error, los valores en ellos no son de cero, por lo que la probabilidad de 0,5 no está en el punto 5, ¡sino en el punto 6!
Este es el tipo de error que puede producirse al analizar los datos y tratar de darles sentido, un error técnico, por así decirlo...