Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1193

 
Maxim Dmitrievsky:

en mql5 también... Pero aquí hay un buen probador y una base :)

este es el problema, me estoy dando vueltas, cansado de leer todo cuando tengo tiempo

Si el propósito es vender el producto en el Market, por desgracia, entonces todo está en MQL, si el propósito es el uso personal o la distribución más allá de este foro, entonces el problema viene a la posibilidad de obtener .dll y la vinculación a MT

 
Igor Makanu:

Ese es el problema, yo mismo estoy dando vueltas, estoy cansado de leer todo cuando tengo tiempo

Tengo que definir los objetivos - pensamientos en voz alta )))), si el propósito es un producto en el mercado, por desgracia, entonces todos en MQL, si el propósito de uso personal o la distribución más allá de este foro, entonces la tarea se reduce a la capacidad de obtener .dll y la vinculación a MT

Lo usaré como un excelente bot MQL, todo lo demás es basura. Si escribes para el mercado, entonces la promoción es más importante allí, no el rendimiento comercial, además de que los compradores estúpidos te volarán la cabeza (ten experiencia). Tengo experiencia. Puedes coger casi cualquier indicador o asesor experto de codebase y venderlo en el Mercado... o poner 200 de ellos como Gribachev, cada día uno nuevo, pero este no es el camino de los samuráis.

Tienes que poner a tu mujer o a un esclavo contratado en el ordenador para comunicarte con los clientes, pero no perderás el tiempo :)
 
Maxim Dmitrievsky:

El objetivo es un bot impresionante en el MO, el resto es una mierda. Si escribes para el mercado, la promoción es más importante allí que el rendimiento comercial, además de que los compradores estúpidos te dejarán boquiabierto (he tenido experiencia). No tengo ningún indicador de base de código o asesor experto, y los venderán en Market... O puedes poner 200 como Gribachev, cada día uno nuevo, pero este no es el camino de samurai.

Si vas a hacer eso, será mejor que envíes a tu mujer o a un esclavo contratado para que se comunique con los compradores, ya que no vas a perder el tiempo en ello :)

Ya lo he previsto, por lo que no creo que sea necesario "jadear" y que algo que vale la pena poner en el Mercado - No puedo proporcionar soporte de productos, ya que tomará mucho tiempo, y las cosas almacenadas allí, con la esperanza de que hay peeple que quiere dar $ 30, ya que la conciencia no permite))

ZS: Rejillas de órdenes por un simple indicador... Funciona siempre, para siempre (arriba o abajo), y siempre es demandado por los usuarios ))))

 
Igor Makanu:

Ya lo he previsto, por lo que no creo que sea necesario "jadear" y poner algo que valga la pena en el Mercado - no voy a ser capaz de apoyar el producto, ya que tomará mucho tiempo, y las cosas almacenadas allí, con la esperanza de encontrar gente que quiere donar 30 dólares, no permito))

ZS: Rejillas de órdenes por un simple indicador... Siempre funcionará (arriba o abajo) y siempre será demandado por los usuarios ))))

Martins, rejillas sí... frikis de todo tipo, es eterno :)

 

Se me ocurrió una idea: determinar el sobreentrenamiento mediante el MO. Sigo escarbando en el catbusto, allí se puede obtener una predicción en términos probabilísticos - he dispersado en grupos de 0 a 9 probabilidades - para facilitar la percepción y el análisis posterior - miró las distribuciones, la desviación estándar, la curtosis, la asimetría, incluyendo un desglose por objetivo y la distribución del error, la corrección de las respuestas en cada grupo. Ahora voy a tirar de diferentes indicadores estándar para evaluar el modelo, como el AUC F1 y otros, ahí se puede ver la dinámica del aprendizaje, pero hasta ahora no sé cómo describirlo mejor.

Hay dos modelos en el gráfico: grupo de distribución * grupo de clasificación correcta. El modelo azul es mejor en la muestra del examen.


¿Qué otros predictores se te ocurren para evaluar el modelo?

 
Aleksey Vyazmikin:

Se me ocurrióuna idea: determinar el sobreentrenamiento mediante el MO . Sigo escarbando en el catbusto, allí se puede obtener una predicción en términos probabilísticos - he dispersado en grupos de 0 a 9 probabilidades - para facilitar la percepción y el análisis posterior - miró las distribuciones, la desviación estándar, la curtosis, la asimetría, incluyendo un desglose por objetivo y la distribución del error, la corrección de las respuestas en cada grupo. Ahora voy a tirar de diferentes indicadores estándar para evaluar el modelo, como el AUC F1 y otros, ahí se puede ver la dinámica del aprendizaje, pero hasta ahora no sé cómo describirlo mejor.

Hay dos modelos en el gráfico: grupo de distribución * grupo de clasificación correcta. El modelo azul es mejor en la muestra del examen.


¿Qué otros predictores se te ocurren para evaluar el modelo?

Genial, en realidad es lo que todo el mundo está haciendo

las métricas se utilizan para estimar el modelo, no los predictores, los estándar suelen ser suficientes, pero puedes hacer los tuyos propios

Por lo general, cuanto mayor es el error en el bosque, menor es la dispersión de los valores, es decir, sólo el ruido blanco en torno a 0,5, en ese sentido la línea azul es peor que la línea roja
 
Maxim Dmitrievsky:

Genial, en realidad es lo que hace todo el mundo.

Las métricas se utilizan para estimar un modelo, no los predictores, los estándar suelen ser suficientes, pero puedes inventar los tuyos propios.

normalmente, cuanto mayor es el error en el bosque, menor es la dispersión de los valores, es decir, sólo ruido blanco en torno a 0,5; en este sentido, la línea azul es peor que la roja

Ja, ¡así que se trata de encontrar un criterio de estimación, no sólo de estimar con diferentes fórmulas de cálculo! Todas estas aproximaciones con fórmulas evalúan el modelo de forma estacionaria, pero no hablan de su capacidad de seguir trabajando más allá, que es exactamente lo que quiero conseguir, por lo que genero predictores para poder encontrar un patrón a partir de un conjunto de indicadores diferentes mediante MO.

Sobre la dispersión - muy extraña la afirmación que has hecho, quizás sólo tiene en cuenta el hecho de encontrar valores sin tener en cuenta su valor de clasificación y el porcentaje de respuestas correctas. En el gráfico, desde el cero hasta el 5 en el eje x es el producto de un grupo de ceros y su clasificación correcta, y desde el 5 opuesto es el producto de las unidades.

Aquí hay un gráfico de estos modelos, pero muestra la distribución del objetivo "1"

Como puede ver, el modelo rojo tiene un porcentaje de distribución desplazado más allá de 5, lo que significa que los "unos" no tienen ninguna posibilidad de ser clasificados correctamente, y los que tienen una posibilidad son menos que el modelo azul: 23% y 28%, respectivamente.

Y así es como cambia la fidelidad de la clasificación

Por supuesto, también es posible utilizar un modelo aplanado de este tipo, pero es necesario desplazar la división de la clasificación de 0,5 a 0,7, por ejemplo, pero no queda mucho material para procesar, pero por otro lado tales modelos aplanados se pueden combinar...

 
Aleksey Vyazmikin:

Ja, ¡así que se trata de encontrar un criterio de estimación, no sólo de estimar con diferentes fórmulas de cálculo! Todos estos enfoques de fórmulas evalúan el modelo de forma estacionaria, pero no nos hablan de su capacidad para seguir trabajando, que es exactamente lo que quiero conseguir, por lo que genero predictores, para poder encontrar un patrón a partir de un conjunto de indicadores diferentes mediante MO.

Sobre la dispersión - muy extraña la afirmación que has hecho, quizás sólo tiene en cuenta el hecho de encontrar valores sin tener en cuenta su valor de clasificación y el porcentaje de respuestas correctas. En el gráfico, desde el cero hasta el 5 en el eje x es el producto de un grupo de ceros y su clasificación correcta, y desde el 5 opuesto es el producto de las unidades.

Aquí hay un gráfico de estos modelos, pero muestra la distribución del objetivo "1"

como se puede ver, el modelo rojo tiene un porcentaje de distribución desplazado más allá de 5, lo que significa que los "unos" no tienen ninguna posibilidad de clasificación correcta, y los que tienen una posibilidad son menos que el modelo azul: 23% y 28%, respectivamente.

Y así es como cambia la fidelidad de la clasificación

Por supuesto, también podemos utilizar un modelo aplanado de este tipo, pero es necesario cambiar la división de la clasificación de 0,5 a 0,7, por ejemplo, pero no queda mucho material para procesar, pero por otro lado tales modelos aplanados se pueden combinar...

el hecho de que esté sesgado sólo habla a favor de alguna clase, puede estar en un mercado de tendencia, es decir, una muestra de aprendizaje (aproximadamente).

Y si tomas el azul tienes una fuerte disminución de las probabilidades, es decir, si, idealmente, la probabilidad de señal debería ser 1, entonces la tienes 0,6-0,7 como máximo, es decir, ambas clases giran alrededor de 0,5, con pequeñas desviaciones hacia una u otra clase, de hecho, hay ruido y no señales, o el modelo está fuertemente regularizado

capacidad de seguir trabajando en una muestra de prueba por errores... si consigues acercarte a los errores en una traza, el modelo es bueno por regla general

 
Maxim Dmitrievsky:

el hecho de que esté sesgado simplemente habla a favor de alguna clase, podría ser en un mercado de tendencia, es decir, una muestra de formación (aproximadamente).

Estamos comparando el modelo en las mismas condiciones, aquí están los mismos modelos en otras unidades de destino de datos cayeron en la clasificación 1 - 35% vs. 39%

fidelidad de la clasificación

y como la agrupación de todos los valores está más cerca del centro, obtenemos el producto

Maxim Dmitrievsky:

Y si se toma el azul se obtiene una fuerte disminución de las probabilidades, es decir, si, idealmente, la probabilidad de la señal debería ser 1, entonces se tiene 0,6-0,7 como máximo, es decir, ambas clases giran alrededor de 0,5, con pequeñas desviaciones hacia una u otra clase, de hecho hay ruido pero no señales

capacidad de seguir trabajando sobre una muestra de errores... si se consigue acercarse a los errores de una bandeja, entonces el modelo es bueno, por regla general

Por qué esta probabilidad debe ser "1" - más bien es un exceso de confianza, por el contrario creo que en el modelo correcto (ideal) debe tener dos jorobas entre 0,1 y 0,3 y 0,7 y 0,9 - porque indicará estabilidad y adecuación, pero tales modelos no se observan de hecho todavía.

Sobre la aproximación de los valores de los coeficientes estimados - sí, estoy de acuerdo - miraré el delta y tomaré más medidas sobre la dinámica - en catbust se puede ver cómo cambian los valores cuando se añaden árboles al modelo.
 
Aleksey Vyazmikin:

Comparamos el modelo en las mismas condiciones, aquí están los mismos modelos en otras unidades de destino de datos cayeron bajo la clasificación 1 - 35% vs. 39%

fidelidad de la clasificación

y como la acumulación de todos los valores está más cerca del centro, obtenemos el producto

Por qué esta probabilidad debería ser "1" - más bien es complacencia, de hecho creo que un modelo adecuado (ideal) debería tener dos jorobas entre 0,2 y 0,4 y 0,7 y 0,9 - esto indicaría estabilidad y adecuación pero todavía no veo tales modelos en la realidad.

Sobre la aproximación de los valores de los coeficientes estimados - sí, estoy de acuerdo - miraré el delta y haré más mediciones sobre la dinámica - en catbust se puede ver cómo cambian los indicadores cuando se añaden árboles al modelo.

cuanto más alta sea la probabilidad del evento, más precisa será la señal, como que viene incluso de la definición :) 2 no habrá joroba en los datos ruidosos, y al menos porque habrá estados transitorios, pero el modelo debe al menos capturar los valores extremos en una medida adecuada, de lo contrario nunca está seguro de las entradas