Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3384

 
Aleksey Nikolayev #:

Eso es lo que estoy diciendo - que va a ser una bicicleta bastante desagradable.

Y OpenCL es tan bueno que metaquotes no escribió su optimizador de GPU en él, probablemente sólo porque cualquiera de nosotros puede escribir fácilmente el suyo propio.

Vale, paro, o me banearán como a Maxim si digo todo lo que pienso sobre tu demagogia.

Entonces, ¿cuál es exactamente el inconveniente? Si tienes problemas con MQL5, no es culpa del lenguaje, hay hilos de perfil especiales para los que hacen preguntas.

¿Cuál es mi "demogogía"? Te di una enorme lista de literatura a petición tuya para leer, ampliar tus horizontes, te cuento y muestro implementaciones específicas y estrategias de búsqueda en MQL5. ¿Qué más necesitas de mí, para que no se me caiga la baba en la cara y te haga temer ser baneado?

Me sorprende mucho la gente.

 

Un poco sobre la redundancia de forrest renderizado

tomamos el conjunto de datos iris + entrenamos forrest + extraemos reglas de forrest + creamos un conjunto de datos donde cada regla es una característica.

obtenemos una matriz con reglas en columnas (unas 700 centenas de piezas).

X <- iris[,-5]
target <- iris[,"Species"] 

library(inTrees)
library(RRF)

rules_dataset <- target |> 
                  RRF(x = X) |> 
                  RF2List() |> 
                  extractRules(X = X) |> 
                  sapply(\(r) eval(str2expression(r)))
ncol(rules_dataset)
[1] 698

Ahora identificamos todas las reglas relacionadas linealmente y las eliminamos como redundantes.

remove_lin_comb <- caret::findLinearCombos(rules_dataset)$remove
clear_rules_dataset <- rules_dataset[, -remove_lin_comb]

y obtenemos

ncol(clear_rules_dataset)
[1] 32


Todo el conjunto de datos puede describirse con 32 reglas en lugar de 698.


Así son las cosas...

Forrest es 698/32 = 21,8125 veces más redundante de lo que podría ser.

 
mytarmailS #:

Un poco sobre la redundancia del Random Forrest

tomar el conjunto de datos del iris + entrenar el bosque + extraer las reglas del bosque + crear un conjunto de datos donde cada regla es una característica.

obtener una matriz con reglas en columnas (unas 700 centenas de piezas)

Ahora identifique todas las reglas relacionadas linealmente y elimínelas como redundantes.

y obtenemos


Todo el conjunto de datos puede describirse mediante 32 reglas en lugar de 698.


Así son las cosas.

Forrest es 698/32 = 21,8125 veces más redundante de lo que podría ser.

¿De dónde salen las reglas? Así es: montañas de información en la entrada, comprimen y obtienen reglas y luego las usan para la predicción, no la información original. Por eso se llama modelo.

 
СанСаныч Фоменко #:

¿De dónde salen las reglas? Así es: montañas de información en la entrada, la comprimen y obtienen reglas y luego las utilizan para la predicción, no la información original. Por eso se llama modelo.

Lea atentamente lo escrito

 
mytarmailS #:
¿No querías escribir un artículo sobre reglas, o has cambiado de opinión? Probablemente sea un tema interesante, más interesante que la minimización de las funciones de prueba. ¿O tienes problemas con su validación en OOS? O no hay problemas, simplemente eres demasiado vago para escribir.
 
Algún tipo de enfoque general para la selección de reglas. Como descomponer el árbol en reglas, y luego... en el contexto de la CT. Mejores prácticas y perspectivas. Eso sería interesante.

Pero no funciones aleatorias y lobos aleatorios, sino más cerca de los beneficios.
 
Maxim Dmitrievsky #:
Algún tipo de enfoque general para la selección de reglas. Como descomponer el árbol en reglas, y luego... en el contexto de la CT. Las mejores prácticas y puntos de vista. Tendría curiosidad.

Sólo que no funciones aleatorias y lobos al azar, pero más cerca de los beneficios.

¿No es "más cerca del beneficio" sinónimo de "sobreentrenamiento"?
Conseguimos un bonito equilibrio en el beneficio aleatorio, ya que la base es un valor incremental aleatorio. ¿Y de dónde viene la belleza del equilibrio?

El equilibrio es la evaluación de la ST en el terminal, donde este equilibrio está influido no sólo por el error de clasificación.

Pero si nos mantenemos dentro del MOE, entonces la valoración NO es el perfil

 
СанСаныч Фоменко #:

¿No es "más cerca del beneficio" sinónimo de "sobreentrenamiento"?
Obtenemos un bonito equilibrio en un beneficio aleatorio, porque la base es un valor de incremento aleatorio. ¿De dónde viene la belleza del equilibrio?

El equilibrio es la evaluación de la TS en el terminal, donde este equilibrio está influenciado no sólo por el error de clasificación.

Y si nos mantenemos dentro del MO, entonces la evaluación NO es un beneficio

Más cerca de la ganancia - más cerca de las cotizaciones, no la formación en cualquier cosa sin sentido. Hay un montón de pruebas de este tipo en Internet, y las peculiaridades de diferentes MO se conocen desde hace mucho tiempo. Lo que es peor y lo que es mejor.

Simplemente no entiendo donde la extracción de reglas encaja en la jerarquía.
 
Maxim Dmitrievsky #:
¿No querías escribir un artículo sobre reglas, o has cambiado de opinión? Probablemente sea un tema interesante, más interesante que la minimización de las funciones de prueba. ¿O tienes problemas con su validación en OOS? O no hay problemas, pero sólo pereza de escribir.
No sé, no hay nada que escribir.
Voy a escribir cómo romper un modelo de madera en reglas, ¿y qué?
De hecho, mi post ya ha mostrado todo.

¿O te refieres a mi antiguo post? Si es así, en la división no encontré propiedades súper curativas, hay ventajas que no pueden dar el modelo.

1. Usted puede reducir drásticamente la dimensionalidad del modelo.



2. Usted puede saber las estadísticas de cada regla (esto es realmente importante).

Por ejemplo, tenemos un modelo de madera con 100 reglas y nunca sabemos si cada regla funcionó una vez dentro de las 100 reglas (no hay un patrón) o si 10 reglas funcionaron 50 veces (hay un patrón).
Si no rompemos el modelo, no lo sabremos y ambos modelos serán iguales para nosotros.

 
mytarmailS #:
No sé, en realidad no tengo nada que escribir.
Voy a escribir cómo romper un modelo de madera en las reglas, ¿y qué?
Básicamente, mi post ya le mostró todo.

¿O te refieres a mi antiguo post? Si es así, en la división no encontré propiedades súper curativas, hay ventajas que no puede dar el modelo.

1. Usted puede reducir drásticamente la dimensionalidad del modelo.



2. Usted puede saber las estadísticas de cada regla (esto es realmente importante).

Por ejemplo, tenemos un modelo de madera con 100 reglas y nunca sabemos si cada regla funcionó una vez dentro de las 100 reglas (no hay un patrón) o si 10 reglas funcionaron 50 veces (hay un patrón).
Si no rompemos el modelo, no lo sabremos y ambos modelos serán iguales para nosotros.

Pues bien, en los árboles normalmente se puede calcular la influencia de cada observación de cada característica, su contribución al modelo, por ejemplo a través de los valores shap. Si dejamos sólo las útiles y entrenamos algo sólo con ellas, obtendremos un análogo aproximado de la búsqueda de reglas. Con neuronas, por cierto, también es posible.

Es difícil de entender cuando sólo las reglas pueden ser las únicas útiles. Tal vez por la interpretabilidad del resultado. Aunque los valores de forma también dan buena interpretabilidad, más o menos.