Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2723

 
Maxim Dmitrievsky #:
Y tú con tus Eventos también haces 3ª clase no comerciando esencialmente, nada nuevo ahí. Usted divide BP en lo que se prevé y no se prevé.

Esa es tu fantasía, no la realidad


La forma en que lo veo hasta ahora es la siguiente:

hay datos, digamos 100k observaciones, lo llamaré "X.grande".

1) seleccionamos (patrón, regla, evento, señal de TS) lo que nos interesa, lo llamo "regla inicial" (activación de Alexey Funtz. El nombre es extremadamente desafortunado pero...).

2) seleccionamos la "regla inicial" de los datos y ahora tenemos 100-1000 observaciones, no 100k, hemos reducido el espacio de búsqueda "X.small".

3) en "X.small" iniciamos una búsqueda de atributos a escala completa, veo atributos en forma de reglas secuenciales, las reglas se generan automáticamente mediante programación genética, quiero una búsqueda a escala completa, pero no estoy seguro de poder hacerlo

4) una matriz de los atributos creados se introduce en el modelo, digamos 1000 piezas a la vez.

5) el modelo (algún AMO) selecciona las características por importancia y guarda las buenas características, obtiene un nuevo array, etc....

6) como resultado de la búsqueda obtendremos varios miles de atributos de trabajo de acuerdo con una " regla inicial " específica.


Por lo tanto, si llamamos modelo a todo esto, el propio modelo obtiene miles de millones de características y selecciona las necesarias.

 
mytarmailS #:

Es tu fantasía, no la realidad


Así es como lo veo hasta ahora:

Hay datos, digamos 100k observaciones, lo llamaré "X.grande".

1) identificamos (patrón, regla, evento, señal de la ST) lo que nos interesa, lo llamo "regla inicial" (Alexey Funtz. activación. el nombre es extremadamente desafortunado pero...).

2) seleccionamos la "regla inicial" a partir de los datos y ahora tenemos 100-1000 observaciones, no 100k, porque hemos reducido el espacio de búsqueda "X.small".

3) en "X.small" iniciamos una búsqueda a gran escala de características, veo características en forma de reglas secuenciales, las reglas se generan automáticamente mediante programación genética, quiero una búsqueda a gran escala, pero no estoy seguro de si funcionará.

4) una matriz de las características creadas se introduce en el modelo, digamos 1000 piezas a la vez.

5) el modelo selecciona las características por importancia y guarda las buenas características, obtiene un nuevo array, etc....

6) como resultado de la búsqueda obtenemos varios miles de atributos de trabajo de acuerdo con una " regla inicial " específica.


Así pues, si llamamos modelo a todo esto, el propio modelo obtiene miles de millones de características y selecciona las necesarias.

De nuevo 25... esto no difiere de una clasificación de 3 clases en términos de significado.

 
Maxim Dmitrievsky #:

De nuevo 25. no es diferente de una clasificación de 3 clases en sentido

Déjame crear un conjunto de datos y ver qué algoritmo es mejor.

 
Maxim Dmitrievsky #:
Uno dice que le robé sus ideas, el otro que él me enseñó... ¿quiénes son ustedes? ))))

"Robar", ¿acabas de decir eso? Se nota que no tienes vergüenza.

Foro sobre trading, sistemas automatizados de trading y testeo de estrategias de trading.

Aprendizaje automático en el trading: teoría, práctica, trading y más

Aleksey Vyazmikin, 2020.12.03 19:11

Así que la idea es evaluar el modelo, y el modelo en realidad desentrañar objetivos confusos, y podemos evaluar su éxito en este caso, no sólo para ver lo confuso que es todo.

Estoy pensando en probar el método de aprendizaje en cascada (un término acuñado por mí - puede haber algo diferente). Los gráficos muestran que hay zonas en las que el entrenamiento tiene éxito - dejar esta zona, y lo que va más allá de esta zona para entrenar de nuevo, habiendo eliminado previamente de la muestra los ejemplos que caen en la distribución de la zona izquierda. Ya he intentado hacerlo a mano - el efecto fue bueno, ahora creo que para automatizarlo, pero el segundo día todavía no hay suerte - me temo que el efecto fue accidental - no quiero estar molesto. ¿Cuál es su opinión al respecto? Creo que es fácil hacerlo en Python.

Se discutió en el artículo.

Cito:

"

Queremos escribir un algoritmo que sea capaz de analizar y corregir sus propios errores, mejorando iterativamente sus resultados. Para ello, proponemos tomar un grupo de dos clasificadores y entrenarlos secuencialmente como se sugiere en el siguiente diagrama .

"

"

La intuición de este enfoque es que las operaciones perdedoras son errores de clasificación del primer tipo para el modelo subyacente, en la terminología de la matriz de confusión. Es decir, son casos que clasifica como falsos positivos. El metamodelo filtra estos casos y da una puntuación de 1 a los verdaderos positivos y de 0 a todo lo demás. Al filtrar el conjunto de datos del metamodelo para entrenar el modelo base, aumentamos su precisión, es decir, el número de activaciones correctas de compra y venta. Al mismo tiempo, el metamodelo aumenta su Recall (exhaustividad) al clasificar el mayor número posible de resultados diferentes.

"

Las ideas son las mismas, pero tú has hecho la implementación y has elaborado los detalles; yo sólo he dicho el concepto, y no estoy seguro de haber publicado mis experimentos y el código de implementación.

Te lo he recordado en el contexto de que puede que ahora no entiendas de qué va, y lo uses más adelante cuando lo entiendas. Y que no entender no es una razón para comportarse inadecuadamente y expresar tus juicios de valor sobre la personalidad de la gente y su lógica.

 
mytarmailS #:

Déjame crear un conjunto de datos y ver qué algoritmo es mejor.

¿En qué consistirá el conjunto de datos? Sólo tomo citas como entrada.

 
Aleksey Vyazmikin #:

"Robó" - ¿acabas de decir eso? Se nota que no tiene vergüenza.

De eso hablaba el artículo.

Cito:

"

Queremos escribir un algoritmo que sea capaz de analizar y corregir sus propios errores, mejorando iterativamente sus resultados. Para ello, proponemos tomar un grupo de dos clasificadores y entrenarlos secuencialmente como se propone en el siguiente diagrama .

"

"

La intuición de este enfoque es que las operaciones perdedoras son errores de clasificación del primer tipo para el modelo subyacente, en la terminología de la matriz de confusión. Es decir, son los casos que clasifica como falsos positivos. El metamodelo filtra esos casos y da una puntuación de 1 a los verdaderos positivos y de 0 a todo lo demás. Al filtrar el conjunto de datos del metamodelo para entrenar el modelo base, aumentamos su precisión, es decir, el número de activaciones correctas de compra y venta. Al mismo tiempo, el metamodelo aumenta su Recall (exhaustividad) al clasificar el mayor número posible de resultados diferentes.

"

Las ideas son las mismas, pero tú has hecho la implementación y has elaborado los detalles; yo sólo he dicho el concepto, y no estoy seguro de haber publicado mis experimentos y el código de implementación.

Lo recordé dentro del marco de que puede que no entiendas ahora de lo que estamos hablando, y lo uses más tarde, cuando llegue la comprensión. Y que no entender no es una razón para comportarse inadecuadamente y expresar sus juicios de valor sobre la personalidad de las personas y su lógica.

Así que tomemos el código del artículo y comprobémoslo. Para qué voy a entender de qué estamos hablando si todavía no hay nada.

Tengo un montón de variantes de tales implementaciones, incluyendo aquellas con reentrenamiento en lugar de reentrenamiento de nuevo, reentrenamiento por líneas de base y así sucesivamente.

Especialmente cuando empiezas a hacerlo, el resultado es diferente de la fantasía que se planeó originalmente

 
Maxim Dmitrievsky #:

¿En qué consistirá el conjunto de datos? Sólo tomo citas como entrada

Precios OHLS de las últimas 200 piezas y una etiqueta, se puede añadir el tiempo.

 
mytarmailS #:

OHLS precios últimos 200pc y una etiqueta, el tiempo puede ser añadido.

200 piezas? ¿Qué es tan poco. No tengo etiquetas, tengo autopartitioning.

Voy a tener que volver a escribirlo.

 
Maxim Dmitrievsky #:

¿200 piezas? No es suficiente. No estoy marcado, auto-etiquetado.

Voy a tener que reescribirlo.

200 piezas por observación.

 
mytarmailS #:

200 unidades por observación

simplemente entrenar el TS durante algún período y mostrarlo en los nuevos datos, en eurobucks h1 por ejemplo