Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 141

 
Dr.Trader:

No sé cómo hacerlo de la manera estándar, pero así con la biblioteca:


¡¡¡Muchas gracias!!! Sabes muy bien lo de los paquetes, me ofrecieron escribir la clase format() de nuevo en el foro especial sobre la misma pregunta, y mostraron un ejemplo con ~ 300 líneas de código, ya empecé a pensar en muletas de varios tipos, y aquí hay una gran solución... ¡gracias!

 

Una pregunta más: tengo tres marcos de datos con longitudes ligeramente diferentes, porque las observaciones se hicieron en momentos distintos,

¿Cómo puedo sincronizarlas para dejar sólo las observaciones que aparecen en los tres fotogramas y descartar las que se producen sólo en fotogramas separados?

> head(sec1)
        date  time   open   high    low  close vol
1 2016.09.06 08:45 3081.5 3082.5 3080.5 3080.5   6
2 2016.09.06 08:50 3081.5 3081.5 3079.5 3080.5   6
3 2016.09.06 08:55 3081.5 3082.5 3081.5 3082.5  19
4 2016.09.06 09:00 3083.5 3083.5 3081.5 3082.5  19
5 2016.09.06 09:05 3083.5 3085.5 3082.5 3085.5   8
6 2016.09.06 09:10 3086.5 3086.5 3084.5 3086.5  15
> head(sec2)
        date  time  open  high   low close vol
1 2016.09.13 13:00 95.34 95.40 95.33 95.39  36
2 2016.09.13 13:05 95.40 95.43 95.39 95.41  40
3 2016.09.13 13:10 95.42 95.44 95.40 95.42  37
4 2016.09.13 13:15 95.41 95.42 95.39 95.39  25
5 2016.09.13 13:20 95.40 95.41 95.38 95.38  21
6 2016.09.13 13:25 95.39 95.42 95.38 95.42  32
> head(sec3)
        date  time    open    high     low   close vol
1 2016.09.14 18:10 1.12433 1.12456 1.12431 1.12450 137
2 2016.09.14 18:15 1.12444 1.12459 1.12424 1.12455 139
3 2016.09.14 18:20 1.12454 1.12477 1.12446 1.12469 148
4 2016.09.14 18:25 1.12468 1.12474 1.12442 1.12453 120
5 2016.09.14 18:30 1.12452 1.12483 1.12442 1.12482 156
6 2016.09.14 18:35 1.12481 1.12499 1.12472 1.12474 126
 
https://www.mql5.com/en/blogs/post/650079

Interesante. Mejorar una estrategia existente con el aprendizaje automático. El artículo adolece de falta de información sobre el muestreo, pero la idea es interesante.
 
mytarmailS:

Una pregunta más: tengo tres marcos de datos con longitudes ligeramente diferentes, porque las observaciones se hicieron en momentos distintos,

cómo se pueden sincronizar en el tiempo para dejar sólo las observaciones que están en los tres fotogramas y descartar las que se producen sólo en fotogramas separados

de frente sería así:


a <- data.frame(c1 = c('a','b','c','d','e','f'), c2 = c(1,2,3,4,5,6))

b <- data.frame(c1 = c('a','b','c','d','e'), c2 = c(1,2,3,4,5))

c <- data.frame(c1 = c('b','c','d','e','f'), c2 = c(2,3,4,5,6))


a$concat <- do.call(paste0, a[1:2])

b$concat <- do.call(paste0, b[1:2])

c$concat <- do.call(paste0, c[1:2])


concat_vec <- append(unique(a$concat)

    , c(unique(b$concat)

    , unique(c$concat)))

concat_vec_tbl <- as.data.frame(table(concat_vec))

concat_vec_tbl <- concat_vec_tbl[concat_vec_tbl$Freq == 3, ]



a <- a[a$concat %in% concat_vec_tbl$concat_vec, ]

b <- b[b$concat %in% concat_vec_tbl$concat_vec, ]

c <- c[c$concat %in% concat_vec_tbl$concat_vec, ]

 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interesante. Mejorar una estrategia existente con el aprendizaje automático. El artículo adolece de falta de información sobre el muestreo, pero la idea es interesante.
Buen artículo, yo también he estado experimentando con el "SMM" últimamente, pero de forma más habitual.
 
Alexey Burnakov:

En la cabeza será así:

gracias
 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interesante. Mejorar una estrategia existente con el aprendizaje automático. El artículo adolece de falta de información sobre el muestreo, pero la idea es interesante.

¡Alexey!

¡Qué persona tan interesante es usted!

He escrito aquí cientos de veces que uso la rf para mejorar el rendimiento de la TS real en los indicadores, pero no has respondido.

Es más, he sugerido varias veces que:

1. Toma el TS real.

2. Distinguimos los problemas de la ST y empezamos a resolverlos utilizando las herramientas de R

En mi caso mencionado utilicé rf para resolver el problema del retardo del indicador, que normalmente da información en la barra 1 (-1), y rf da información una barra por delante. Para el H4 son 8 horas. Como resultado, logré disminuir considerablemente la reducción de la deuda.

 
Alexey Burnakov:
https://www.mql5.com/en/blogs/post/650079

Interesante. Mejorar una estrategia existente con el aprendizaje automático. El artículo adolece de falta de información sobre el muestreo, pero la idea es interesante.

La idea de este artículo se aplica de forma ligeramente diferente en el artículo https://www.mql5.com/ru/articles/1628.

Me pregunto si todo el mundo lee los artículos de aprendizaje automático de este sitio con un año de retraso (pregunta retórica)

Buena suerte

Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль
  • 2016.03.31
  • //www.mql5.com/ru/users/vlad1949">
  • www.mql5.com
Статья является продолжением предыдущих статей по глубоким нейросетям и выбору предикторов. В ней мы рассмотрим особенность нейросети, инициируемой Stacked RBM, а также её реализации в пакете "darch".
 
SanSanych Fomenko:

¡Alexei!

¡Qué persona tan interesante es usted!

He escrito aquí cien veces que uso rf para mejorar el rendimiento de la TS real en los indicadores, y no has respondido.

Además, he expresado repetidamente la idea de que:

1. Toma el TS real.

2. Distinguimos los problemas de la ST y empezamos a resolverlos utilizando las herramientas de R

En mi caso mencionado utilicé rf para resolver el problema del retardo del indicador, que normalmente da información en la barra 1 (-1), y rf da información una barra por delante. Para el H4 son 8 horas. Como resultado, logré disminuir considerablemente la reducción de la deuda.

Lo entiendo. Es difícil evaluar la profundidad de pensamiento sin datos concretos. Y había fotos en ese artículo. Perervenko también tiene otros similares. Y también leí su artículo.
 
Alexey Burnakov:
Lo entiendo. Es sólo que sin detalles es difícil evaluar la profundidad del pensamiento. Y había fotos en ese artículo. Perervenko también lo parece. Y también leí su artículo.

Bueno, aquí está la ofensa...

Mi objetivo es orientar la conversación en una dirección práctica, no ofender a nadie de ninguna manera...

Hasta ahora tenemos trozos dispersos.

Su enfoque académico.... Para mí el valor de sus cálculos es incuestionable, pero .... He expresado mis dudas más arriba.

Sigo de cerca el trabajode Vladimir Perervenko, nunca he visto ninguna prueba de que los modelos no sean reentrenados. El último enlace. La importancia de las variables se determina mediante un algoritmo de árbol. Pero los árboles, debido a la comodidad de los valores de ruido disponibles, tienden a utilizar estos predictores de ruido más a menudo y, como resultado, el ruido aparece en la estimación de la importancia...

Así que tenemos que empezar con algoritmos para eliminar los predictores de ruido. Todos los demás pasos sin ellos carecen de utilidad práctica, ya que todas las estimaciones del modelo no pueden extrapolarse al futuro.

A continuación, el entrenamiento de un modelo en ventanas, y el ancho de la ventana debe ser justificado de alguna manera. A continuación, utilizando el modelo entrenado en una preselección de predictores para la ventana de trabajo....

Algo así.