Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 839

 

Al principio, cuando sólo tenían un par de cientos de personas que ofrecían sus pronósticos, todo iba bien, incluso me pagaban las plazas. Había al menos otras dos personas en el foro que también mostraron grandes resultados con los premios.

También he tenido al menos dos personas más que han mostrado grandes resultados en el foro. Luego empezaron a enviarles todo tipo de basura en lugar de modelos y aparecieron todo tipo de tramposos con cientos de cuentas que brutalmente forzaron el pronóstico. Los administradores estaban hartos de todo este circo y lo hicieron muy sencillo: "Si quieres un premio en metálico, deja un depósito". Si el modelo es falso, y el depósito desaparecerá, y los beneficios no lo serán.
En mi opinión, los administradores tomaron el camino más fácil para ellos. No aprendieron a identificar los modelos potencialmente buenos, ni siquiera a preparar las características, y lo convirtieron todo en una lotería. Si yo fuera ellos, haría las cosas de otra manera.

 
Dr. Trader:

Al principio, cuando sólo había un par de centenares de personas que ofrecían su pronóstico, todo iba bien, incluso me pagaban las plazas. Hay al menos otras dos personas en el foro que también mostraron grandes resultados con los premios.

Para los administradores del numerario era bastante fácil seleccionar los mejores resultados y operar con ellos. No están satisfechos con la forma en que están cuando compran una entrada, o cuando no quieren dar una entrada. Los administradores estaban hartos de todo este circo y lo hicieron muy sencillo: "Si quieres un premio en metálico, deja un depósito". Si el modelo es falso, y el depósito desaparecerá, y los beneficios no lo serán.
En mi opinión, los administradores tomaron el camino más fácil para ellos. No aprendieron a identificar los modelos potencialmente buenos, ni siquiera a preparar las características, y lo convirtieron todo en una lotería. Yo en su lugar lo haría de otra manera.

Tal vez tengas razón, pero ahora IMHO todo demasiado arbitrario, el cambio de logotipos como extraño, entonces eran más de la mitad por debajo (mejor) que al azar (0,96315) en la Vida, ahora de repente casi todos se convierten en su (peor) al azar ... corto arbitrario IMHO, no me fío de que se "arriesguen" cuando no se puede comprobar nada, y toda la idea es una tontería, la clasificación en sí no es un tema para los chelenges, no tiene sentido delegarla, otra cosa es hacer fichas y objetivos a partir de datos brutos...

 

No dejaré que esta rama se caiga del nivel superior.

Señores de la red neuronal: el pueblo llano espera el Grial de ustedes. No lo arruines.

 

Experimenté con randomUniformForest - no me gustó.

La importancia de los predictores sigue saltando hacia arriba y hacia abajo en la lista.

He aquí un ejemplo reproducible sobre los datos del artículo https://www.mql5.com/ru/articles/4227 :
Inicie RStudio, descargue el archivo Cotir.RData deGitHub/Part_I, con las comillas obtenidas del terminal, y el archivo FunPrepareData.R con las funciones de preparación de datos deGitHub/Part_IV.
Entonces:

evalq({
  dt <- PrepareData(Data, Open, High, Low, Close, Volume)
}, env)

 prep <- caret::preProcess(x = env$dt[, -c(1,ncol(env$dt))], method = c("spatialSign"))
 x.train <- predict(prep, env$dt[, -c(1,ncol(env$dt))])#удалить время и класс
 x.train <- as.matrix(x.train,ncol=(ncol(env$dt)-1))
 
 y.train <- as.matrix(env$dt[, ncol(env$dt)],ncol=1)
 require(randomUniformForest)

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

Aquí la importancia global de los predictores se calcula 4 veces sobre los mismos datos. El resultado es casi aleatorio:

----------------------------------------------------------------------------------------------
1 ftlm 9204 2 0.52 100.00 8
2 rbci 9197 2 0.52 99.92 8
3 stlm 9150 2 0.52 99.41 8
4 v.fatl 9147 2 0.51 99.38 8
5 v.rftl 9122 2 0.52 99.11 8
6 v.satl 9110 2 0.51 98.98 8
7 v.stlm 9096 2 0.51 98.82 8
8 v.rbci 9084 2 0.51 98.69 8
9 pcci 9082 2 0.52 98.68 8
10 v.rstl 9049 2 0.52 98.31 8
11 v.pcci 8980 2 0.51 97.57 8
12 v.ftlm 8953 2 0.52 97.28 8
----------------------------------------------------------------------------------------------

1 v.fatl 9130 2 0.51 100.00 8
2 ftlm 9079 2 0.52 99.45 8
3 v.rbci 9071 2 0.52 99.35 8
4 v.rftl 9066 2 0.52 99.30 8
5 stlm 9058 2 0.51 99.21 8
6 v.satl 9033 2 0.51 98.94 8
7 pcci 9033 2 0.51 98.94 8
8 v.stlm 9019 2 0.51 98.78 8
9 v.rstl 8977 2 0.51 98.33 8
10 rbci 8915 2 0.52 97.64 8
11 v.pcci 8898 2 0.51 97.46 8
12 v.ftlm 8860 2 0.51 97.04 8
----------------------------------------------------------------------------------------------

1 v.fatl 9287 2 0.51 100.00 9
2 stlm 9191 2 0.52 98.96 8
3 v.rbci 9172 2 0.52 98.76 8
4 v.rftl 9134 2 0.51 98.35 8
5 v.satl 9115 2 0.51 98.14 8
6 ftlm 9109 2 0.51 98.08 8
7 v.stlm 9072 2 0.51 97.69 8
8 v.rstl 9072 2 0.51 97.68 8
9 v.ftlm 9036 2 0.51 97.30 8
10 pcci 9014 2 0.52 97.05 8
11 rbci 9002 2 0.52 96.93 8
12 v.pcci 8914 2 0.51 95.98 8
----------------------------------------------------------------------------------------------

1 v.satl 9413 2 0.51 100.00 8
2 ftlm 9389 2 0.52 99.75 8
3 v.stlm 9371 2 0.51 99.55 8
4 v.rftl 9370 2 0.51 99.54 8
5 v.rbci 9337 2 0.51 99.19 8
6 v.pcci 9314 2 0.51 98.95 8
7 v.fatl 9311 2 0.52 98.91 8
8 stlm 9295 2 0.52 98.75 8
9 pcci 9281 2 0.51 98.60 8
10 v.rstl 9261 2 0.51 98.39 8
11 v.ftlm 9257 2 0.51 98.35 8
12 rbci 9238 2 0.52 98.14 8

Para los otros 2 paquetes probados, la importancia de los predictores se determina de la misma manera en las pruebas previas.

Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
  • 2018.03.01
  • Vladimir Perervenko
  • www.mql5.com
В предыдущей статье этой серии мы оптимизировали гиперпараметры модели DNN, обучили ее несколькими вариантами и протестировали. Качество полученной модели оказалось довольно высоким. Также мы обсудили возможности того, как можно улучшить качество классификации. Одна из них — использовать ансамбль нейросетей. Этот вариант усиления мы и...
 
elibrarius:

Experimenté con randomUniformForest - no me gustó.

La importancia de los predictores sigue saltando hacia arriba y hacia abajo en la lista.

No lo veo.

Pero no se trata de eso, sino de este principio.

La importancia de los predictores, que se define en este modelo y en otros modelos, es alguna característica del uso de un predictor particular en un modelo concreto.

Y puedes poner el problema como la importancia del predictor para la variable objetivo, no en un modelo particular.

Estas son las funciones de caret son exactamente eso. Puede utilizarlos para generar algún conjunto general de predictores que sean "útiles" para la variable objetivo. Dicho esto, hay un matiz muy interesante: que si movemos la ventana y volvemos a seleccionar en los predictores ya seleccionados, por ejemplo, relacionados con un algoritmo concreto, este conjunto cambiará constantemente.

En general, se necesita una respuesta a la pregunta: ¿por qué se necesita la importancia del predictor? ¿Para la selección en un algoritmo particular? Así que el algoritmo ya se ha pronunciado al respecto y te ha informado de ello. por lo que los números que muestras no son nada, que cambien o no es irrelevante. Lo que importa es la predicción del modelo fuera de la muestra de entrenamiento y la relación de la lista de predictores con el éxito de la predicción fuera de la muestra

 
elibrarius:

Experimenté con randomUniformForest - no me gustó.

Intenta subir tus pronósticos aquí

https://www.mql5.com/ru/articles/3856

y luego ver sus importaciones en una matriz generada automáticamente, después de la formación del agente

Hasta ahora tengo resultados +- en el mío, pero todavía se puede mejorar

creo que es inútil ajustar los objetivos a los predictores en el mercado no estacionario por sí mismo, la importancia también cambia estocásticamente

Random Decision Forest в обучении с подкреплением
Random Decision Forest в обучении с подкреплением
  • 2018.04.12
  • Maxim Dmitrievsky
  • www.mql5.com
Random Forest (RF) с применением бэггинга — один из самых сильных методов машинного обучения, который немного уступает градиентному бустингу.  Случайный лес состоит из комитета деревьев решений (которые также называются деревьями классификации или регрессионными деревьями "CART" и решают одноименные задачи). Они применяются в статистике...
 
SanSanych Fomenko:

No lo veo.

Pero no se trata de eso, sino de este principio.

La importancia de los predictores, que se define en este modelo y en otros modelos, es alguna característica del uso de un predictor particular en un modelo concreto.

Y puedes poner el problema como la importancia del predictor para la variable objetivo, no en un modelo particular.

Estas son las funciones de caret son exactamente eso. Puede utilizarlos para generar algún conjunto general de predictores que sean "útiles" para la variable objetivo. Dicho esto, hay un matiz muy interesante: que si movemos la ventana y volvemos a seleccionar en los predictores ya seleccionados, por ejemplo, relacionados con un algoritmo concreto, este conjunto cambiará constantemente.

En general, se necesita una respuesta a la pregunta: ¿por qué se necesita la importancia del predictor? ¿Para la selección en un algoritmo particular? Así que el algoritmo ya se ha pronunciado al respecto y te ha informado de ello. por lo que los números que muestras no son nada, que cambien o no es irrelevante. Lo que importa es la predicción del modelo fuera de la muestra de entrenamiento y la relación de la lista de predictores con el éxito de la predicción fuera de la muestra

semilla - simplemente fijaría uno de estos conjuntos aleatorios. Pero seguiría siendo aleatorio, aunque reproducible. Creo que la cuestión es que los pesos de importancia (3ª columna) sólo difieren en un 3% entre el mínimo y el máximo, por lo que con pequeños cambios en el bosque saltan fácilmente sobre la lista. En otros paquetes, estos pesos difieren en tiempos u órdenes de magnitud.

La importancia de los predictores es necesaria para descartar los que no son importantes y tienen ruido, y para utilizarlos en NS o en conjunto.

En este conjunto de datos stlm - degrada mucho el resultado del entrenamiento, lo utilizo como marcador - si no abandona entonces el paquete de selección de predictores - ha fallado.

 
Maxim Dmitrievsky:

Intenta subir tus pronósticos aquí

https://www.mql5.com/ru/articles/3856

y luego ver sus importaciones en la matriz ya generada automáticamente, después de entrenar al Agente

Yo tengo resultados +- en el mío hasta ahora en el OOS, pero todavía hay margen de mejora

Creo que es inútil recoger los objetivos de los predictores en un mercado no estacionario porque los impatrones cambian estocásticamente

Oh - nuevo artículo. Interesante...
 
elibrarius:
Oh - nuevo artículo. Interesante...

Sí, el problema de la selección de objetivos se elimina con este enfoque, pero hay que aprender a hacer revisiones significativas al agente

funciona bien en cualquier predictor, pero para que funcione en OOS, tienes que hacer un lío con su selección

 
Alexander_K2:

No dejaré que esta rama se caiga del nivel superior.

Señores de la red neuronal: el pueblo llano espera el Grial de ustedes. No lo arruines.

Yo mismo me preocupé cuando lo perdí :-)