Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 839
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Al principio, cuando sólo tenían un par de cientos de personas que ofrecían sus pronósticos, todo iba bien, incluso me pagaban las plazas. Había al menos otras dos personas en el foro que también mostraron grandes resultados con los premios.
También he tenido al menos dos personas más que han mostrado grandes resultados en el foro. Luego empezaron a enviarles todo tipo de basura en lugar de modelos y aparecieron todo tipo de tramposos con cientos de cuentas que brutalmente forzaron el pronóstico. Los administradores estaban hartos de todo este circo y lo hicieron muy sencillo: "Si quieres un premio en metálico, deja un depósito". Si el modelo es falso, y el depósito desaparecerá, y los beneficios no lo serán.
En mi opinión, los administradores tomaron el camino más fácil para ellos. No aprendieron a identificar los modelos potencialmente buenos, ni siquiera a preparar las características, y lo convirtieron todo en una lotería. Si yo fuera ellos, haría las cosas de otra manera.
Al principio, cuando sólo había un par de centenares de personas que ofrecían su pronóstico, todo iba bien, incluso me pagaban las plazas. Hay al menos otras dos personas en el foro que también mostraron grandes resultados con los premios.
Para los administradores del numerario era bastante fácil seleccionar los mejores resultados y operar con ellos. No están satisfechos con la forma en que están cuando compran una entrada, o cuando no quieren dar una entrada. Los administradores estaban hartos de todo este circo y lo hicieron muy sencillo: "Si quieres un premio en metálico, deja un depósito". Si el modelo es falso, y el depósito desaparecerá, y los beneficios no lo serán.
En mi opinión, los administradores tomaron el camino más fácil para ellos. No aprendieron a identificar los modelos potencialmente buenos, ni siquiera a preparar las características, y lo convirtieron todo en una lotería. Yo en su lugar lo haría de otra manera.
Tal vez tengas razón, pero ahora IMHO todo demasiado arbitrario, el cambio de logotipos como extraño, entonces eran más de la mitad por debajo (mejor) que al azar (0,96315) en la Vida, ahora de repente casi todos se convierten en su (peor) al azar ... corto arbitrario IMHO, no me fío de que se "arriesguen" cuando no se puede comprobar nada, y toda la idea es una tontería, la clasificación en sí no es un tema para los chelenges, no tiene sentido delegarla, otra cosa es hacer fichas y objetivos a partir de datos brutos...
No dejaré que esta rama se caiga del nivel superior.
Señores de la red neuronal: el pueblo llano espera el Grial de ustedes. No lo arruines.
Experimenté con randomUniformForest - no me gustó.
La importancia de los predictores sigue saltando hacia arriba y hacia abajo en la lista.
He aquí un ejemplo reproducible sobre los datos del artículo https://www.mql5.com/ru/articles/4227 :
Inicie RStudio, descargue el archivo Cotir.RData deGitHub/Part_I, con las comillas obtenidas del terminal, y el archivo FunPrepareData.R con las funciones de preparación de datos deGitHub/Part_IV.
Entonces:
Aquí la importancia global de los predictores se calcula 4 veces sobre los mismos datos. El resultado es casi aleatorio:
----------------------------------------------------------------------------------------------
1 ftlm 9204 2 0.52 100.00 8
2 rbci 9197 2 0.52 99.92 8
3 stlm 9150 2 0.52 99.41 8
4 v.fatl 9147 2 0.51 99.38 8
5 v.rftl 9122 2 0.52 99.11 8
6 v.satl 9110 2 0.51 98.98 8
7 v.stlm 9096 2 0.51 98.82 8
8 v.rbci 9084 2 0.51 98.69 8
9 pcci 9082 2 0.52 98.68 8
10 v.rstl 9049 2 0.52 98.31 8
11 v.pcci 8980 2 0.51 97.57 8
12 v.ftlm 8953 2 0.52 97.28 8
----------------------------------------------------------------------------------------------
1 v.fatl 9130 2 0.51 100.00 8
2 ftlm 9079 2 0.52 99.45 8
3 v.rbci 9071 2 0.52 99.35 8
4 v.rftl 9066 2 0.52 99.30 8
5 stlm 9058 2 0.51 99.21 8
6 v.satl 9033 2 0.51 98.94 8
7 pcci 9033 2 0.51 98.94 8
8 v.stlm 9019 2 0.51 98.78 8
9 v.rstl 8977 2 0.51 98.33 8
10 rbci 8915 2 0.52 97.64 8
11 v.pcci 8898 2 0.51 97.46 8
12 v.ftlm 8860 2 0.51 97.04 8
----------------------------------------------------------------------------------------------
1 v.fatl 9287 2 0.51 100.00 9
2 stlm 9191 2 0.52 98.96 8
3 v.rbci 9172 2 0.52 98.76 8
4 v.rftl 9134 2 0.51 98.35 8
5 v.satl 9115 2 0.51 98.14 8
6 ftlm 9109 2 0.51 98.08 8
7 v.stlm 9072 2 0.51 97.69 8
8 v.rstl 9072 2 0.51 97.68 8
9 v.ftlm 9036 2 0.51 97.30 8
10 pcci 9014 2 0.52 97.05 8
11 rbci 9002 2 0.52 96.93 8
12 v.pcci 8914 2 0.51 95.98 8
----------------------------------------------------------------------------------------------
1 v.satl 9413 2 0.51 100.00 8
2 ftlm 9389 2 0.52 99.75 8
3 v.stlm 9371 2 0.51 99.55 8
4 v.rftl 9370 2 0.51 99.54 8
5 v.rbci 9337 2 0.51 99.19 8
6 v.pcci 9314 2 0.51 98.95 8
7 v.fatl 9311 2 0.52 98.91 8
8 stlm 9295 2 0.52 98.75 8
9 pcci 9281 2 0.51 98.60 8
10 v.rstl 9261 2 0.51 98.39 8
11 v.ftlm 9257 2 0.51 98.35 8
12 rbci 9238 2 0.52 98.14 8
Para los otros 2 paquetes probados, la importancia de los predictores se determina de la misma manera en las pruebas previas.
Experimenté con randomUniformForest - no me gustó.
La importancia de los predictores sigue saltando hacia arriba y hacia abajo en la lista.
No lo veo.
Pero no se trata de eso, sino de este principio.
La importancia de los predictores, que se define en este modelo y en otros modelos, es alguna característica del uso de un predictor particular en un modelo concreto.
Y puedes poner el problema como la importancia del predictor para la variable objetivo, no en un modelo particular.
Estas son las funciones de caret son exactamente eso. Puede utilizarlos para generar algún conjunto general de predictores que sean "útiles" para la variable objetivo. Dicho esto, hay un matiz muy interesante: que si movemos la ventana y volvemos a seleccionar en los predictores ya seleccionados, por ejemplo, relacionados con un algoritmo concreto, este conjunto cambiará constantemente.
En general, se necesita una respuesta a la pregunta: ¿por qué se necesita la importancia del predictor? ¿Para la selección en un algoritmo particular? Así que el algoritmo ya se ha pronunciado al respecto y te ha informado de ello. por lo que los números que muestras no son nada, que cambien o no es irrelevante. Lo que importa es la predicción del modelo fuera de la muestra de entrenamiento y la relación de la lista de predictores con el éxito de la predicción fuera de la muestra
Experimenté con randomUniformForest - no me gustó.
Intenta subir tus pronósticos aquí
https://www.mql5.com/ru/articles/3856
y luego ver sus importaciones en una matriz generada automáticamente, después de la formación del agente
Hasta ahora tengo resultados +- en el mío, pero todavía se puede mejorar
creo que es inútil ajustar los objetivos a los predictores en el mercado no estacionario por sí mismo, la importancia también cambia estocásticamente
No lo veo.
Pero no se trata de eso, sino de este principio.
La importancia de los predictores, que se define en este modelo y en otros modelos, es alguna característica del uso de un predictor particular en un modelo concreto.
Y puedes poner el problema como la importancia del predictor para la variable objetivo, no en un modelo particular.
Estas son las funciones de caret son exactamente eso. Puede utilizarlos para generar algún conjunto general de predictores que sean "útiles" para la variable objetivo. Dicho esto, hay un matiz muy interesante: que si movemos la ventana y volvemos a seleccionar en los predictores ya seleccionados, por ejemplo, relacionados con un algoritmo concreto, este conjunto cambiará constantemente.
En general, se necesita una respuesta a la pregunta: ¿por qué se necesita la importancia del predictor? ¿Para la selección en un algoritmo particular? Así que el algoritmo ya se ha pronunciado al respecto y te ha informado de ello. por lo que los números que muestras no son nada, que cambien o no es irrelevante. Lo que importa es la predicción del modelo fuera de la muestra de entrenamiento y la relación de la lista de predictores con el éxito de la predicción fuera de la muestra
La importancia de los predictores es necesaria para descartar los que no son importantes y tienen ruido, y para utilizarlos en NS o en conjunto.
En este conjunto de datos stlm - degrada mucho el resultado del entrenamiento, lo utilizo como marcador - si no abandona entonces el paquete de selección de predictores - ha fallado.
Intenta subir tus pronósticos aquí
https://www.mql5.com/ru/articles/3856
y luego ver sus importaciones en la matriz ya generada automáticamente, después de entrenar al Agente
Yo tengo resultados +- en el mío hasta ahora en el OOS, pero todavía hay margen de mejora
Creo que es inútil recoger los objetivos de los predictores en un mercado no estacionario porque los impatrones cambian estocásticamente
Oh - nuevo artículo. Interesante...
Sí, el problema de la selección de objetivos se elimina con este enfoque, pero hay que aprender a hacer revisiones significativas al agente
funciona bien en cualquier predictor, pero para que funcione en OOS, tienes que hacer un lío con su selección
No dejaré que esta rama se caiga del nivel superior.
Señores de la red neuronal: el pueblo llano espera el Grial de ustedes. No lo arruines.
Yo mismo me preocupé cuando lo perdí :-)