Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1203
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Gracias. Al azar con los mismos valores que el predictor en la muestra, ¿no?
En general el planteamiento es claro, gracias, tengo que pensar como implementarlo y probarlo.
Por desgracia, no puedo dominarlo, así que escucharé un relato de sus labios en la ocasión.
No, para aleatorizar del todo, es decir, limpiar completamente los valores del predictor y meter ruido blanco
y luego vuelva a meter los valores originales cuando vaya a comprobar el siguiente.
A grandes rasgos, se trata de poner ruido blanco en lugar de cada predictor, de uno en uno. Eso es probablemente más fácil de entender.
Una condición importante: los predictores no deben estar correlacionados, de lo contrario obtendrás un galimatías con errores... Para ello, primero transformé a través de PCA, pero es posible hacer una matriz de correlación y eliminar todas las fuertemente correlacionadas. Hay otro mecanismo, pero es complicadoNo, aleatorizar en absoluto por la izquierda, es decir, limpiar completamente los valores del predictor y meter ruido blanco
y luego volver a meter los valores originales cuando se vaya a comprobar el siguienteSi sólo es ruido, entonces romperemos la división en absoluto, por ejemplo, hay una división con la regla "más de 100", pero añadiremos aleatoriamente de 0 a 99, entonces la división adicional ya no estará activa. Probablemente es importante ver cómo funcionará la división adicional si una de las reglas de la lista cae...
Una condición importante: los predictores no deben correlacionarse, de lo contrario obtendrás un galimatías con errores... Para esto primero transformé a través de PCA, pero es posible hacer una matriz de correlación y eliminar todas las fuertemente correlacionadas. Hay otro mecanismo, pero es complicado¿Qué tipo de correlación es aceptable? Al fin y al cabo, los buenos predictores deben correlacionarse con el objetivo, lo que significa que se correlacionarán entre sí hasta cierto punto...
Si sólo es ruido, entonces romperemos la división en absoluto, por ejemplo hay una división con la regla "más de 100" y pondremos una aleatoria de 0 a 99, entonces la división posterior ya no estará activa, y probablemente sea importante ver cómo funcionará la división posterior cuando una de las reglas de la hoja se caiga...
por lo que el error bajará mucho y todo estará bien, la importancia es baja. No te metas en los modelos, cómo saber cómo se dividen los árboles, y cada uno es diferente con diferente número de características. Siempre se parecen a la media del hospital.
¿Qué tipo de correlación es aceptable? Al fin y al cabo, los buenos predictores deben correlacionarse con el objetivo, lo que significa que se correlacionarán entre sí hasta cierto punto...
esto es una herejía para la regresión lineal con un predictor, en los modelos no lineales nada debe correlacionarse con el objetivo, especialmente si se trata de una clasificación
No sé cuál es la aceptable, es difícil... o experimental. Por supuesto, es más fácil utilizar el ACP en este sentido.Entonces el error bajará drásticamente y todo estará bien, las importaciones son bajas. No te metas en los modelos, cómo saber cómo se dividen los árboles, y cada uno es diferente con un número diferente de características. Siempre se mira la media del hospital.
Entonces puedes simplemente anular el valor o sustituirlo por cualquier otro valor - el mismo aleatorio, pero no me parece lógico... De todos modos, si puedo implementarlo, probaré dos variantes.
esto es una herejía para la regresión lineal, en los modelos no lineales nada debe correlacionarse con el objetivo
¿Cuál es el argumento de que si hay una correlación con el objetivo, entonces el predictor es malo?
Entonces podrías simplemente anular el valor o sustituirlo por cualquier otro valor - el mismo aleatorio, pero no me parece lógico... De todos modos, si puedo implementarlo, probaré dos opciones.
Bueno, ¿qué argumento puede haber para que si hay una correlación con el objetivo, entonces el predictor es malo?
Me da igual cómo lo hagas, lo principal es reordenar las fichas, me parece que es más bien una nimiedad.
No hablo de uno, sino cuando hay muchos y las importaciones son más o menos las mismas porque la correlación entre ellos es fuerte. Resulta que si se elimina una característica fuerte durante el reordenamiento, el error del modelo no caerá, porque habrá características similares con la misma importancia, y ninguna de las características fuertes será reconocida. Por eso hay que aleatorizar todas las características correlacionadas a la vez (lo que es más difícil de implementar) o tener cuidado de no correlacionar fuertemente nada
hacer lo que quieras, lo principal es el principio de reordenación de la ficha, creo que es más probable que sea una nimiedad
No hablo de uno, sino cuando hay muchos y la importancia es aproximadamente la misma, porque la correlación es fuerte. Por lo tanto, la eliminación de una característica fuerte en el reordenamiento no hará que el error del modelo disminuya, porque habrá características similares con la misma importancia y ninguna de las características fuertes será reconocida.
Así es como el modelo debe construir predictores para construir árboles simétricos - sin re-entrenamiento es poco probable, como me parece, por lo que no tiene sentido al crear el modelo.
Entonces, ¿qué correlación es aceptable?Todavía depende del modelo conseguir que los predictores construyan árboles simétricos, ya que sin reaprendizaje es poco probable, me parece, porque no tiene sentido al crear el modelo.
funciona bien en caso de bosque, en caso de catbust hay que leer, no recuerdo como funciona. Tal vez tenga una buena importación en sí misma, debido a la estructura del propio modelo
No sé lo que es aceptable, establece un umbral y ve. +- poco cambiará el modelo. La potenciación no funciona de la misma manera que la RF, tal vez haya una clara importancia desde el principio.
o si está seguro de que las características son heterogéneas y no se correlacionan, entonces olvídese de intentar este paso.
Todas estas cosas son importantes, especialmente si tienes muchas características y necesitas cortar el ruido del modelo, pero no tanto como para preocuparte por cada % de correlación, creo. en el rango de -0,5; 0,5 es probablemente normal.
Yo mismo haré una variante de este tipo más adelante y lo comprobaré.
funciona bien en el caso de forest, en el caso de catbust hay que leer, no recuerdo como funciona. Tal vez tenga buenas importaciones por sí mismo, debido a la estructura del propio modelo
No sé lo que es aceptable, establece un umbral y ve. +- poco cambiará el modelo. La potenciación no funciona de la misma manera que la RF, tal vez haya una clara importancia desde el principio.
o si está seguro de que las características son heterogéneas y no se correlacionan, entonces olvídese de intentar este paso.
Todas estas cosas son importantes, especialmente si tienes muchas características y necesitas cortar el ruido del modelo, pero no tanto como para preocuparte por cada % de correlación, creo. en el rango de -0,5; 0,5 es probablemente normal.
Yo mismo haré una variante de este tipo más tarde y echaré un vistazo.
Ya veo, tendré que probarlo. Sólo quiero ver las hojas para la correlación y tal vez para los modelos de catbust. Sé con certeza que el emparejamiento de los modelos es posible - la búsqueda simple lo ha demostrado, pero debo hacer todo razonablemente, y la correlación detectada permitirá disminuir el número de iteraciones mientras que el emparejamiento de los modelos.