Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1964
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Puede que no haya aclarado antes que debe quedar al menos el 1% de los indicadores en la hoja en las muestras pequeñas y el 100 en las muestras grandes, por lo que, por supuesto, la división no será hasta el punto de no tener errores en la hoja para ninguna clase.
Parece que no entiendes el último paso - yo lo veo como una evaluación estadística de la muestra del 1% restante - en esta muestra observamos que el resultado mejora con divisiones por diferentes predictores, obtenemos información del subespacio, por ejemplo:
Si A>x1, el objetivo 1 será correcto en un 40%, lo que supone el 60% de la submuestra
Si B>x2, el objetivo 1 se identificará correctamente con un 55%, lo que supone el 45% de la submuestra.
Si A<=x1, el objetivo 1 estará correctamente definido en un 70%, es decir, el 50% de la submuestra
Cada una de estas divisiones tiene un factor de importancia (aún no he decidido cómo calcularlo), y la última división también tiene uno.
y así sucesivamente, digamos hasta 5-10 predictores, entonces al aplicar, si llegamos a la última división, sumamos los coeficientes (o usamos un método más complicado de suma), y si la suma de coeficientes supera el umbral, entonces la hoja se clasifica 1, de lo contrario cero.
Una forma sencilla de ponerlo en práctica es construir forzosamente un bosque hasta la penúltima división, y luego excluir los predictores ya seleccionados de la muestra, para que se seleccionen los nuevos. O simplemente, tras construir el árbol, filtrar la muestra por hojas y recorrer cada predictor por sí mismo en busca de la mejor división que cumpla el criterio de exhaustividad y precisión.
Y, el resultado en la muestra de entrenamiento mejorará si la otra clase "0" significa ninguna acción y no la entrada opuesta, de lo contrario puede haber tanto mejora como deterioro.
Anteriormente se describió una forma sencilla: entrenar algunos árboles hasta el nivel 6 y otros hasta el nivel 7 de profundidad. Esto requeriría reescribir el código.
Ahora se me ha ocurrido una forma más sencilla, ya que no hay que reescribir nada. Sólo hay que construir un bosque aleatorio con cualquier paquete hasta el nivel 6 y otro bosque hasta el nivel 7, y luego hacer la media.
La muestra deentrenamiento no tiene que preocuparnos: siempre es perfecta.
De todos modos, el resultado del entrenamiento será algo entre un árbol entrenado a N y N+1 de profundidad, por ejemplo 6 y 7. Si en el nivel 6 el error es del 20% y en el nivel 7 el error es del 18%, su método le dará el error intermedio, por ejemplo, el 19%. ¿Cree que la ganancia del 1% merece la pena?
Anteriormente se describió una forma sencilla: entrenar algunos árboles hasta el nivel 6 y otros hasta el nivel 7 de profundidad. Esto requeriría reescribir el código.
Ahora se me ha ocurrido una forma más sencilla, ya que no hay que reescribir nada. Sólo hay que construir un bosque aleatorio con cualquier paquete hasta el nivel 6 y otro bosque hasta el nivel 7, y luego hacer la media.
La muestra deformación no debe preocuparnos: siempre está bien.
La ganancia suele ser superior al 1%.
Por supuesto que se pueden aleatorizar los bosques, pero ¿cómo conseguir que sean iguales hasta la penúltima división? Supongamos que entrenas 10 árboles hasta la 6ª división, y que entrenas otros 10 de la misma manera, pero hasta la 7ª.
La ganancia suele ser superior al 1%.
Por supuesto que se pueden tener bosques aleatorios, pero ¿cómo hacer que sean iguales hasta la penúltima división? Digamos que enseñamos 10 árboles a la 6ª división, y enseñamos los otros 10 de la misma manera, pero a la 7ª división.
De ninguna manera. Por eso son aleatorias, ya que tomamos columnas aleatorias para el entrenamiento. El promedio da entonces buenos resultados.
Añade también: el número de filas que participan en el entrenamiento debe ser también 1, es decir, todas para que el entrenamiento sea el mismo. Así que todo lo aleatorio del bosque aleatorio se elimina.Puede intentar establecer la fracción de columnas = 1. Es decir, todas las columnas participarían en la construcción del árbol, en lugar de un 50% aleatorio de todas las columnas. Todos los árboles serán iguales, por lo que también se establece 1 árbol en el bosque. En total un bosque con un árbol está entrenado a 6, el otro a 7 nivel de profundidad.
Si necesita más de 2 árboles, entonces elimine independientemente algunas columnas del conjunto y entrene bosques adicionales en todas las columnas restantes.
Es un reto encontrar la lógica comercial para eso ns
hasta ahora hemos llegado a esto.
Además, la arquitectura de ns varía en un amplio rango
lo principal es hacerlo bien
Es un reto encontrar la lógica comercial para eso ns
hasta ahora hemos llegado a esto.
Además, la arquitectura de ns varía en un amplio rango
lo principal es elegir la recompensa adecuada
¿Otra vez se ha enfrentado a la NS con refuerzos? Parece que utilizan la recompensa
Sugiero hacer pruebas con estos datos, definitivamente hay un patrón allí y está claro a qué apuntar.
ps para eliminar el .txt del nombre
En un mes y medio. Autoaprendizaje completo sinintervención
Voy a hacer un poco más de investigación más tarde ... demasiados parámetros
En un mes y medio. Autoaprendizaje completo sinintervención
Voy a hacer un poco más de investigación más tarde ... demasiados parámetros
En un mes y medio. Autoaprendizaje completo sinintervención
Voy a hacer un poco más de investigación más tarde ... demasiados parámetros
¿Esto se debe a los nuevos datos comerciales o cómo se entiende?
Entonces, ¿se trata de nuevos datos comerciales o cómo se entiende?