Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 646

 
Dr. Trader:

Hay 2 tipos para elegir -
1=disminución media de la precisión (eso es probablemente lo que es mda, coincide con las primeras letras)
2=disminución media de la impureza del nodo

y también hay paquetes especiales VSURF, VarSelRF, Boruta.

 
Ivan Negreshniy:

También hay paquetes especiales VSURF, VarSelRF y Boruta.

¿cuál es mejor? )

 
Maxim Dmitrievsky:

¿cuál es mejor? )

Así que esto es sólo una pequeña parte de R que trabajan en bosques aleatorios, Boruta parece ser para Python también.

Las mejores, en mi opinión, son las que tienen más variaciones pero menos molestias para el usuario. La mejor es en automático total, analizar el modelo y buscar entre todos los adecuados).

 
Ivan Negreshniy:

Así que esto es sólo una pequeña parte de R que trabaja en andamios aleatorios, Boruta parece estar disponible para Python también.

Creo que hay más variación pero menos molestia para el usuario y lo mejor es analizar el modelo y mirar a través de todos los adecuados)

Estaba pensando en reescribir algo del andamio ficaimortans para MT5 para tenerlo a mano

Todavía no me he puesto a ello.

Me importa un bledo todo eso de la P, no se puede aprender en una vida... :) y no puedes usarlos todos
 
Maxim Dmitrievsky:

Estaba pensando en reescribir algo del andamiaje para MT5 para tenerlo a mano

Todavía no puedo llegar a ella.

no te preocupes por todo esto de P, no puedes aprenderlo en una vida... :) además, no se pueden utilizar todos

Si intenta hacerlo usted mismo, debería empezar con el clásico fishimportance de Breyman - reordenar uno a uno los futuros en el conjunto de entrenamiento y calcular su relevancia por el cambio de MSE en OOB o el índice de Gini en las divisiones del árbol.

Se supone que funciona para series temporales, por lo que se puede eliminar el número necesario de elementos menos significativos y reducir a la misma dimensionalidad los patrones diferentes en longitud.
Random forest - Wikipedia
Random forest - Wikipedia
  • en.wikipedia.org
Random forests or random decision forests[1][2] are an ensemble learning method for classification, regression and other tasks, that operate by constructing a multitude of decision trees at training time and outputting the class that is the mode of the classes (classification) or mean prediction (regression) of the individual trees. Random...
 
Ivan Negreshniy:

Si quieres escribirlo tú mismo, deberías empezar con el clásico Breymann ficcimportance - reordenas los futuros en el conjunto de entrenamiento uno por uno y calculas su importancia cambiando el MSE en OOB o el índice de Gini en las divisiones del árbol.

En idea debería funcionar para las series temporales, por lo que se puede eliminar el número necesario de elementos menos significativos y reducir a la misma dimensionalidad diferentes en los patrones de extensión.

Sí, quiero a Gini para empezar.

y en general el andamiaje es más fácil de usar, la misma optimización

 
En mi opinión, el precio está subiendo más lentamente que bajando. Es decir, las imágenes para recordar serían diferentes. Pero probablemente no se tardará mucho en probar y comparar.
 
elibrarius:
Creo que el precio sube más lentamente de lo que baja. Es decir, habrá diferentes imágenes que recordar. Pero probablemente no se tardará mucho en probar y comparar.

es lo mismo en forex :) hay 2 monedas

me pregunto si no hay algunos ejemplos mutuamente excluyentes... de hecho no debe haber muchos

 
Maxim Dmitrievsky:

es lo mismo en forex :) hay 2 monedas

Me pregunto si hay ejemplos que se excluyan mutuamente... de hecho no debería haber muchos

Así que está bien. Dejemos que N sea la clase 1, y M la clase 2, y que las clases se superpongan, lo que, en mi opinión, debería ser el caso.

Entonces las probabilidades son Pn=n/N y Pm=m/M. Si la probabilidad>0,5, entonces el DM puede manejarlo por sí mismo. Según nuestra experiencia, el solapamiento se sitúa entre el 20 y el 40%, es decir, entre el 20 y el 40% de las transacciones serán incorrectas.

 
Yuriy Asaulenko:

Así que está bien. Dejemos que N sea la clase 1, y M la clase 2, y que las clases se superpongan, lo que, en mi opinión, debería ser el caso.

Entonces las probabilidades son Pn=n/N y Pm=m/M. Si la probabilidad>0,5, entonces el DM puede manejarlo por sí mismo. El solapamiento de la experiencia se sitúa en torno al 20-40%, es decir, entre el 20 y el 40% de las operaciones serán erróneas.

Pues esencialmente sí, no se puede estropear la mantequilla, y hay menos sobreentrenamiento. Y en esas cosas aparentemente pequeñas, puede estar la clave de la eficacia.

excepto que no tengo clases, tengo regresión.

y también se puede transformar la serie inicial (afín, por ejemplo) y sumar sus incrementos (entiendo, para eso está monte carlo, ¿no?)

En fin, ya me gusta lo que estoy haciendo, faltan 3 semanas para mi meta con NS :))) o un grial o al diablo. Hagan sus apuestas :)))