Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1710

 
Maxim Dmitrievsky:

¡Max! Recuérdame otra vez cómo se llaman estos modelos...

1) Se entrena el modelo 1

2) el modelo 2 se entrena con las predicciones sobre los datos de prueba del modelo 1, etc.

¿apilamiento?

 
Aleksey Vyazmikin:

Sí, resultados extraños. ¿No toman la probabilidad de la muestra de la prueba involucrada en la formación? Pero parece que hay un error.

¿Y cuántas unidades totales (líneas de objetivo) hay en la muestra?
No hay muestra de prueba.
Hay 891 filas en total en el conjunto de datos.

Creo que ahí se utiliza una de las fórmulas rms,rmse,cls o algo más. Lo principal es que el resultado converge al 0%, al 50% y al 100%. Y en el medio están curvados. La división por clases suele hacerse al 50%, y en este punto hay una coincidencia de probabilidades común. Así que decidió dejar el tema sin resolver.
 
Aleksey Vyazmikin:
elibrarius:

¿Puedo hacerte una pregunta?

¿Por qué ketbust? ¿Qué tiene que no tengan los análogos?

 
elibrarius:
No hay muestra de prueba.
Hay 891 filas en total en el conjunto de datos.

Creo que ahí se utiliza una de las fórmulas rms,rmse,cls o algo más. Lo principal es que el resultado converge al 0%, al 50% y al 100%. Y en el medio están curvados. La división por clases suele hacerse al 50%, y en este punto hay una coincidencia de probabilidades común. Así que decidió dejar el tema sin resolver.

Sí, para entender la profundidad de la idea, hay que romper el código. Pero es interesante cómo asignan pesos a las hojas, teniendo en cuenta las que ya tienen.

 
mytarmailS:

¿Puedo hacerte una pregunta?

¿Por qué ketbust? ¿Qué tiene que no tengan los análogos?

Me interesa por las siguientes razones:

1. Soporte: mucha información y comentarios de los desarrolladores.

2. Aprendizaje rápido - utilizando todos los núcleos del procesador.

3. Ajustes flexibles para la construcción de modelos y el control del reentrenamiento, aunque aquí hay mucho que mejorar.

4. Posibilidad de aplicar modelos simétricos binarios después del entrenamiento en MQL5, pero no es mi desarrollo.

 
Aleksey Vyazmikin:

gracias

 

Cualquiera puede estar interesado en

Hay un nuevo libro sobre previsión de series temporales en R, que incluye ejemplos de previsión de bitcoin

https://ranalytics.github.io/tsa-with-r/

 
Aleksey Vyazmikin:

Sí, para entender la profundidad de la idea, hay que romper el código. Pero es interesante cómo asignan pesos a las hojas, teniendo en cuenta los existentes.

Por definición
La idea del gradient binning es construir un conjunto de modelos elementales que se refinan secuencialmente. El enésimo modelo elemental se entrena con los "errores" del conjunto de n-1 modelos, y las respuestas de los modelos se ponderan conjuntamente. Los "errores" van entre comillas, ya que, de hecho, cada modelo sucesivo se aproxima al antigradiente de la función de pérdida, que no es necesariamente igual a la diferencia entre los valores reales y los predichos (es decir, el error en sentido literal).

Parece que los pesos se determinan como siempre: por probabilidad.
Pero aparentemente la división no es sólo la mejor, sino la que mejora el resultado global. Pero esto es sólo una suposición. Es imposible revisar el código, ya que contiene kilómetros de listados. No son 4000 cadenas de la alglib.

mytarmailS:

¿Por qué catbust? ¿Qué tiene que no tengan los análogos?

Estoy de acuerdo con Alexey. Tengo algo de experiencia con xgboost. Se podrá comparar en la práctica.
 
elibrarius:

Sólo pregunto por qué, veo que estás luchando con estos árboles de ketbust, hay algunos problemas con la salida, muletas...

Me he metido un poco en el tema de la "inducción de reglas" y veo que R tiene muchos paquetes de generación de reglas o conjuntos de reglas...


1) las reglas son fáciles de emitir, una línea

2) las normas son fáciles de leer para un humano

3) tipos de pilas de generación de reglas, desde triviales hasta genéticas

4) la calidad de la predicción está a la altura de cualquier otra cosa


Así que estoy pensando que tal vez no deberías molestarte con este Ketbust. y vaya por algo más agradable o algo así...

 
mytarmailS:

¡Max! Recuérdame otra vez cómo se llaman estos modelos...

1) Se entrena el modelo 1

2) el modelo 2 se entrena con las predicciones sobre los datos de prueba del modelo 1, etc.

¿apilamiento?

meta etiquetado de prado