Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2575

 
Aleksey Nikolayev #:

En el artículo se prueba Kalman con datos generados. No estoy seguro de que sea mejor que la versión deslizante de LS en datos reales.

No, no, en datos reales, todo es justo Y_.

head(Y_)
                EWH      EWZ
2000-08-01 1.947204 2.298111
2000-08-02 1.971071 2.285039
2000-08-03 1.994382 2.278438
2000-08-04 1.994382 2.317404
2000-08-07 2.012648 2.317404
2000-08-08 1.985123 2.317404

Aquí está la mu y la gamma en los datos de Y_.

Kalman <- estimate_mu_gamma_Kalman(Y_)

y el backtest con losdatos Y_.

return_Kalman <- pairs_trading(Y_["::2003-03"], Kalman$gamma["::2003-03"], Kalman$mu["::2003-03"], 
                               "Kalman", plot = TRUE)



Pero la cuestión es que en laestimación_mu_gamma....blahblah

La regresión y la regresión rodante se dividen en traza y prueba, es como si hubiera un modelo para predecir nuevos datos (nuevo spread), pero no está ahí para kalman, no entiendo cómo funciona por dentro, cómo construir spread con nuevos datos usando kalman. El código es tan poco claro que me sangran los ojos.

 
mytarmailS #:

No entiendo nada con este kalman((

De todas formas hay que desentrañar las tres estrategias, probablemente sea más fácil desentrañar la segunda antes que la de kalman - tiene el mismo principio - adaptabilidad en el tiempo, pero es más simple.

 
Andrei Trukhanovich #:

De todos modos, hay que descifrar las tres estrategias, probablemente sea más fácil descifrar la segunda antes que la de Kalman: tiene el mismo principio, la adaptabilidad en el tiempo, pero es más sencilla.

No, Andrei, el segundo funciona muy mal.

También hay muy buenas parejas tomadas ... Si tomas la realidad, si Dios quiere, ese Kalman mostrará algo.

 
mytarmailS #:

No Andrei, el segundo funciona muy mal.

Hay algunas parejas muy buenas tomadas ... Si tomamos la realidad, Dios no permita que Kalman muestre algo.

Así que esta imagen es una comparación con los datos simulados. En los datos reales allí al final y en su primera mitad el calman es incluso ligeramente peor.

A grandes rasgos, se hacen algunas suposiciones a priori para kalman y si se cumplen en la realidad, entonces kalman será mucho mejor y viceversa.

 
Aleksey Nikolayev #:

A grandes rasgos, se hacen algunas suposiciones a priori para el Kalman y si se cumplen en la realidad, el Kalman será mucho mejor y viceversa.

No lo creo. Sólo estaba simulando los datos por diversión...

Aquí está el entrenamiento de los modelos en los datos reales de Y_.

LS <- estimate_mu_gamma_LS(Y_)
rolling_LS <- estimate_mu_gamma_rolling_LS(Y_)
Kalman <- estimate_mu_gamma_Kalman(Y_)

y luego conseguir los diferenciales.

spread_LS <- compute_spread(Y_, LS$gamma, LS$mu, "LS")
spread_rolling_LS <- compute_spread(Y_, rolling_LS$gamma, rolling_LS$mu, "rolling-LS")
spread_Kalman <- compute_spread(Y_, Kalman$gamma, Kalman$mu, "Kalman")

y luego el backtest.


No has entrenado a Kalman con datos sintéticos antes del backtest real.

 
mytarmailS #:

No lo creo. Sólo estaba simulando los datos por diversión.

Aquí está el entrenamiento de los modelos en los datos reales de Y_.

y luego obtener los diferenciales.

y luego el backtest.


No has entrenado a Kalman con datos sintéticos antes del backtest real.

Los supuestos a priori son, en primer lugar, un modelo lineal almacenado en el paquete (descrito al principio de la sección Kalman) y, en segundo lugar, los parámetros de inicialización de este modelo se toman, en general, del techo.

 
mytarmailS #:

No Andrei, el segundo rollingLS es muy malo.

La verdad es que no. Si se observan los gráficos anteriores, se puede ver que la "rodadura" real se activa después de que haya pasado aproximadamente un tercio de la muestra. en los datos reales si hay un historial no se producirá tal problema.

Pero taki Kalman es probablemente todavía mejor, pero sigo pensando que es mejor separarlo de la estufa.

 
mytarmailS #:

Sí... especialmente si eres un humanitario.

No es un bosque sobre lirios).


Nada con este kalman es claro((

Se cuenta el MA (también conocido como Kalman) sobre la dispersión resultante, suavizando el "ruido", por supuesto
 
Maxim Dmitrievsky #:
MAshku (alias Kalman) cuenta con la dispersión resultante, suavizando el "ruido", por supuesto

https://datascienceplus.com/kalman-filter-modelling-time-series-shocks-with-kfas-in-r/

¡Kalman no es un mashka!
Kalman Filter: Modelling Time Series Shocks with KFAS in R | DataScience+
  • Python and R tutorials
  • datascienceplus.com
When it comes to time series forecasts, conventional models such as ARIMA are often a popular option. While these models can prove to have high degrees of accuracy, they have one major shortcoming – they do not typically account for “shocks”, or sudden changes in a time series. Let’s see how we can potentially alleviate this problem using a...
 

Ya hemos pasado por este camino con Rena y el tractor, con ejemplos de sus predicciones a 1 bar ))))) Me río

Por un lado estará por delante, por otro lado estará por detrás. 50/50 en total.