Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 386

 

Bien, ese 0,8% se obtiene honestamente. Aparentemente hay un algoritmo incorporado en el modelo para proteger contra el sobreentrenamiento.


Maxim Dmitrievsky:

Bueno, en primer lugar hay un conjunto muy grande, en segundo lugar la naturaleza de las características no se conoce en absoluto y los modelos lineales como los vectores y Forest obviamente no son adecuados aquí, tenemos que hacer un complejo no cuadriculado, tal vez esa es la razón.


Los modelos de clasificación no encajan realmente, sí. La regresión es necesaria. Porque el resultado se evalúa no por la precisión del modelo, sino por la función Logloss, que suele dar una estimación más alta a los resultados de la regresión

MultiLogLoss <- function(act, pred) {
  eps <- 1 e-15
  pred <- pmin(pmax(pred, eps), 1 - eps)
  sum(act * log(pred) + (1 - act) * log(1 - pred)) * -1 / length(act)
}

act (actual) - resultado esperado, vector
pred (predicted) - resultado previsto, vector

Cuanto más baja sea la puntuación de esta función, mejor. Si el resultado de la función es mayor o igual a 0,6931472, el modelo es malo y este resultado sugiere una suposición aleatoria.

Y a juzgar por los resultados de la 54ª ronda, el ganador obtuvo 0,690467 al estimar sobre los nuevos datos ocultos para los participantes, este es el resultado al que debemos aspirar.

 
Dr. Trader:

Bien, ese 0,8% se obtiene honestamente. Al parecer, el modelo lleva incorporado un algoritmo contra el sobreajuste.



Los modelos de clasificación no encajan realmente, sí. La regresión es necesaria. Porque el resultado no se evalúa por la precisión del modelo, sino por la función Logloss, que suele dar una mayor puntuación a los resultados de la regresión

act (actual) - resultado esperado, vector
pred (predicted) - resultado previsto, vector

Cuanto más baja sea la puntuación de esta función, mejor. Si el resultado de la función es mayor o igual a 0,6931472, el modelo es malo y este resultado sugiere una suposición aleatoria.

A juzgar por los resultados de la 54ª ronda, el ganador del concurso obtuvo 0,690467 al estimar sobre los nuevos datos ocultos a los participantes, este es el resultado al que debemos aspirar.


La regresión NS produce esto en la muestra de entrenamiento, también es una muestra de prueba, no estoy seguro de cómo interpretarlo correctamente, pero también me parece mal ) Es decir, la red neuronal simple estándar no ofrece ninguna ventaja en la regresión sobre la clasificación, ni tampoco sobre otros métodos de clasificación. Y hay entradas y salidas normalizadas, la regresión no tiene sentido para mí en este caso...


 

Selección de literatura en un campo competitivo


5087 documentos coincidieron con la búsqueda de GARCH, GJR-GARCH, EGARCH, en títulos y palabras clave.


Se supone que los modelos GARCH son inteligentes, todo se modela de forma transparente:

1. La serie original se convierte en incrementos como log(Xi/ Xi-1).

2. La media se modela con el modelo ARIMA

3. se modelan los matices de la dispersión en el sentido de la asimetría y la curtosis (colas gruesas), etc.

4. Se modela la propia distribución. Normalmente se toma una distribución t sesgada o una distribución GED sesgada.


Al considerar la negociación en las bolsas, se introducen modelos con modos de conmutación, que tienen en cuenta los cambios de los parámetros del modelo, o los diferenciales.


En los artículos suele haber código listo en R.

 
SanSanych Fomenko:

Selección de literatura en un campo competitivo


5087 documentos coincidieron con la búsqueda de GARCH, GJR-GARCH, EGARCH, en títulos y palabras clave.


Se supone que los modelos GARCH son inteligentes, todo se modela de forma transparente:

1. La serie original se convierte en incrementos como log(Xi/ Xi-1).

2. La media se modela con el modelo ARIMA

3. se modelan los matices de la dispersión en el sentido de la asimetría y la curtosis (colas gruesas), etc.

4. Se modela la propia distribución. Normalmente se toma una distribución t sesgada o una distribución GED sesgada.


Al considerar la negociación en las bolsas, se introducen modelos con modos de conmutación, que tienen en cuenta los cambios de los parámetros del modelo, o los diferenciales.


En los artículos suele haber código listo en R.


¿Y qué pasa con el hecho de que los incrementos no indican tendencias de ninguna manera? Mi modelo también utiliza los gradientes para la precisión a corto plazo, pero también observo los ratios de tendencia de una manera inteligente

Ah, bueno, puedes mirar los incrementos en diferentes muestras de tiempo. ¿Has probado a entrenar ns de vuelta de diferentes TFs?

 
Maxim Dmitrievsky:



¿Y qué pasa con el hecho de que los incrementos no indican de ninguna manera las tendencias?

Sí, lo hacen.

El modelo predice el incremento o la dirección, para eso están los modelos de clasificación.

No conozco ningún modelo de clasificación que reconozca los movimientos en las noticias. Y en el caso de GARCH, este es el objetivo del modelo: calcular el movimiento ocurrido. Colas gordas: se trata del movimiento en las noticias cuando se rompen las tendencias y se producen retrocesos bruscos.


Puede observar el aumento en diferentes plazos.

Hay modelos GARCH interesantes para varios marcos temporales. El significado es el siguiente.

Supongamos que predecimos el incremento en H1. El modelo requiere datos de entrada que caractericen la distribución. Como datos de entrada (normalmente la volatilidad) no tomamos la hora anterior sino los minutos de la hora actual.

 
Dr. Trader:

Numerai ha cambiado las reglas un par de veces este año.

Solía ser sencillo y bueno: entrenar un modelo en una tabla de entrenamiento, comprobar el error en la tabla de prueba, enviarles predicciones, ellos las extrapolan a su tabla de prueba oculta, cuentan el error en ella. Quien tenga menos errores en la tabla oculta, gana. Fue muy bueno y correcto que el error en el conjunto de datos de prueba coincidiera realmente con el de su conjunto de datos ocultos, para poder comprobar su modelo.

Entonces cambiaron algo, y el error en el conjunto de datos de prueba dejó de correlacionarse con el error en su conjunto de datos de comprobación oculto. Todos los líderes de la parte superior desapareció, sólo la gente al azar que tuvo la suerte de conseguir su modelo en su mesa de control oculto ganar. Imho el fracaso por parte de numerai, una basura al azar y no un concurso.

Entonces vieron que toda la gente adecuada se escapaba de su concurso al azar, se dieron cuenta de su error y cambiaron algo. Ahora las predicciones se evalúan según varios criterios. Lo que más me jode es el criterio de "singularidad", si alguien ha enviado resultados similares antes, el tuyo será rechazado como plagio. Es decir, si varias personas utilizan el mismo marco para crear un modelo, el que se haya levantado antes y haya enviado una predicción se llevará el dinero.
La precisión del modelo es ahora completamente inútil a la hora de calcular los beneficios. Puedes obtener el error 0, estar en el 1er lugar del top y no ganar nada, porque el top muestra el resultado sobre los datos de prueba que se dan a descargar, el top ya no muestra el resultado de su tabla de validación oculta.
La actual iteración de su concurso es, en mi opinión, un disparate, no hay transparencia, todo está desordenado. A la espera de que vuelvan a cambiar algo en el concurso, espero que vuelva a ser adecuado.

¿Cuánto dinero real ganaste con este sitio antes de que cambiaran las reglas?
 

 
Dr. Trader:

Más bien una especie de servicio de reembolso )) No es como pagar a un científico de datos

 

Cada semana, los ganadores del top 100 reciben un total de 3.600 dólares, pero los premios disminuyen en volumen de forma muy brusca. El primer lugar recibe 1000 dólares, luego 435 dólares, luego 257 dólares, etc. Incluso si consigues el décimo puesto (suele haber más de 500 participantes), te llevas unos míseros 63 dólares. Te están acosando.

Veo este concurso más como una forma de comparar mi modelo con los líderes y aprender diferentes enfoques de datamining que como una forma de ganar dinero.

 

Quería saber cómo se relaciona la puntuación de la tabla de clasificación (val logloss, vertical) con la puntuación que obtuvo el modelo en los nuevos datos (live logloss, horizontal). (55ª ronda)

Bien hecho sólo los del rectángulo inferior izquierdo. El resto, aunque llegaron a la tabla de clasificación, perdieron con los nuevos datos. Las mejores pérdidas logarítmicas de la tabla de clasificación (los dos puntos inferiores de la derecha) fueron las peores en los nuevos datos.

Gana el que tiene el punto más a la izquierda del gráfico, y parece un valor atípico aleatorio más que un aprendizaje automático intencionado.

Curiosamente, con una pérdida logarítmica de 0,690 - 0,691 en los datos de validación, casi todos mostraron buenos resultados también en los nuevos datos, no tengo ni idea de qué tiene que ver eso.