Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2537

 
Aleksey Vyazmikin #:

¿Qué pasa si el objetivo no se fija al azar?

¿Cómo? ¿Duplicando una de las entradas a la salida? Aprenderá bien. Creo que incluso lo he probado.

Aleksey Vyazmikin #:

Acabo de hacer un experimento: mi muestra suele estar dividida en 3 partes, así que la tomé, la combiné en una sola muestra y entrené un modelo de 100 árboles, luego vi qué predictores no se usaban y los bloqueé. Luego entrené el modelo como de costumbre con una parada en el sobreentrenamiento en la segunda muestra, y comparé los resultados en la tercera muestra con la variante cuando entreno sin excluir predictores. Resultó que los resultados eran mejores en los predictores seleccionados, y aquí me parece difícil concluir que este efecto piense que "la selección de los diferentes predictores se produce por la diferencia de las muestras en el intervalo, al entrenar sobre toda la muestra seleccionamos automáticamente los predictores que no pierden su significación con el tiempo".

Sí, ha seleccionado algo que tendrá un impacto en el futuro. Incluso puede haber tenido poca influencia en el pasado, pero por su buena influencia en el futuro se seleccionó la media de toda la muestra.

Aleksey Vyazmikin #:

Sin embargo, ¿significa esto que cuanto mayor sea la muestra, más robusto será el modelo en un horizonte más largo? ¿Se pueden seleccionar los predictores para el aprendizaje de esta manera, es decir, no se fomenta el sobreaprendizaje?

Como se dice, el mercado está cambiando. Llegan nuevos jugadores, crean nuevos robots y desactivan los antiguos, etc. Creo que en una muestra muy grande el modelo llegará a un resultado medio para todos esos cambios, posiblemente cero. Creo que hay que ajustar la profundidad del entrenamiento a la máxima eficiencia y volver a entrenar regularmente. Yo mismo estoy experimentando con el mismo período (por ejemplo, prueba de 2 años, reentrenamiento los sábados, tamaño de los datos probado desde unos pocos días hasta un año o dos).
En teoría, sería mejor definir automáticamente el tamaño de la muestra de entrenamiento para cada reentrenamiento. Pero hasta ahora no sé cómo.

Aleksey Vyazmikin #:
Generalmente escuché una recomendación de los fundadores de CatBoost que decía que debía encontrar los hiperparámetros del modelo y luego entrenar estúpidamente todas las muestras disponibles para usar el modelo en el trabajo.

Los creadores no aconsejarán mal) recojo los hiperparámetros en el Walking-Forward (VF), ya que la consistencia de los datos se mantendrá y aquí sólo se puede recoger la profundidad de la historia para el aprendizaje, por la degradación de la influencia de los datos antiguos. También puede utilizar la validación cruzada (CV), si los datos no cambian con el tiempo, pero no se trata de mercados.
Después de la selección, por supuesto, debemos aprender hasta el momento presente y utilizar el modelo para el tiempo que tenía en el TP o TP delantero.
Al entrenar en el mismo gráfico que el de la prueba, estás ajustando el modelo y los hiperparámetros a esa 1 prueba. Y entrenando 10-50 veces en KV o VF - se encuentran los mejores hiperparámetros para un gran tramo de la historia.
Tal vez sea mejor, o tal vez soy demasiado perezoso para recoger los hiperparámetros una vez a la semana)) Así que lo que es realmente mejor - la práctica lo demostrará.

 
elibrarius #:
En teoría, sería mejor determinar automáticamente el tamaño de la muestra de entrenamiento para cada reentrenamiento. Pero hasta ahora no sé cómo

PARA DETERMINAR LA MEDIA

si se desconoce el tamaño de la primicia genérica, considere el tamaño de la remuestra

n=(t^2*sigma^2)/delta_y^2

- para el muestreo aleatorio (para las muestras estratificadas y en serie la fórmula se complica un poco más)

es decir, tenemos que determinar la probabilidad de confianza requerida P y su correspondiente coeficiente de fiabilidad t=2 para un nivel de confianza del 95%... un margen de error máximo admisible (el experto en la rama debe conocerlo él mismo, si es un comerciante) en el divisor... y la varianza (sigma) que es desconocida, pero que puede conocerse a partir de observaciones anteriores...

En general, eso es lo que escribí mis dudas, cuando estaba hablando de la ventana flotante [en principio se puede decir "tamaño de la muestra"] y t-estadística para definir una tendencia plana y la probabilidad de "donde estamos" - para construir en rechazar RS o absorber RS...

Por supuesto, siempre que su característica tenga una distribución normal, y sea el principal factor que influye en el resultado (puede que ya haya definido su dy/dx->min)... no es un modelo multifactorial (supongo que en este caso se puede tomar el valor máximo de los calculados... imho)

PARA DETERMINAR LA PARTE DEL RASGO

de la misma manera, pero en lugar de los valores de error y varianza de la media, utilice el error marginal de la cuota (delta_w) y la varianza de un atributo alternativo w(1-w)

si la frecuencia (w) no se conoce ni siquiera aproximadamente, el cálculo tiene en cuenta el valor máximo de la varianza de la cuota, 0,5(1-0,5)=0,25

cboe para las opciones en la estimación de la asimetría incluyen minutos a la fecha de vencimiento de los dos K_opt más cercanos (como indicaciones alternativas)...

o cualquier otro signo para el gusto y el color (si no hay opciones)

p.d. más o menos como aquí

p.p.s. es así por lógica, y cómo implementar el cálculo de la adecuación de la muestra en la construcción del modelo con una población genética desconocida es una cuestión de disponibilidad de datos brutos y de lógica... pero 2 años me parece un rango normal para la población... imho

Определение объема выборки
Определение объема выборки
  • 2013.08.16
  • baguzin.ru
Ранее мы рассмотрели методы построения доверительного интервала для математического ожидания генеральной совокупности. В каждом из рассмотренных случаев мы заранее фиксировали объем выборки, не учитывая ширину доверительного интервала. В реальных задачах определить объем выборки довольно сложно. Это зависит от наличия финансовых ресурсов...
 
JeeyCi #:

PARA DETERMINAR LA MEDIA

Si se desconoce el tamaño de la primicia genérica, se considera el volumen de remuestreo para una muestra aleatoria (para las muestras estratificadas y seriadas, la fórmula se complica ligeramente)

n=(t^2*sigma^2)/delta_y^2

es decir, es necesario definir una probabilidad de confianza requerida P y un coeficiente de confianza pertinente t=2 para un nivel de confianza del 95%... un margen de error máximo admisible (el propio experto del sector debería conocerlo, si es un comerciante) en el divisor... y la varianza (sigma) que es desconocida, pero que puede conocerse a partir de observaciones anteriores...

En general, eso es lo que escribí mis dudas, cuando hablaba de ventana flotante [en principio, se podría decir "tamaño de la muestra"] y t-estadística para definir una tendencia plana y la probabilidad de "donde estamos" - para construir en rechazar RS o absorber RS...

Por supuesto, siempre que su característica tenga una distribución normal, y sea el principal factor que influye en el resultado (puede que ya haya definido su dy/dx->min)... no es un modelo multifactorial (supongo que en este caso se puede tomar el valor máximo de los calculados... imho)

PARA DETERMINAR LA PARTE DEL RASGO

lo mismo, pero en lugar de los valores de error y varianza de la media, utilice el error marginal de la cuota (delta_w) y la varianza del rasgo alternativo w(1-w)

cboe for options, en la estimación de la asimetría, pone los minutos a la fecha de vencimiento de los 2 K_opt más cercanos (como atributos alternativos)...

o cualquier otro signo para el gusto y el color (si no se opta)

p.d. más o menos como aquí

p.p.s. es así por lógica, y cómo implementar el cálculo de la adecuación de la muestra en la construcción del modelo con una población genética desconocida es una cuestión de disponibilidad de datos brutos y de lógica... pero 2 años me parece un rango normal para la población... imho

Para la determinación de la media:
(Alto+Bajo)/2
 
Vladimir Baskakov #:
para la definición de la media:
(Alto+Bajo)/2

No quiero molestarte, pero la "media", (alta+baja)/2, estrictamente hablando no puede llamarse así, hay nombres más académicos para ello. El tiempo de los eventos es desconocido e irregular y no se sabe.

 
Maxim Kuznetsov #:

No quiero molestarte, pero "media", (alta+baja)/2, estrictamente hablando no puede llamarse así, hay nombres más académicos para esas cosas. El momento en que se producen los hechos es desconocido e irregular y no se sabe.

Creo que este es el más promedio de los promedios.
 
Maxim Kuznetsov #:

El calendario de eventos es desconocido y desigual e irregular.

En efecto, por costumbre, pierdo de vista los "acontecimientos" mientras considero los "signos"... - Sigo olvidando... ¡gracias por recordarme la palabra...! - ahí es donde entra el teorema de Bayes, a juzgar por la lógica, así que supongo que

 
Tal vez sea una tontería, pero no me gusta usar otra cosa que no sea cerca. Cuando tengo una serie de observaciones (perdón) de cerca, siempre sé que hay un periodo de tiempo fijo entre las observaciones (siempre es el mismo, estable y conocido por mí). Pero cuando se utiliza la baja / alta y diferentes cálculos con ellos, encuentro..... un período de tiempo aleatorio entre las observaciones, que es siempre diferente, de una observación a otra.
 
LenaTrap #:
Tal vez sea una tontería, pero no me gusta usar otra cosa que no sea cerrar. Cuando tengo una serie de observaciones (perdón) de cerca, siempre sé que hay un periodo de tiempo fijo entre las observaciones (siempre es el mismo, estable y conocido por mí). Pero cuando se utiliza la baja / alta y diferentes cálculos con ellos, encuentro..... un período de tiempo al azar entre las observaciones, que es siempre diferente, de una observación a otra .

sobre la aleatoriedad y siempre diferente es por supuesto machanuto...en realidad ese es todo el propósito de estudiar todo este barullo - determinar alto/bajo con más o menos precisión en tiempo y precio :-)

 
LenaTrap #:
Tal vez sea una tontería, pero no me gusta usar otra cosa que no sea cerrar. Cuando tengo una serie de observaciones (perdón) de cerca, siempre sé que hay un periodo de tiempo fijo entre las observaciones (siempre es el mismo, estable y conocido por mí). Pero cuando se utiliza la baja / alta y diferentes cálculos con ellos, encuentro..... un período de tiempo al azar entre las observaciones, que es siempre diferente, de una observación a otra.

Si se aplica estrictamente de forma matemática, es necesario utilizar Open, porque sólo para él el momento de su recepción de ticks es markoviano - se define de forma única como una apertura (bajo el supuesto de horas ideales y ausencia de cotizaciones perdidas). El cierre en el momento de su recepción no puede definirse de forma inequívoca como cierre hasta el final de la sección temporal.

Pero es más común trabajar con un cierre. Probablemente, es lo mismo que en los días en que se trabajaba con cotizaciones diarias.

 
Aleksey Nikolayev #:

Si el planteamiento matemático es estricto, se debe utilizar Open, porque sólo para él el momento de su llegada es markoviano - se define inequívocamente como una apertura

técnicamente, el cierre es el único precio con tiempo fiable, es decir, en el momento del cambio de una barra por otra, el precio es exactamente igual al cierre.

Si este primer tick se produce 10 minutos después del cambio de barra, significa que el precio de apertura será en este momento.