Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1228

 
Maxim Dmitrievsky:

entonces habrá pocos ejemplos y sobre los nuevos datos ns volverá ciega perdida, necesita "ver" lo más posible de su vida

como opción ....

1) Crear el "comercio ideal" con las operaciones marcadas, comercio+comisión, la opción más rentable que pueda haber... Obtendremos algo así como un zigzag con ofertas en máximos y mínimos...

2) Formar las acciones de este comercio ideal

3) Enseñar el modelo. El propósito del entrenamiento - lograr la máxima correlación (acciones comerciales del modelo + comisión) con (acciones idealizadas), esa calidad del modelo puede ser expresada por un numérico, kf correlación

De este modo, el modelo podrá ajustarse a los datos de la forma más suave y precisa posible

Y, por supuesto, no debemos olvidar el OOS en la formación

ps. Todo lo que he escrito es pura teoría.

 
mytarmailS:

como opción ....

1) Crea una "operación ideal" con operaciones marcadas, operación+comisión, la opción más rentable que puedas tener... Será como un zigzag con operaciones en máximos y mínimos...

2) Formar las acciones de este comercio ideal

3) Enseñar el modelo. El propósito de la formación - para lograr la máxima correlación (acciones de comercio del modelo + comisión) con (acciones idealizadas), los de calidad del modelo puede ser expresado por un numérico, kf correlación

De este modo, el modelo podrá ajustarse a los datos de la forma más suave y precisa posible

Y, por supuesto, no debemos olvidar el OOS en la formación

ps. Todo lo que he escrito es pura teoría.

Esencialmente se hace así, pero se puede variar el grado de "equidad ideal", porque cuanto más ideal sea, más sobreentrenamiento

error en la bandeja: 0, en la oos: 0,4.

Una operación "ideal", incluyendo OOS (dentro), muestra operaciones perdedoras de sólo el 15%, que corresponde a la cantidad de OOS (aquí - 20%). No es difícil adivinar lo que ocurrirá con los nuevos datos


 
Maxim Dmitrievsky:

Esto es esencialmente lo que se hace, pero se puede variar el grado de "equidad perfecta", porque cuanto más perfecta sea, más sobreentrenamiento

error en la bandeja: 0, en el AOS: 0,4.

Una operación "ideal", incluyendo OOS (dentro), muestra operaciones perdedoras de sólo el 15%, que corresponde a la cantidad de OOS (aquí - 20%). No es difícil adivinar lo que ocurrirá con los nuevos datos


el problema está en la modificabilidad de las propiedades del predictor probablemente, no veo otras variantes (

 
mytarmailS:

entonces el problema es la variabilidad de las propiedades del predictor probablemente, no veo ninguna otra opción(

variabilidad con respecto a los objetivos

Quería demostrar con esto que entrenar entradas "perfectas" es un enfoque torcido, además de asignar a todas las salidas las mismas probabilidades

 
Maxim Dmitrievsky:

variabilidad en relación con el objetivo

Quería mostrar que entrenar entradas "ideales" es un enfoque torcido, especialmente para asignar a todas las salidas las mismas probabilidades

El principio de oos parece estar bien...

¿Has probado a reentrenar cada n barras?

 
mytarmailS:

El principio de los oos parece estar bien...

No se trata de volver a entrenar completamente cada n bares

es sólo un ejemplo, hay formas de suavizar la diferencia, no muy eficientes, pero hay

Lo que buscas no es el principio )) ya he guardado capturas de pantalla donde es casi lo mismo desde la parte delantera y trasera

interesado en el tema de estudio que he descrito antes. pero como nadie no lo hizo yo mismo lo haré

 
Maxim Dmitrievsky:

Esto es solo un ejemplo, hay formas de suavizar la diferencia, no son muy efectivas pero las hay

Lo que buscas no es el principio )) ya lanzó capturas de pantalla donde aproximadamente el mismo frente y la espalda

estoyinteresado en investigar el tema que he descrito antes. pero como nadie lo ha hecho lo haré yo mismo

para mi será lo mismo que con la probabilidad de ganar/perder, puede que se aprenda algo pero con los nuevos datos será casi aleatorio

 
mytarmailS:

será lo mismo que la probabilidad de ganar/perder, puede aprender algo, pero en los nuevos datos será cercano al azar

Veamos, no puedo imaginar este proceso en mi mente

 
Maxim Dmitrievsky:

Ya veremos, no puedo imaginar este proceso en mi mente.

pero intentar con el reentrenamiento constante, es más prometedor imho

 
mytarmailS:

pero intentar con el reentrenamiento constante, es más prometedor imho

¿Crees que no lo he probado? El optimizador virtual está disponible desde hace tiempo en 2 variantes: reentrenamiento completo y corrección bayesiana.

Todo esto es una tontería, hasta que no lo pruebes no lo entenderás. Sólo funcionará cuando se resuelva el problema principal

porque lo he comprobado en todas las funciones de la matriz, la equidad está por las nubes en casi todas partes

redes neuronales x...ti, paradas tempranas, paradas tardías, fallos x...i, conjuntos x..., validaciones cruzadas