Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1228
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
entonces habrá pocos ejemplos y sobre los nuevos datos ns volverá ciega perdida, necesita "ver" lo más posible de su vida
como opción ....
1) Crear el "comercio ideal" con las operaciones marcadas, comercio+comisión, la opción más rentable que pueda haber... Obtendremos algo así como un zigzag con ofertas en máximos y mínimos...
2) Formar las acciones de este comercio ideal
3) Enseñar el modelo. El propósito del entrenamiento - lograr la máxima correlación (acciones comerciales del modelo + comisión) con (acciones idealizadas), esa calidad del modelo puede ser expresada por un numérico, kf correlación
De este modo, el modelo podrá ajustarse a los datos de la forma más suave y precisa posible
Y, por supuesto, no debemos olvidar el OOS en la formación
ps. Todo lo que he escrito es pura teoría.
como opción ....
1) Crea una "operación ideal" con operaciones marcadas, operación+comisión, la opción más rentable que puedas tener... Será como un zigzag con operaciones en máximos y mínimos...
2) Formar las acciones de este comercio ideal
3) Enseñar el modelo. El propósito de la formación - para lograr la máxima correlación (acciones de comercio del modelo + comisión) con (acciones idealizadas), los de calidad del modelo puede ser expresado por un numérico, kf correlación
De este modo, el modelo podrá ajustarse a los datos de la forma más suave y precisa posible
Y, por supuesto, no debemos olvidar el OOS en la formación
ps. Todo lo que he escrito es pura teoría.
Esencialmente se hace así, pero se puede variar el grado de "equidad ideal", porque cuanto más ideal sea, más sobreentrenamiento
error en la bandeja: 0, en la oos: 0,4.
Una operación "ideal", incluyendo OOS (dentro), muestra operaciones perdedoras de sólo el 15%, que corresponde a la cantidad de OOS (aquí - 20%). No es difícil adivinar lo que ocurrirá con los nuevos datos
Esto es esencialmente lo que se hace, pero se puede variar el grado de "equidad perfecta", porque cuanto más perfecta sea, más sobreentrenamiento
error en la bandeja: 0, en el AOS: 0,4.
Una operación "ideal", incluyendo OOS (dentro), muestra operaciones perdedoras de sólo el 15%, que corresponde a la cantidad de OOS (aquí - 20%). No es difícil adivinar lo que ocurrirá con los nuevos datos
el problema está en la modificabilidad de las propiedades del predictor probablemente, no veo otras variantes (
entonces el problema es la variabilidad de las propiedades del predictor probablemente, no veo ninguna otra opción(
variabilidad con respecto a los objetivos
Quería demostrar con esto que entrenar entradas "perfectas" es un enfoque torcido, además de asignar a todas las salidas las mismas probabilidades
variabilidad en relación con el objetivo
Quería mostrar que entrenar entradas "ideales" es un enfoque torcido, especialmente para asignar a todas las salidas las mismas probabilidades
El principio de oos parece estar bien...
¿Has probado a reentrenar cada n barras?
El principio de los oos parece estar bien...
No se trata de volver a entrenar completamente cada n bares
es sólo un ejemplo, hay formas de suavizar la diferencia, no muy eficientes, pero hay
Lo que buscas no es el principio )) ya he guardado capturas de pantalla donde es casi lo mismo desde la parte delantera y trasera
interesado en el tema de estudio que he descrito antes. pero como nadie no lo hizo yo mismo lo haré
Esto es solo un ejemplo, hay formas de suavizar la diferencia, no son muy efectivas pero las hay
Lo que buscas no es el principio )) ya lanzó capturas de pantalla donde aproximadamente el mismo frente y la espalda
estoyinteresado en investigar el tema que he descrito antes. pero como nadie lo ha hecho lo haré yo mismo
para mi será lo mismo que con la probabilidad de ganar/perder, puede que se aprenda algo pero con los nuevos datos será casi aleatorio
será lo mismo que la probabilidad de ganar/perder, puede aprender algo, pero en los nuevos datos será cercano al azar
Veamos, no puedo imaginar este proceso en mi mente
Ya veremos, no puedo imaginar este proceso en mi mente.
pero intentar con el reentrenamiento constante, es más prometedor imho
pero intentar con el reentrenamiento constante, es más prometedor imho
¿Crees que no lo he probado? El optimizador virtual está disponible desde hace tiempo en 2 variantes: reentrenamiento completo y corrección bayesiana.
Todo esto es una tontería, hasta que no lo pruebes no lo entenderás. Sólo funcionará cuando se resuelva el problema principal
porque lo he comprobado en todas las funciones de la matriz, la equidad está por las nubes en casi todas partes
redes neuronales x...ti, paradas tempranas, paradas tardías, fallos x...i, conjuntos x..., validaciones cruzadas