Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2591
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Sí, en consecuencia es posible probarlo y optimizarlo como un bot habitual en MT5, para buscar parámetros externos. Se comprueba rápidamente en las barras, pero puede haber lentitud en las garrapatas porque los árboles se evalúan durante mucho tiempo por sí mismos.
Pues bien, después de añadir ML uno no quiere optimizar nada más. El viento del sobreajuste sopla desde ese lado). Aunque si las velocidades son normales, al menos puedes probarlo con seguridad. En general, sí, debido a no la mejor velocidad de integración que he prestado poca atención a comerciante add-on sobre ML, si tan integrado y en probador condicionalmente-nativo es posible probar y velocidades normales, sin duda abre horizontes adicionales de posibilidades.
Y en general, una mayor velocidad (en relación con mi solución, creo que habrá una diferencia normal de velocidad) siempre es buena, tanto cuando hay muchos robots como cuando los plazos son pequeños y la velocidad es más crítica.
¿En el espacio de parámetros del modelo? Tiene una enorme dimensionalidad. Esto sólo es posible para modelos muy sencillos con un número reducido de predictores.
No está muy claro cómo es posible construir una superficie en un espacio de enorme dimensionalidad. Simplemente tenemos muy pocos puntos en comparación con esta dimensionalidad. A no ser que sea por alguna visualización de reducción dimensional como PCA, etc., pero el punto no está claro.
Todo está mezclado.
¿De qué parámetros del modelo estamos hablando?
Si el modelo es algo de MO, es una cosa, si el modelo es un EA en un probador, es otra muy distinta.
Los modelos que se optimizan en el probador no suelen tener nada que ver. Por ejemplo, cogemos un demoledor y empezamos a elegir un periodo y obtenemos una serie de resultados. Si hay muchos de estos "magos" con sus propios parámetros, no obtendremos superficies suaves como resultado, sino que escogeremos picos aleatorios que pueden coincidir en el futuro. ¿Por qué? Para mí la respuesta es obvia: los parámetros de estos "paños" NO son relevantes para el rendimiento del modelo, es sólo ruido.
Otra cosa es que si los parámetros del modelo en MO son un conjunto de predictores, entonces el problema se puede plantear de forma significativa: ¿el predictor/no predictor se relaciona con el RESULTADO de la simulación o no? Si es así, ¿qué tiene que ver con el RESULTADO de la modelización? La situación es similar cuando elegimos modelos: RF, neuronc o algo más .....
Está todo mezclado en un montón.
¿De qué parámetros del modelo estamos hablando?
Si el modelo es algo de MO, es una cosa, si el modelo es un EA en el probador, es otra muy distinta.
Los modelos que se optimizan en el probador no suelen tener nada que ver. Por ejemplo, cogemos un demoledor y empezamos a elegir un periodo y obtenemos una serie de resultados. Si hay muchos de estos "magos" con sus propios parámetros, no obtendremos superficies suaves como resultado, sino que escogeremos picos aleatorios que pueden coincidir en el futuro. ¿Por qué? Para mí la respuesta es obvia: los parámetros de estos "paños" NO son relevantes para el rendimiento del modelo, es sólo ruido.
Otra cosa es que si los parámetros del modelo en MO son un conjunto de predictores, entonces el problema se puede plantear de forma significativa: ¿el predictor/no predictor se relaciona con el RESULTADO de la simulación o no? Si lo hace, qué es. La situación es similar si elegimos modelos: RF, neuronales o algo más .....
Efectivamente, todo suma. Los parámetros son parámetros, los predictores son predictores. En su ejemplo con las variables ficticias: los parámetros son sus períodos y los predictores son los valores de esas variables ficticias. Para una o dos bolas no es difícil construir la superficie requerida, pero para cientos de bolas el sentido ya se pierde por completo debido a la creciente dimensionalidad de los espacios de predicción y de los parámetros.
No veo una diferencia fundamental entre los modelos en el probador y en los paquetes de MO; la diferencia es sólo técnica (capacidades del software utilizado).
Efectivamente, está todo en un montón. Los parámetros son parámetros, los predictores son predictores. En su ejemplo de las variables ficticias: los parámetros son sus períodos, y los predictores son los valores de esas variables ficticias. Para una o dos bolas no es difícil construir la superficie requerida, pero para cientos de bolas el sentido ya se pierde por completo debido a la creciente dimensionalidad de los espacios de predicción y de los parámetros.
No veo una diferencia fundamental entre los modelos en el probador y en los paquetes de MO; la diferencia es sólo técnica (capacidades del software utilizado).
No me gusta interferir, pero sólo una observación sobre los cientos u otros MA ... hay un límite a su número razonable y no es más de 1,386*ln(N) (donde N es toda la historia observada)
El análisis de superficies de optimización es también un arma de doble filo. Y llegar a una meseta no garantiza nada, aunque da ánimos temporales hasta el momento de darse cuenta de que es hora de ir a la fábrica.
Divine criticism
Intentando :)
Me gustaría entender la diferencia entre una "meseta" y un mínimo global