Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 31
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Yuri, la primera prueba con tus datos:
Dos conjuntos diferentes de valores de parámetros para el entrenamiento. Cabe destacar que el AUC está por debajo del plinto en la validación cruzada.
En general, una precisión del 51,5% en la prueba es lo mejor que ha resultado.
Ni siquiera sé cómo se puede evitar el 60%.
Deberíamos desechar ese conjunto de predictores.
Si estúpidamente tomamos todos los incrementos de paso y unos pocos osciladores más de 100 predictores con más de 5000 observaciones, es decir, H1, entonces de tal conjunto podemos elegir 10-15 predictores que no sólo darán menos del 40% de error de predicción, sino que lo más importante es que no darán un modelo REFERIDO.
Deberíamos desechar este conjunto de predictores.
Si estúpidamente tomamos incrementos de todo con unos pocos osciladores sobre 100 predictores con más de 5000 observaciones, es decir, H1, de tal conjunto podemos elegir 10-15 predictores que no sólo darán un error de predicción inferior al 40%, sino que lo más importante es que NO darán un modelo REPROBADO.
En general, nunca he tenido una precisión de clasificación superior al 51,5%. En consecuencia, el resto de las métricas también se acercarán a la adivinación aleatoria.
El equilibrio de las respuestas en la prueba es casi perfectamente 50/50.
Yuri, espero tus revelaciones.
En general, nunca he tenido una precisión de clasificación superior al 51,5%. En consecuencia, el resto de las métricas también se acercarán a la adivinación aleatoria.
Las respuestas equilibradas en la prueba son casi perfectamente 50/50.
Yuri, estoy esperando tus revelaciones.
No estoy ocultando nada. Para la versión antigua cuyos resultados ya he dado más arriba, toda la información está en acceso abierto:
Descripción del método de construcción del clasificador binario: https://sites.google.com/site/libvmr/
Código fuente Java con comentarios: https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
Construye: https://sourceforge.net/projects/libvmr/files/
Yuri, gracias.
Si el conjunto es linealmente separable, entonces el número de hiperplanos potenciales de separación es infinito. En tal caso, hay que encontrar algún criterio para identificar un hiperplano adecuado. Uno de estos criterios se ha formulado para el método de los vectores de referencia en el libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscú: Nauka, 1974. Más concretamente, en este libro se consideran muchos criterios diferentes.
Tanto SVM como VMR son métodos de vectores de referencia.
Se puede discutir durante mucho tiempo qué método es mejor o peor. Sin embargo, se puede tomar y comprobar la generalizabilidad y entonces todo encajará.
Si el conjunto es linealmente separable, entonces el número de hiperplanos potenciales de separación es infinito. En este caso es necesario encontrar algún criterio para identificar un hiperplano adecuado. Uno de estos criterios se ha formulado para el método de los vectores de referencia en el libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscú: Nauka, 1974. Más concretamente, en este libro se consideran muchos criterios diferentes.
Tanto SVM como VMR son métodos de vectores de referencia.
Se puede discutir durante mucho tiempo qué método es mejor o peor. Sin embargo, es posible tomar y comprobar la capacidad de generalización, y entonces todo se mantendrá en los lugares.
Los problemas deben resolverse a medida que llegan, y poner el carro (el modelo) delante del caballo (los predictores) es un ejercicio absolutamente inútil. Más aún si se comparan los carros, cuando no se sabe qué es lo que se enjaula en ellos y si se enjaula en absoluto.
Antes de aplicar cualquier tipo de modelos es necesario limpiar la lista de predictores del ruido, dejando sólo los predictores que son "relevantes" para la variable objetivo. Si no se hace esto, se puede caer fácilmente en la construcción de modelos basados en los anillos de Saturno, los posos del café y otros predictores que se han utilizado ampliamente en la práctica durante varios cientos de años.
ElDr. Trader ha intentado eliminar el ruido de su conjunto de predictores.
El resultado es negativo.
Creo que la razón del resultado negativo es el pequeño número de observaciones con un número muy grande de predictores. Pero esta es la dirección en la que hay que cavar antes de aplicar CUALQUIER modelo.
Si el conjunto es linealmente separable, entonces el número de hiperplanos potenciales de separación es infinito. En este caso es necesario encontrar algún criterio para identificar un hiperplano adecuado. Uno de estos criterios se ha formulado para el método de los vectores de referencia en el libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscú: Nauka, 1974. Más concretamente, en este libro se consideran muchos criterios diferentes.
Tanto SVM como VMR son métodos de vectores de referencia.
Se puede discutir durante mucho tiempo qué método es mejor o peor. Sin embargo, es posible tomar y comprobar la capacidad de generalización, y entonces todo se mantendrá en los lugares.
R tiene todo lo que necesitas. Véase fTrading::sharpeRatio.
Ah, y PerformanceAnalitics no estaría de más que le echaras un vistazo también.
Buena suerte