Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1114
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Bueno, ya sabes... También utilizo la curva para decidir qué modelo utilizar. De qué sirve un modelo si hizo el 90% de las operaciones rentables y perdió terriblemente en los momentos clave. El tipo de curva de equilibrio sí importa. Por supuesto, no será suficiente, pero aún así tendré alguna idea.
¿Cuántos datos necesita para la formación? ????
Si hay una correlación, el motor la encontrará.
Nunca hay suficientes datos: cuantos más mejor.
era el décimo año de dominio del Optimizador...
pero la gente feliz no mira el reloj))) divertidísimo...
Realmente vamos a razonar con él....
Todas las métricas actuales indican la calidad actual del entrenamiento y no dicen nada sobre el rendimiento futuro del modelo. Es decir, obtener un gran resultado con la mejor métrica no garantiza resultados de calidad en el futuro. Por eso creo firmemente que, además del periodo de formación y validación, debe haber un periodo de prueba para evaluar el rendimiento del modelo y decidir si es adecuado o no. Si lo miras a través del porcentaje, entonces la muestra inspiradora debería consistir en entrenamiento/validación/control como 45/45/10% respectivamente IMHO, eso es lo que quiero ver en el optimizador. Así que después de la adquisición del modelo, cuando el aprendizaje va con la mirada al sector de prueba, se probó y si la evaluación fue satisfactoria, entonces el aprendizaje se detuvo con la posibilidad de guardar el modelo y si el control falló, entonces comenzamos el entrenamiento de nuevo y repetir hasta que el resultado deseado se obtuvo en el sector de prueba o después de un cierto número de iteraciones de entrenamiento. Esto es lo que hay que hacer ahora.
Tenemos que ejecutar el modelo en una comprobación y, si la comprobación falla, empezar el entrenamiento de nuevo, y así 10 veces. El problema es que la parcela de comprobación se come un precioso periodo de operatividad del modelo, que empieza a desaparecer justo después del periodo de aprendizaje en el OOS. Y he inventado una variante, que le conté a Doc hace un tiempo, un par de meses, y básicamente la encontró bastante lógica. Por alguna razón no lo estoy usando ahora, así que me gustaría compartirlo con vosotros si no os importa....
Pon los datos con el objetivo, si hay alguna correlación, la máquina la encontrará.
Nunca hay suficientes datos: cuantos más, mejor.
De acuerdo. Digamos que no es mucho. Puedo hacer una subida gigante, pero para hacer MT será largo y me temo que se congelará, así que intenta entrenarlo con lo que tienes. Haré el preprocesamiento yo mismo y publicaré el conjunto de datos ya preprocesado. ¿ok?
El optimizador está escrito en Java. No crees que sea posible implementar métricas tan complejas como quieres???? por favor....
Creo que me diste tus datos y de ellos concluí que tus predictores no tienen nada que ver con el objetivo.
¿O me equivoco?
¿Puedo empezar por demostrar que sus predictores son relevantes para el objetivo?
Pon los datos con el objetivo, si hay alguna correlación, la máquina la encontrará.
Nunca hay suficientes datos: cuantos más mejor.
Tú mismo lo divides en formación y oos. En la formación puedes hacer lo que quieras con una Q. Deberías decirnos qué hiciste por interés. No es necesario contar cómo y con qué lo hiciste, por supuesto.
Y publicaré el conjunto de datos preprocesados, ¿de acuerdo?
No, no está bien, crudo + preprocesado.
Creo que me diste tus datos y de ellos concluí que tus predictores no tenían nada que ver con el objetivo.
¿O me equivoco?
¿Puedo empezar por demostrar que sus predictores son relevantes para el objetivo?
Todo ello es cierto, pero desde entonces he realizado una serie de cambios clave que han aumentado la cantidad de datos significativos. Sobre todo porque estaba descontando el conjunto completo, y ahora tras el preprocesamiento el número de entradas se reduce y sólo quedan las significativas. Puedes intentar de nuevo evaluar.... ¡¡¡si está interesado!!!
No, no está bien, crudo + preprocesado.
No importa, que demuestre primero que NO tiene ruido.
estaba en su décimo año de aprendizaje de Optimizer...
pero la gente feliz nunca ve el relojAsí que soy un programador de mierda, ¿qué quieres? He estudiado el eclipse durante medio año sólo para arreglar las ventanas cómodamente. No tengo ayudantes, ..... este foro está plagado de programadores, así que todo es muy lento :-(