Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 472
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
en otras palabras, no todo en mt5 ha sido probado todavía :)
No lo entiendo. ( ¿Por qué intentar algo que ya está en MT?
Si hay un concepto de CT, recogemos un kit de herramientas. Si lo hay en la MT y se relaciona bien con el resto del sistema, lo utilizamos. Interactúa mal - usamos el software externo.
No es para nada razzo enviar información de un lado a otro sólo para usar la funcionalidad existente de MT.
No lo entiendo. ( ¿Por qué intentar algo que ya está en MT?
Si hay un concepto de CT, recogemos un conjunto de herramientas. Si lo hay en la MT y se relaciona bien con el resto del sistema, lo utilizamos. Interactúa mal - usamos el software externo.
No es bueno enviar información de un lado a otro sólo para utilizar la funcionalidad existente de MT.
Así que nunca hay un concepto preparado desde el principio, todo es por instinto, cuantas más herramientas mejor.
Empiezo con un concepto, lo elaboro en algún software (Excel, SciLab, MatLab, R - a veces todo junto). Ahí lo pruebo con mi probador (no he notado ninguna diferencia significativa con el software real). Luego transfiero una parte al terminal, y el resto a C++/C# y conecto bibliotecas externas.
Mis primeros sistemas (desde 2008) fueron creados con VBA-Excel y cooperaron con el terminal muy bien. No hay problemas de rendimiento, incluso con la lentitud de VBA. En general, un retraso de 50 ms no es un buen tiempo ni siquiera para trabajar dentro de la TF de 1m.
Por cierto, recuerda que en tu artículo sobre la secuenciación sugerías contar varias señales seguidas, flipar ahí... superposición de señales
Se me ha ocurrido una solución interesante para implementar algo así a través de la lógica difusa e incorporarla al proceso de aprendizaje... Ya publicaré algo más adelante :)
Sí, sí, eso es sólo de ese artículo ..... Tal vez no se explicó claramente allí, pero nadie anuló el hecho de la separación.
Hay que ver claramente la división en buenos y malos, si el modelo va perdiendo o ganando constantemente, ya es un indicador, lo principal es la estabilidad de la división, no su corrección, sino la estabilidad de la división.....
SanSanych.
Consulta el interesante debate sobre el "overfittinga".
Buena suerte
SanSanych.
Consulta el interesante debate sobre el "overfittinga".
Buena suerte
Todo lo que escribo aquí y utilizo en mi práctica es algún tipo de truco para reducir de alguna manera el impacto del problema de la cognición básica, que aquí se llama overfitting, sobreentrenamiento.
El problema del sobreajuste del modelo NO está resuelto en principio, no está resuelto teóricamente y esto se sabe desde hace mucho tiempo. Un modelo es siempre una aproximación, una aproximación a la realidad, al mundo exterior. Por lo tanto, un modelo refleja SIEMPRE un objeto con algún error. Esta es la fuerza y la debilidad de cualquier modelo. De ello se deduce que es imposible crear un modelo sin estudiar a fondo el objeto a modelar.
Si tomamos una cita.
¿Qué estamos modelando?
Si se trata de un bosque aleatorio, estamos automatizando la búsqueda de patrones.
Si es GARCH, entonces modelamos las características estadísticas de una cotización.
Siempre habrá un error al hacerlo. Y he sugerido aquí algún tipo de heurística para que este error NO cambie en trozos sucesivos de la serie temporal. Si el modelo da literalmente un error diferente en el siguiente trozo, entonces está sobreentrenado (sobreajustado) y en principio no puede utilizarse.
En el caso de los bosques aleatorios he comprobado que si se eliminan los predictores ruidosos, según tengo entendido, el modelo entrenado da el mismo error mucho más tiempo que con los predictores ruidosos. Pero no conozco soluciones que creen un modelo para todos los tiempos, y no lo necesito. Me parece bien que se vuelva a entrenar el modelo con la salida de los últimos datos. Pero el entrenamiento debe comenzar con la comprobación de los predictores de ruido: su conjunto cambia con el tiempo. Es decir, no sólo cambia el modelo en sí, sino también el conjunto de datos de entrada. Estaba haciendo recorridos de ventanas a lo largo de series temporales, por lo que de mis 25 predictores hay un muestreo constante de 10-15 predictores y la composición de este grupo cambia, es decir, algo cambia a ruido y luego vuelve. El error es muy estable y oscila entre el 23% y el 27% = siempre menos del 30%. Si el error es inferior al 20% en mis predictores, no utilizo este modelo y espero.
PS.
Por lo que he dicho puedes ver la razón por la que no me interesan otros modelos.
Todo lo que escribo aquí y utilizo en mi práctica es algún tipo de técnica para reducir de alguna manera el impacto del problema básico de la cognición, que aquí se llama sobreajuste, sobreaprendizaje.
La posición es clara.
Buena suerte.
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full