Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 472

 
Maxim Dmitrievsky:


en otras palabras, no todo en mt5 ha sido probado todavía :)

No lo entiendo. ( ¿Por qué intentar algo que ya está en MT?

Si hay un concepto de CT, recogemos un kit de herramientas. Si lo hay en la MT y se relaciona bien con el resto del sistema, lo utilizamos. Interactúa mal - usamos el software externo.

No es para nada razzo enviar información de un lado a otro sólo para usar la funcionalidad existente de MT.

 
Yuriy Asaulenko:

No lo entiendo. ( ¿Por qué intentar algo que ya está en MT?

Si hay un concepto de CT, recogemos un conjunto de herramientas. Si lo hay en la MT y se relaciona bien con el resto del sistema, lo utilizamos. Interactúa mal - usamos el software externo.

No es bueno enviar información de un lado a otro sólo para utilizar la funcionalidad existente de MT.

Así que nunca hay un concepto listo para usar desde el principio, todo es un capricho, cuantas más herramientas mejor
 
Maxim Dmitrievsky:
Así que nunca hay un concepto preparado desde el principio, todo es por instinto, cuantas más herramientas mejor.

Empiezo con un concepto, lo elaboro en algún software (Excel, SciLab, MatLab, R - a veces todo junto). Ahí lo pruebo con mi probador (no he notado ninguna diferencia significativa con el software real). Luego transfiero una parte al terminal, y el resto a C++/C# y conecto bibliotecas externas.

Mis primeros sistemas (desde 2008) fueron creados con VBA-Excel y cooperaron con el terminal muy bien. No hay problemas de rendimiento, incluso con la lentitud de VBA. En general, un retraso de 50 ms no es un buen tiempo ni siquiera para trabajar dentro de la TF de 1m.

 
Es más fácil apuntarse a una señal inteligente, pero ¿quién la necesita? ¡¡¡¡En general....!!!!
 
Maxim Dmitrievsky:

Por cierto, recuerda que en tu artículo sobre la secuenciación sugerías contar varias señales seguidas, flipar ahí... superposición de señales

Se me ha ocurrido una solución interesante para implementar algo así a través de la lógica difusa e incorporarla al proceso de aprendizaje... Ya publicaré algo más adelante :)


Sí, sí, eso es sólo de ese artículo ..... Tal vez no se explicó claramente allí, pero nadie anuló el hecho de la separación.

Hay que ver claramente la división en buenos y malos, si el modelo va perdiendo o ganando constantemente, ya es un indicador, lo principal es la estabilidad de la división, no su corrección, sino la estabilidad de la división.....

 

SanSanych.

Consulta el interesante debate sobre el "overfittinga".

Buena suerte

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
Vladimir Perervenko:

SanSanych.

Consulta el interesante debate sobre el "overfittinga".

Buena suerte


Todo lo que escribo aquí y utilizo en mi práctica es algún tipo de truco para reducir de alguna manera el impacto del problema de la cognición básica, que aquí se llama overfitting, sobreentrenamiento.


El problema del sobreajuste del modelo NO está resuelto en principio, no está resuelto teóricamente y esto se sabe desde hace mucho tiempo. Un modelo es siempre una aproximación, una aproximación a la realidad, al mundo exterior. Por lo tanto, un modelo refleja SIEMPRE un objeto con algún error. Esta es la fuerza y la debilidad de cualquier modelo. De ello se deduce que es imposible crear un modelo sin estudiar a fondo el objeto a modelar.


Si tomamos una cita.

¿Qué estamos modelando?

Si se trata de un bosque aleatorio, estamos automatizando la búsqueda de patrones.

Si es GARCH, entonces modelamos las características estadísticas de una cotización.

Siempre habrá un error al hacerlo. Y he sugerido aquí algún tipo de heurística para que este error NO cambie en trozos sucesivos de la serie temporal. Si el modelo da literalmente un error diferente en el siguiente trozo, entonces está sobreentrenado (sobreajustado) y en principio no puede utilizarse.

En el caso de los bosques aleatorios he comprobado que si se eliminan los predictores ruidosos, según tengo entendido, el modelo entrenado da el mismo error mucho más tiempo que con los predictores ruidosos. Pero no conozco soluciones que creen un modelo para todos los tiempos, y no lo necesito. Me parece bien que se vuelva a entrenar el modelo con la salida de los últimos datos. Pero el entrenamiento debe comenzar con la comprobación de los predictores de ruido: su conjunto cambia con el tiempo. Es decir, no sólo cambia el modelo en sí, sino también el conjunto de datos de entrada. Estaba haciendo recorridos de ventanas a lo largo de series temporales, por lo que de mis 25 predictores hay un muestreo constante de 10-15 predictores y la composición de este grupo cambia, es decir, algo cambia a ruido y luego vuelve. El error es muy estable y oscila entre el 23% y el 27% = siempre menos del 30%. Si el error es inferior al 20% en mis predictores, no utilizo este modelo y espero.


PS.

Por lo que he dicho puedes ver la razón por la que no me interesan otros modelos.

 
SanSanych Fomenko:

Todo lo que escribo aquí y utilizo en mi práctica es algún tipo de técnica para reducir de alguna manera el impacto del problema básico de la cognición, que aquí se llama sobreajuste, sobreaprendizaje.


La posición es clara.

Buena suerte.

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
Como teoría es interesante. Pero, en la práctica, ¿cómo se utiliza? ¿Hay algún software disponible en alguna parte?