Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2842
![MQL5 - Lenguaje de estrategias comerciales para el terminal de cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
La palabra "optimización" tiene mala reputación en nuestro foro por razones obvias. Por lo tanto, es bastante comprensible que queramos mantenernos alejados de ella de alguna manera y que ni siquiera utilicemos la propia palabra. Sin embargo, cualquier entrenamiento de un modelo MO es casi siempre una optimización, así que no se pueden sacar palabras de una canción.
No quiero herir a nadie, dar lecciones de vida o explicar cómo hacer negocios) escribo sólo con la débil esperanza de que metaquotes tenga en cuenta mis observaciones a la hora de implementar MO en MT5.
Esto es correcto para los sistemas de control automático, pero absolutamente NO es correcto para los modelos que operan en los mercados financieros con procesos no estacionarios. Existe un mal, un mal absoluto, llamado "sobreentrenamiento". Este es el principal mal (después de la basura de entrada) que hace completamente inoperable absolutamente cualquier modelo. Un buen modelo debería ser siempre subóptimo, una especie de burbuja de la realidad. Creo que es el óptimo global el que contribuye especialmente al sobreentrenamiento del modelo.
Idea correcta para sistemas de control automático, pero absolutamente NO correcta para modelos que operan en mercados financieros con procesos NO estacionarios. Existe un mal, un mal absoluto, llamado "sobreentrenamiento". Este es el principal mal (después de la basura de entrada) que hace completamente inoperable absolutamente cualquier modelo. Un buen modelo debería ser siempre subóptimo, una especie de engrosamiento de la realidad. Creo que es el óptimo global el que contribuye especialmente al sobreentrenamiento del modelo.
Parece que se utilizan conceptos con contextos diferentes.
Por ejemplo, "meseta" es más bien una amplia gama de ajustes de la forma de obtener los factores externos que influyen en la lógica del modelo. Por ejemplo, una amplia gama de eficiencia de mashka sobre la base de los cuales se hace el predictor.
La optimización con algoritmos MO, de la que hablamos aquí, se ocupa de construir la lógica de decisión, mientras que la optimización en el probador de estrategias suele ocuparse de afinar los datos de entrada, mientras que la lógica de decisión ya está prescrita y, en el mejor de los casos, tiene variabilidad.
Los dos tipos de optimización son diferentes: uno modifica el espacio y el otro las relaciones en él.
Ahora me pregunto qué hay que afinar primero: signos/predictores o buscar un modelo y luego buscar los ajustes óptimos en el optimizador terminal. Aunque es extremadamente difícil buscar ajustes si hay muchos datos de entrada.
¿Es posible cambiar el espacio y la lógica a la vez durante el entrenamiento, tal vez deberíamos pensar cómo hacerlo?
SanSanych Fomenko, ¿debemos esperar el muestreo?
Ya veo. Usted tiene un conocimiento superficial de los modelos de aprendizaje automático.
El primer elemento de la cadena es el preprocesamiento, que se lleva entre el 50% y el 70% del trabajo. Aquí es donde se determina el éxito futuro.
El segundo elemento de la cadena es el entrenamiento del modelo en el conjunto de entrenamiento.
El tercer elemento de la cadena es la ejecución del modelo entrenado en el conjunto de pruebas. Si el rendimiento del modelo en estos conjuntos difiere en al menos un tercio, se vuelve a entrenar el modelo. Esto ocurre de vez en cuando, si no más a menudo. Un modelo sobreentrenado es un modelo demasiado preciso. Lo siento, lo básico.
SanSanych Fomenko, ¿debemos esperar una muestra?
¿De qué se trata?
Ya veo. Tienes una familiaridad superficial con los modelos de aprendizaje automático.
El primer elemento de la cadena es el preprocesamiento, que se lleva entre el 50% y el 70% del trabajo. Aquí es donde se determina el éxito futuro.
El segundo elemento de la cadena es el entrenamiento del modelo sobre un conjunto de entrenamientos.
El tercer elemento de la cadena es la ejecución del modelo entrenado en el conjunto de pruebas. Si el rendimiento del modelo en estos conjuntos difiere en al menos un tercio, se vuelve a entrenar el modelo. Esto ocurre de vez en cuando, si no más a menudo. Un modelo sobreentrenado es un modelo demasiado preciso. Lo siento, lo básico.