Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2842

 
Aleksey Nikolayev #:

La palabra "optimización" tiene mala reputación en nuestro foro por razones obvias. Por lo tanto, es bastante comprensible que queramos mantenernos alejados de ella de alguna manera y que ni siquiera utilicemos la propia palabra. Sin embargo, cualquier entrenamiento de un modelo MO es casi siempre una optimización, así que no se pueden sacar palabras de una canción.

No quiero herir a nadie, dar lecciones de vida o explicar cómo hacer negocios) escribo sólo con la débil esperanza de que metaquotes tenga en cuenta mis observaciones a la hora de implementar MO en MT5.


como se me fue de la lengua... Existe una verdadera actitud negativa hacia el concepto de "optimización".
Sólo añadiría que siempre hay que recordar que el modelo (TS) es primordial, la optimización es secundaria. si el modelo no funciona, la optimización no añadirá robustez.
En realidad, hay TS que funcionan con una amplia gama de parámetros. Pero incluso en tales sistemas, sigue habiendo parámetros óptimos que al final darán un resultado de negociación superior. es decir, la optimización no puede, por definición, empeorar el modelo.
Cuando se construye un sistema de negociación, el modelo es importante en primer lugar, sus criterios de evaluación en segundo lugar, y sólo después viene la optimización. lo contrario sería fundamentalmente erróneo.
Si alguien dice que la optimización es mala, significa que ha hecho mal la secuencia.
Sólo entendiendo lo anterior se puede llegar a la conclusión de que, sea como sea, es imposible lograr el MO sin optimización.
El probador y el optimizador como conjunto han ganado notoriedad sólo por el hecho de que los usuarios hacen una maldita cosa y piensan que después de la optimización esta porquería será rentable. no, no lo será, por eso será una maldita cosa. esto se ve facilitado por la facilidad de crear Asesores Expertos en ME y la disponibilidad de variantes ya hechas en la entrega. pero al mismo tiempo prácticamente no existen herramientas para evaluar la estrategia de creación de grupos de conjuntos de trabajo. lo bueno es que µl llena este vacío al máximo.
Resumiendo lo anterior, podemos concluir que los algoritmos de optimización harán que las personas con éxito tengan aún más éxito (esto es aplicable a cualquier ámbito de la actividad humana) y, por desgracia, que las personas infelices sean aún más infelices. la razón es sencilla: prioridades mal establecidas.
así que incluso los coches de fórmula 1 están cuidadosamente optimizados, ¿por qué? porque estos coches son buenos tal y como son))) la respuesta es sencilla, están optimizados según los criterios de usuario del conductor del coche. aunque las características generales de los coches son las mismas, pero el tuning permite ajustar el coche por ejemplo en la curva de aceleración, otro conductor preferirá una velocidad más alta en línea recta. ninguno de los conductores de los coches piensa "¡la optimización es una mierda!, ¡qué demonios necesito, conduciré por defecto!". - de lo contrario vas a perder, vas a tener niños hambrientos, una esposa enfadada y todas las demás delicias del fracaso.

de ahí la secuencia necesaria para el éxito: coche (TC) - criterios de puesta a punto (criterios de evaluación del TC) - optimización.
en principio, no son posibles otras secuencias correctas.
 
También me gustaría añadir que los algoritmos de optimización son ante todo algoritmos de búsqueda, no sólo sirven para buscar parámetros MASK como mucha gente piensa.
Se pueden hacer cosas mucho más complejas y no triviales.
 
Andrey Dik #:

Es decir, la optimización no puede, por definición, degradar el modelo.

Esto es correcto para los sistemas de control automático, pero absolutamente NO es correcto para los modelos que operan en los mercados financieros con procesos no estacionarios. Existe un mal, un mal absoluto, llamado "sobreentrenamiento". Este es el principal mal (después de la basura de entrada) que hace completamente inoperable absolutamente cualquier modelo. Un buen modelo debería ser siempre subóptimo, una especie de burbuja de la realidad. Creo que es el óptimo global el que contribuye especialmente al sobreentrenamiento del modelo.

 
otro punto importante.
donde cuantos menos parámetros, mejor lo hace el modelo en la cadena de
modelo - criterio - optimización,
A medida que aumentan los grados de libertad, y esto es malo, aumentar el número de criterios o parámetros del criterio, por el contrario, reduce los grados de libertad del modelo, actuando como una especie de "límites".
En cuanto al número de parámetros del AO, me refiero a las desventajas del gran número de posibilidades de sintonización, ya que esto complica la aplicación práctica del AO, aunque, en manos hábiles de un investigador que entienda lo que está haciendo, permite obtener ventajas adicionales en calidad y rapidez de optimización, reduciendo en cierto modo indirectamente aún más la variabilidad del modelo, si éste tiene demasiados parámetros. éste es a menudo el caso de las redes neuronales.
 
СанСаныч Фоменко #:

Idea correcta para sistemas de control automático, pero absolutamente NO correcta para modelos que operan en mercados financieros con procesos NO estacionarios. Existe un mal, un mal absoluto, llamado "sobreentrenamiento". Este es el principal mal (después de la basura de entrada) que hace completamente inoperable absolutamente cualquier modelo. Un buen modelo debería ser siempre subóptimo, una especie de engrosamiento de la realidad. Creo que es el óptimo global el que contribuye especialmente al sobreentrenamiento del modelo.


El sobreentrenamiento no es consecuencia de un mal uso de la optimización, sino de una elección errónea del criterio de evaluación del modelo. el error se cometió ANTES de la optimización. y es muy posible que incluso en el primer elemento de la cadena - el modelo sea una mierda.
decir que el modelo debe estar poco entrenado es tan erróneo como decir que un buen zapador o un buen cirujano están poco entrenados. hay que culpar al zapador o al cirujano o a sus profesores, no a la posibilidad misma de aprender (mejorar, optimizar).
Echar la culpa a la no estacionariedad también es erróneo, trayendo también la optimización. significa que el investigador no tiene un buen modelo para una serie no estacionaria.
 
Pido disculpas si he ofendido a alguien al sumergir al lector en la cruda realidad.
 

Parece que se utilizan conceptos con contextos diferentes.

Por ejemplo, "meseta" es más bien una amplia gama de ajustes de la forma de obtener los factores externos que influyen en la lógica del modelo. Por ejemplo, una amplia gama de eficiencia de mashka sobre la base de los cuales se hace el predictor.

La optimización con algoritmos MO, de la que hablamos aquí, se ocupa de construir la lógica de decisión, mientras que la optimización en el probador de estrategias suele ocuparse de afinar los datos de entrada, mientras que la lógica de decisión ya está prescrita y, en el mejor de los casos, tiene variabilidad.

Los dos tipos de optimización son diferentes: uno modifica el espacio y el otro las relaciones en él.

Ahora me pregunto qué hay que afinar primero: signos/predictores o buscar un modelo y luego buscar los ajustes óptimos en el optimizador terminal. Aunque es extremadamente difícil buscar ajustes si hay muchos datos de entrada.

¿Es posible cambiar el espacio y la lógica a la vez durante el entrenamiento, tal vez deberíamos pensar cómo hacerlo?

SanSanych Fomenko, ¿debemos esperar el muestreo?

 
Andrey Dik #:

el sobreentrenamiento no es consecuencia de un mal uso de la optimización, sino de una elección errónea del criterio de evaluación del modelo. el error se cometió ANTES de la optimización. y es muy posible que en el primer elemento de la cadena - el modelo sea una mierda.
decir que el modelo debe estar poco entrenado es tan erróneo como un buen zapador o cirujano poco entrenado. hay que culpar al zapador o al cirujano o a sus profesores, no a la posibilidad misma de aprender (mejorar, optimizar).
Echar la culpa a la no estacionariedad también es erróneo, y además conlleva optimización. significa que el investigador no tiene un buen modelo para una serie no estacionaria.

Ya veo. Usted tiene un conocimiento superficial de los modelos de aprendizaje automático.

El primer elemento de la cadena es el preprocesamiento, que se lleva entre el 50% y el 70% del trabajo. Aquí es donde se determina el éxito futuro.

El segundo elemento de la cadena es el entrenamiento del modelo en el conjunto de entrenamiento.

El tercer elemento de la cadena es la ejecución del modelo entrenado en el conjunto de pruebas. Si el rendimiento del modelo en estos conjuntos difiere en al menos un tercio, se vuelve a entrenar el modelo. Esto ocurre de vez en cuando, si no más a menudo. Un modelo sobreentrenado es un modelo demasiado preciso. Lo siento, lo básico.

 
Aleksey Vyazmikin #:


SanSanych Fomenko, ¿debemos esperar una muestra?

¿De qué se trata?

 
СанСаныч Фоменко #:

Ya veo. Tienes una familiaridad superficial con los modelos de aprendizaje automático.

El primer elemento de la cadena es el preprocesamiento, que se lleva entre el 50% y el 70% del trabajo. Aquí es donde se determina el éxito futuro.

El segundo elemento de la cadena es el entrenamiento del modelo sobre un conjunto de entrenamientos.

El tercer elemento de la cadena es la ejecución del modelo entrenado en el conjunto de pruebas. Si el rendimiento del modelo en estos conjuntos difiere en al menos un tercio, se vuelve a entrenar el modelo. Esto ocurre de vez en cuando, si no más a menudo. Un modelo sobreentrenado es un modelo demasiado preciso. Lo siento, lo básico.


Parece que tenemos ideas diferentes sobre lo básico. Lo siento. Y parece que hablamos idiomas diferentes.