Optimización y pruebas fuera de la muestra. - página 5

 

Cándido, no es tan sencillo con la rentabilidad. Si tomamos los mismos conjuntos A, B, C en NS, entonces la rentabilidad de la estrategia después de un entrenamiento normal será la siguiente: en la parte A es máxima, en la parte B es significativamente menor, y en la parte C es aún peor. Y así es con nosotros: grandes resultados en la historia, pero fuera de ella, pérdidas... El problema es elegir una estrategia en la que la zona C es casi seguro que es peor en términos de rentabilidad, pero sigue siendo comparable a la zona A.

Sólo, terminemos con las redes neuronales.

No pretendo promocionarlos aquí. Pero los principios de las pruebas que aprendí cuando las hacía son bastante razonables. Y aquí, en contraste con el ajuste de meta-cotizaciones, podemos al menos confiar en la capacidad de generalización (la principal propiedad debido a la cual un Asesor Experto puede seguir siendo rentable en el futuro; nuestro optimizador está completamente desprovisto de esta propiedad).

 
lna01:
Vita:

Quería decir que el probador real de MetaTrader permite obtener los mismos resultados cuando se optimiza un conjunto de muestra+sin muestra que cuando se optimiza una muestra seguida de una prueba fuera de muestra. En el probador, el botón "Propiedades del experto" y luego las pestañas "Prueba" y "Optimización" permiten deshacerse de las pérdidas de cualquier longitud y profundidad que se desee.

Todo depende de la definición de la tarea. Si no tenemos en cuenta el grado de uniformidad de la distribución de beneficios en el tiempo de prueba, las capacidades estándar del probador de MT son realmente suficientes y el tiempo empleado será comparable. ¿Merece la pena descuidarlo? Cada uno tiene su propia experiencia y sus propios puntos de vista. El proceso puede llamarse ajuste, pero creo que el término aproximación sería más preciso. No todas las aproximaciones son extrapolables al futuro y el criterio de uniformidad de los beneficios sólo permite rechazar a sabiendas las variantes no aptas para la extrapolación. En mi opinión, por supuesto.


Esto se refiere a la aplicabilidad del probador a un problema de optimización en una muestra con una prueba posterior fuera de la muestra. Los mismos resultados, pero hay que enfocarlo desde un ángulo diferente: reducir el número de pérdidas consecutivas y los valores de las pérdidas. Eso es todo.
 
Mathemat:

Cándido, no es tan sencillo con la rentabilidad. Si tomamos los mismos conjuntos A, B, C en NS, entonces la rentabilidad de la estrategia después del entrenamiento normal será así: es máxima en la sección A, mucho menor en la sección B, y mucho peor en la sección C. Y así es con nosotros: grandes resultados en la historia, pero fuera de ella - pérdidas... El problema es encontrar una estrategia que, con casi toda seguridad, sea peor en términos de rentabilidad en el área C, pero que siga siendo comparable al área A.


Creo que la analogía con la aproximación da la respuesta: sabemos que cuanto mejor es la aproximación, menos adecuada es para la extrapolación (por supuesto rechazamos el caso de la gráfica de la función analítica con sus conjeturas). Por lo tanto, lo más probable es que una buena solución no sea la que dé más beneficios en A, sino la que dé más beneficios uniformes en A+B. Ahora empezamos a extrapolar y, de nuevo de forma natural, el error aumenta a medida que crece el horizonte de previsión.
 
Mathemat:

Discrepo categóricamente, Vita. De lo contrario, en las redes neuronales no habría una división de todos los datos en tres partes, fundamentalmente diferentes: la optimización real - sólo en la primera parte; la segunda sólo sirve para determinar el momento de la terminación del entrenamiento, y la tercera - sólo para la prueba única. Es decir, el ajuste real sólo va en la primera, y en la tercera, es lo que resulte... Y la elección - "navaja de Occam" o pérdida de confianza en el sistema - se deja al creador del sistema.

A grandes rasgos, optimizar en A+B+C no es en absoluto lo mismo que el tratamiento descrito anteriormente.


Para mayor claridad, por si acaso.

A - conjunto de parámetros obtenidos durante la optimización en la muestra

B - conjunto de parámetros obtenidos tras la prueba A fuera de la muestra.

El proceso de obtención de B es el proceso de optimización dentro de la muestra seguido de una prueba fuera de la muestra. ¿Es en este proceso en el que se supone que te libras del ajuste de curvas?

C es el conjunto de parámetros obtenidos mediante la optimización de la población de la muestra + fuera de la muestra.

Yo sostengo que C es tan buena como B en términos de ajuste de la curva.

C-B= el conjunto de parámetros que no son rentables ni en la muestra ni fuera de ella, pero sí en el conjunto de la población.

El proceso de obtención de B puede ser realizado por un probador estándar.

 

Cándido, no digo que una buena solución dé el máximo beneficio en A. El optimizador lo hace mejor: da un máximo absoluto en A, pero nada en fuera de muestra. Según el modelo de aprendizaje NS, el candidato probable para una buena solución es el máximo beneficio en B con un beneficio ya aceptable pero no máximo en A.

Sobre tu comentario: casi de acuerdo, pero no A+B sino A+B+C.

2 Vita: Pensé que lo había dejado claro en la página anterior. ... Los conjuntos A, B, C no se superponen. Por ejemplo:

A - del 1 de enero de 2004 al 31 de diciembre de 2005,

B - del 1 de enero de 2006 al 31 de octubre de 2006, y

C - desde el 1 de noviembre de 2006 hasta la actualidad.

La proporción habitual de longitudes de datos en NS es A:B:C = 60:20:20.

 
Mathemat:

Sobre tu comentario: estoy casi de acuerdo, pero no A+B sino A+B+C.

Reconozco que soy muy pesimista con respecto a A+B+C :). Precisamente por la acumulación natural de errores, sólo se puede obtener un beneficio comparable al de A y B en C por accidente.
 
Cándido, yo también, jeje... Pero si funciona así, ya no es el peor candidato para ser considerado un picador de coles verdes. La parcela C es la verdadera parcela de evaluación de EA, por lo que la he incluido entre comillas. Y es donde se suele concentrar casi todo el error, mientras que las áreas A y B suelen tener bastante menos error.
 
Mathemat:

No pretendo promocionarlos aquí. Pero los principios de las pruebas, que aprendí mientras las hacía, son bastante sensatos. Y aquí, a diferencia del ajuste de metacotizaciones, podemos al menos confiar en la capacidad de generalización (la principal propiedad por la que un Asesor Experto puede seguir siendo rentable en el futuro; nuestro optimizador carece por completo de esta propiedad).


¡Oh, sí! La capacidad de generalización debería ser una propiedad del Asesor Experto, no del optimizador. La ley debe establecerse en el peritaje; la idea del peritaje debe ser lo más completa y sistemática posible. Pero yo no haría tal afirmación contra el optimizador. Me parece absurdo, al igual que es absurdo pretender sacar absolutamente cualquier Asesor Experto a nivel de rentabilidad en todo momento y en el futuro con un optimizador capaz de generalizar. El optimizador de metacotizaciones no tiene la culpa de que no haya ninguna ley, ninguna idea rentable y la llamada capacidad de generalización que pueda optimizar. Lo único que queda es ajustarse a la curva.
 
Vita, buen punto. Pero yo diría que la capacidad de generalización es una propiedad no sólo del EA sino también del algoritmo de aprendizaje, que debe identificar correctamente esta capacidad. El algoritmo de la metacita no revela esta capacidad, sino que la destruye mediante la sobreoptimización. Pero no fue creado para una optimización seria...
 
Mathemat:

Cándido, no digo que una buena solución dé el máximo beneficio en A. El optimizador lo hace mejor: da un máximo absoluto en A, pero nada en fuera de muestra. Según el modelo de aprendizaje NS, el candidato probable para una buena solución es el máximo beneficio en B con un beneficio ya aceptable pero no máximo en A.

Sobre tu comentario: estoy casi de acuerdo, pero sólo que no A+B, sino A+B+C.

2 Vita: Pensé que había escrito todo claramente en la página anterior. ... Los conjuntos A, B, C no se superponen. Por ejemplo:

A - del 1 de enero de 2004 al 31 de diciembre de 2005,

B - del 1 de enero de 2006 al 31 de octubre de 2006, y

C - desde el 1 de noviembre de 2006 hasta la actualidad.

La proporción habitual de longitudes de datos en NS es A:B:C = 60:20:20.


Que Dios los acompañe, A,B y C. Tienen un significado diferente en mis puestos. No son líneas de tiempo. Son los conjuntos de parámetros que produce la optimización. Oh, vamos.