Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 963

 
Ivan Negreshniy:

¿Y qué justifica usted, por sí mismo, la permisividad de las desviaciones a la baja, aparte del puro azar?

No tengo ninguna justificación para esperar que OOS sea mejor que Train.
¿Cómo puedes exigir a los datos aleatorios de OOS mejores resultados que los que aprendiste? No puede ser, salvo por casualidad.
Hace poco se escribió en otro hilo que el alumno no puede saber más que el profesor.
Ejemplo.
Una parte de los datos (por ejemplo, el 80%) en el PE será familiar para el modelo y allí mostrará el mismo error que en el tren (dejemos que el error sea del 30%), el otro 20% de los datos en el PE será nuevo y no aprendido, y dará un error del 50%. Combinados, este 80% de datos conocidos y el 20% de datos nuevos deberían elevar el error de OOS del sitio a un 35% aproximadamente.
Por lo tanto, es más probable que se produzca un deterioro de los resultados del OOS que una mejora.
También hay una probabilidad de mejora si muchos ejemplos buenos entran en el OOS, en mayor proporción que en la parcela del tren. No se me ocurre ninguna otra forma de reducir el error en la retroalimentación.

Ivan Negreshniy:

Y entonces, ¿cuál es su tarea principal, si no es luchar con esta aleatoriedad, porque nivela el sentido de la validación y del OOS y del IO en general)?

La tarea es hacer que el delta de error no sea demasiado grande.

 
Una pregunta para Alesha.
¿Cómo se separan los ruidosos de los 600 predictores?
 
elibrarius:

No tengo ninguna justificación para esperar que OOS sea mejor que Train.
¿Cómo se puede esperar que los datos aleatorios de OOS produzcan mejores resultados que los enseñados? No puede ser, salvo por casualidad.
Hace poco se escribió en otro hilo que el alumno no puede saber más que el profesor.
Ejemplo.
Una parte de los datos (por ejemplo, el 80%) en el OOSserá familiar para el modelo y allí mostrará el mismo error que en el tren (dejemos que el error=30%), el otro 20% de los datos del OOS será nuevo y no aprendido, y dará un error del 50%. Combinados, este 80% de datos conocidos y el 20% de datos nuevos deberían elevar el error de OOS del sitio a un 35% aproximadamente.
Por lo tanto, es más probable que se produzca un deterioro de los resultados del OOS que una mejora.
También hay una probabilidad de mejora si muchos ejemplos buenos entran en el OOS, en mayor proporción que en la parcela del tren. No se me ocurre ninguna otra forma de reducir el error en la retroalimentación.

La tarea es hacer que el delta de error no sea demasiado grande.

Para no confundirnos, es necesario definir la terminología - OOS u OOS (out of sample) son datos, por definición no conocidos por el modelo, otra cosa es IS (in sample)

 
Ivan Negreshniy:

Hay que definir la terminología: los datos OOS (fuera de muestra) son datos, por definición, que no son modelos conocidos, los IS (en muestra) son otra cosa

Si se encuentran regularidades en los datos, los ejemplos que corresponden a ellas pueden considerarse familiares.
 
elibrarius:

También existe la posibilidad de mejorar si muchos buenos ejemplos entran en el OOS, en mayor proporción que en la sección de trenes. No veo ninguna otra opción para reducir el error en el bucle de retroalimentación.

Leí en uno de los libros del Ministerio de Defensa que cuando se entrena, la proporción de éxitos y fracasos debe corresponder a la realidad. Debemos entrenar por igual los resultados exitosos y los no exitosos.

 
Yuriy Asaulenko:

Leí en uno de los libros del Ministerio de Defensa que cuando se entrena, la relación éxito-fracaso debe ser coherente con la realidad. Debemos enseñar por igual los resultados exitosos y los no exitosos.

¿Por qué intentar entonces filtrar los ejemplos fallidos y ruidosos; o aislarlos, volver a dividirlos en "no sabe" y entrenar la red de nuevo?
 
elibrarius:
Entonces, ¿por qué intentar filtrar los ejemplos malos y ruidosos; o aislarlos, repartirlos a "no saber" y entrenar la red de nuevo?

No lo sé. Eso es para los que lo hacen. Enseño como he escrito arriba.

 
Dr. Trader:

Sí, es una pena que su demo haya desaparecido. Y todo porque te fijas demasiado en el OOS, aunque citaste un artículo que dice que el modelo OOS no puede ser seleccionado, y en el foro aquí muchas veces escribiste lo mismo.

Ya escribí que hay una correlación directa entre el TOF y la estabilidad en el TOF.

Hasta ahora no me ha dado el mismo error en OOB que en trayne, siempre al menos 2 veces más grande. Lo intentaré más tarde, ya estoy harto de esta mierda :)

Tal vez tenga que cambiar a P y conseguir un modelo mejor, ya que el propio alglib no me deja ver nada más
 
Maxim Dmitrievsky:

ya que el propio alglib no permite ver nada más

Te lo dije hace tiempo, es un callejón sin salida. No debe modelar en MT - R, MathLab, como A_K2, en VisSim, etc.

Cuando el modelo funciona, entonces se puede transferir a MT, y no se puede transferir).

 
Yuriy Asaulenko:

Te lo han dicho durante mucho tiempo: es un callejón sin salida. No debe modelar en MT - R, MathLab, como A_K2, en VisCim, etc.

Cuando el modelo funcione, entonces puedes transferirlo a MT, pero no es necesario).

¿Qué más puede decir de interés?