Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3321

 
Andrey Dik #:

Muéstrame el gráfico.

Por favor.

Muestre en este gráfico los criterios en los que debe detener el entrenamiento.

en el mínimo del criterio en toda la muestra, ¿qué sigue?

 
cuando te enamoras de una chica nueva, empiezas a escuchar música femenina.
 

¿Sabes a qué me refiero?

Un verdadero especialista en IA necesita cigarrillos rojos y colonia verde.

 
Maxim Dmitrievsky #:

almínimo del criterio en la muestra bruta, ¿qué sigue?

¡Bingo!

Ahora por fin te has dado cuenta de que cualquier aprendizaje no es más que optimización con búsqueda de extremo global. O quizás aún no te has dado cuenta, pero lo harás.

No puede ser de otra manera, siempre se necesita un criterio inequívoco para detener el aprendizaje y este criterio siempre se diseña para que sea un extremo global. Normalmente se diseña un criterio integral (no siempre). Has nombrado criterios integrales.

 
Andrey Dik #:

¡Bingo!

Por fin te has dado cuenta de que cualquier aprendizaje no es más que optimización con búsqueda de un extremo global. O puede que aún no te hayas dado cuenta, pero lo harás.

No puede ser de otra forma, siempre necesitas un criterio inequívoco para detener el aprendizaje y este criterio siempre se diseña de forma que sea un extremo global. Normalmente se diseña un criterio integral (no siempre). Has nombrado criterios integrales.

El post original trataba de la complejidad del modelo, no de los extremos. Estás tirando por tu cuenta, olvidando lo que escribí.

Es decir, estás otra vez metiendo la pata, o estirando los datos para que encajen con tus palabras.

 
Andrey Dik #:

Muéstrame el gráfico.

Por favor.

Muestre en este gráfico los criterios en los que debe detener el entrenamiento.


Este es un gráfico típico del error de ajuste del modelo.

Se aproxima asintóticamente a algún valor de desviación del eje.

La cantidad de sesgo es una propiedad del par objetivo-predictor. Optimizando los parámetros que tiene un modelo en particular, se pueden obtener algunas migajas, pero es imposible saltarse la propiedad "objetivo-predictores" mediante cualquier optimización.

Si el sesgo es el 45% del error, es imposible obtener un 10% menos cambiando los parámetros del modelo. Y ninguna optimización servirá de nada.

Y si consigues encontrar un par "objetivo-predictores" con un 20% de error, será de un 20% hagas lo que hagas.

Además. Si en la traza y luego en la validación los errores divergen más del 5%, significa que hay que trabajar en el par "objetivo-predictores" de forma significativa. Si no es posible converger, habrá que descartar el par "objetivo-predictores".

 
Maxim Dmitrievsky #:

El post original trataba de la complejidad del modelo, no de los extremos. Usted está tirando de su propia línea, olvidando lo que escribí.

Es decir, estás pirateando de nuevo, o estirando los datos para que encajen con tus palabras.

¿Qué quieres decir con "originalmente"? Discutimos la complejidad de los modelos por separado, en aquel momento dijimos que aumentar la complejidad de los modelos sólo es eficaz hasta cierto punto, luego hay una caída de la eficacia, y eso es cierto, sí, no lo discutí y lo confirmo. Luego sólo sugerí que tal vez la eficacia puede aumentar drásticamente si se aumenta el modelo de forma muy significativa, porque aquí nadie lo ha hecho antes (y ya veo por qué).

Siempre he dicho, desde hace mucho tiempo, que cualquier aprendizaje es optimización con búsqueda de extremo global, pero tú lo negabas (y algunos otros), diciendo que tú no eres un "optimizador". Ahora te he demostrado claramente que el aprendizaje sólo puede detenerse cuando se encuentra un extremo global, de lo contrario simplemente no hay forma de hacerlo de otra manera (no sabes cuándo detener el aprendizaje, necesitas un criterio para ello). Por eso el metacriterio de parada es la esencia de la optimización cuando se aprende hasta el extremo global.

Darse cuenta de ello permite contemplar el aprendizaje desde nuevos ángulos.

 
Hay un error en mi dibujo, la línea roja val debe estar por encima de la bandejane.
 
Nadie estaba discutiendo nada, saltaste a una conversación sobre la complejidad del modelo, o reaccionaste a un post, por lo que se te conoce como optimizador.
 
Maxim Dmitrievsky #:
Nadie discutió nada, tú interferiste en una conversación sobre la complejidad de los modelos o reaccionaste a un post, por lo que se te conoce como optimizador.

Eso es todo, Maxim. No tiene sentido seguir discutiendo, todo el mundo ya se ha enterado de todo. Aquí está vigilando Sanych, que lleva siglos discutiendo conmigo que es perjudicial buscar un global, a lo que yo respondía "según qué tipo de global", y Sanych aún no ha entendido que al final busca un global.

Espero devolver la discusión a una dirección tranquila, amistosa y constructiva.

Y todos los que leen este hilo sobre una base regular recordar quién y qué y cuando se dice, no incluyen la inconsciencia - es inútil. Hoy he cometido un error - he dibujado mal el gráfico, he admitido tranquilamente el error y lo he dicho. Es normal admitir tus errores, Maxim.