Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 89

 
Vizard_:
El control deslizante es para los aficionados))))) y el hecho de que sólo en este caso el modelo sea adecuado es una falacia.
Pero todo eso es una tontería, cada uno tiene sus peculiaridades-necesidades en diferentes etapas, tú también puedes añadirlo.
Me refería al % de salida tanto para el general como para el de prueba (prueba = OOS - aplicación de la fórmula a los nuevos datos)
Una ventaja de las aplicaciones de ventana, en su rápida usabilidad. Es posible hacer una cáscara normal,
Reshetov es un codificador experimentado, por lo que debe hacerse de una manera normal. Eso es todo. Todo ello, por supuesto, en mi opinión.
No voy a probar el software de Yuri no porque crea que ha hecho una mierda. Aunque es un programador experimentado. Es que todo está ya implementado, incluso resulta que hay un walk forward en el paquete que uso. Y hay 150-200 modelos por muestra, desde SVM, pasando por el modelo lineal con regularización, hasta XGBOOST.
 
Alexey Burnakov:


Si la selección de un buen modelo en una muestra da buenos resultados fuera de ella, significa que el modelo es adecuado para el problema elegido.

Una vez más, para los más dotados: si un modelo pasa la selección, no significa que sea potencialmente adecuado para el problema elegido, especialmente en entornos no estacionarios. Sólo significa que de alguna manera pasó la selección.

El hecho de que una aspirante haya superado la selección a través de las pruebas de acceso a la universidad no significa que vaya a defender su título, y mucho menos que vaya a trabajar posteriormente en el campo que ha elegido.

La selección sólo reduce la probabilidad de inadecuación, pero no siempre a cero. Y no debemos olvidar que los resultados de la selección también pueden ser falsos positivos y falsos negativos. Es decir, existe una probabilidad no nula de que el proceso de selección también haya arrojado "el bebé con el agua de la bañera".

 
Yury Reshetov:

Una vez más, para los especialmente dotados: si un modelo pasa la selección, no significa que sea potencialmente adecuado para el problema elegido, especialmente en entornos no estacionarios. Sólo significa que de alguna manera ha pasado la selección.

El hecho de que una aspirante sea seleccionada mediante las pruebas de acceso a la universidad no significa que vaya a defender su título, ni mucho menos que vaya a trabajar posteriormente en la especialidad elegida.

La selección sólo reduce la probabilidad de inadecuación, pero no siempre a cero. Y no debemos olvidar que los resultados de la selección también pueden ser falsos positivos y falsos negativos. Es decir, existe una probabilidad no nula de que el proceso de selección también haya arrojado "el bebé con el agua de la bañera".

Permítanme explicarlo de nuevo para los más sofisticados.

Todos los resultados son, por supuesto, probables.

Hay resultados del modelo en el entrenamiento, hay resultados en la validación cruzada o en las pruebas (para recoger los parámetros del modelo y hacer una parada de aprendizaje temprana). También hay resultados del modelo fuera de la muestra - estimación final.

Si los resultados en las pruebas se correlacionan bien con los resultados fuera de la muestra, significa que la calidad de la modelización de la dependencia tiene inercia para el periodo fuera de la muestra. En este caso, se puede tomar el mejor modelo en pruebas (no "fuera de muestra"). Posteriormente, se puede volver a entrenar el modelo con todos los datos nuevos con parámetros conocidos y tomar el mejor modelo, ya que la relación con los resultados futuros está prácticamente establecida.

Si los resultados en la prueba se correlacionan mal con los resultados fuera de la muestra, tomar el mejor modelo en el entrenamiento no tiene sentido. Tomar el mejor modelo en "fuera de muestra" es un ajuste. Sólo hay una salida: rechazar el método de creación del modelo o cambiar significativamente los rangos de los parámetros.

 
Y yo, por ejemplo, uso el aprendizaje profundo para aumentar la capacidad de generalización del optimizador Reshetov, y con la nueva posibilidad de evaluar la calidad del predicado, esto es una belleza. Con el aprendizaje profundo desde el 50% de generalización se puede elevar al 80-90% y en este caso el modelo empieza a funcionar a hurrah.... Así que, tómenlo desde aquí, chicos. Y no hay que discutir (c) Leopold y todo el resto......
 
.

"Puedes sugerirles que creen un hilo durante una semana, por ejemplo, una semana para que la gente se exprese, y luego dejar que lo restrieguen".

No sé qué clase de hobgoblin insertó la cita anterior en mi post, pero no es mi post.

Si a los moderadores no les gusta algo de mis posts, están en su derecho. Simplemente no pegues el texto de otra persona en mis posts, y actúa de forma más cultural: expón lo que no te ha gustado exactamente y con su propio nombre. Y yo, para no irritar a los moderadores, me voy de este sitio al mío propio: el enlace está en mi perfil.

¡Adiós a todos!

 
Yury Reshetov:
.

"Podrías sugerirles que crearan un hilo durante una semana, por ejemplo, una semana para que la gente se exprese, y luego dejar que lo restrieguen".

No sé qué truco insertó la cita anterior en mi post, pero no es mi post.

Si a los moderadores no les gusta algo de mis posts, están en su derecho. Simplemente no pegues el texto de otra persona en mis posts, y actúa de forma más cultural: expón lo que no te ha gustado exactamente y con su propio nombre. Y yo, para no irritar a los moderadores, me voy de este sitio al mío propio: el enlace está en mi perfil.

¡Adiós a todos!

¡¡¡WOW!!! Y yo que pensaba que eras tú quien escribía... Un movimiento inteligente... así es...
 
Yury Reshetov:
.

"Puedes sugerirles que creen un hilo durante una semana, por ejemplo, una semana para que la gente se exprese, y luego dejar que lo restrieguen".

No sé qué clase de hobgoblin insertó la cita anterior en mi post, pero no es mi post.

Si a los moderadores no les gusta algo de mis posts, están en su derecho. Simplemente no pegues el texto de otra persona en mis posts, y actúa de forma más cultural: expón lo que no te ha gustado exactamente y con su propio nombre. Y yo, para no irritar a los moderadores, me voy de este sitio al mío propio: el enlace está en mi perfil.

¡Adiós a todos!

No dude en volver.
 
Vizard_:

Luego le echaré un vistazo por si le interesa, aunque creo que he hecho una chapuza)))
Sí, +R es que probablemente ya ha implementado todo lo posible. ML durante mucho tiempo, pero sólo modelos sin reentrenamiento. Una de las últimas cosas que hice con ML fue
rellenar el modelo con eventos para que siempre den en el blanco. Si se combinan, se suele obtener un 93-96%. El resto, se entrena. En otras palabras.
Si has enseñado a tu hijo a caminar un poco, no hace falta que le digas lo mismo todos los días, simplemente dile cuándo tiene que saltar el charco.
(no hay predicción en el objetivo).Un poco de goteo, el objetivo no es ciertamente el color de la vela))
No tengo ni idea de cómo hacer esto, pero no estoy seguro de cómo hacerlo.
 
Vizard_:

Un poco de goteo, el objetivo es, por supuesto, no el color de la vela)))
No hace falta decirlo.)
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...