Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3307

 
Aleksey Nikolayev #:
Sí, qué era pasada) Qué clase de gente eran - Shurik, Koldun, ...)

Alexey Burnakov, Dr. Trader...


uno vale cientos...

 
mytarmailS ajustamos los parámetros a ella en 10 iteraciones en lugar de 10000, ¿se puede considerar un modelo no entrenado?

Después de todo, la propia frase" se nos ocurrió" también implica algún tipo de proceso de pensamiento (iteraciones).

¿Cómo sabe el modelo final si fueron iteraciones cerebrales o informáticas y si hay diferencia entre ambas?

La pregunta surgió tras leer el artículo de Prado

la cuestión es que el óptimo se puede encontrar en 1000 iteraciones o en 100, si estamos hablando de optimizar algunos parámetros del modelo. a medida que aumenta el número de iteraciones, simplemente aumenta la probabilidad de encontrarlo.

Ya he dicho antes que es muy importante utilizar una estimación que dé el valor máximo de lo que se quiere encontrar. utilizar una estimación incorrecta lleva a adivinar los posos del café.

 

Alexey tropezó con DQN y no fue más allá, prefiriendo escribir historias sobre Valera. El comerciante DR se puso en contacto con Alexander, y éste le arruinó, ya que el primero no tenía opinión.

El único personaje fue Mago, que claramente entendía algo, pero estaba demasiado nervioso, y cuando se dio cuenta de que estaba a punto de ser atrapado, huyó.

Es revelador que todos escribieran en R, por lo que no consiguió nada, ya que la R destruye la mente
 
Aleksey Vyazmikin #:

El sobreaprendizaje surge de la memorización de fenómenos poco frecuentes. Estos fenómenos se aíslan de forma puramente estadística, ya que no existe ningún modelo que describa la causa y el efecto.

Al mismo tiempo, una pérdida no siempre significa que el modelo esté sobreentrenado.

Andrey Dik #:

la cuestión es que el óptimo se puede encontrar para 1000 iteraciones y para 100, si hablamos de la optimización de algunos parámetros del modelo. con el aumento del número de iteraciones la probabilidad de encontrarlo simplemente aumenta.

Ya he dicho antes que es muy importante utilizar una estimación que dé el valor máximo de lo que se quiere encontrar. utilizar una estimación incorrecta conduce a adivinar los posos del café.


Ni siquiera entiendes la esencia de mi pregunta

 
mytarmailS #:


Ni siquiera entendiste la esencia de mi pregunta.

Yo hablaba de una cosa, Alexei de otra.

y no esperaba que mi pensamiento se tomara al pie de la letra.

Imagina que el conjunto de parámetros que necesitas existe en un conjunto completo de todas las variantes. ahora piensa en cuál debería ser la estimación, para que en cualquier número de iteraciones fuera posible encontrar sólo y exactamente este conjunto... si el ajuste crece con el crecimiento de las iteraciones, significa que no es el conjunto el que está mal localizado, sino que se utiliza una estimación incorrecta.

 
Andrey Dik #:

Yo hablaba de una cosa, Alexei hablaba de otra.

Y ambos de algo equivocado.


Lea el artículo, a continuación, sobre el problema de la prueba múltiple, entonces mi pregunta de nuevo.

 
Andrey Dik #:
para que con cualquier número de iteraciones puedas encontrar sólo este conjunto.

¡Canción de antaño!

Nadie necesita este conjunto. Y la optimización en el probador busca justo ese conjunto único y un gran número de "optimizadores" se conforman con este único conjunto de parámetros sin prestar atención al "diagrama bidimensional", mediante el cual se puede intentar encontrar un conjunto de conjuntos, es decir, encontrar una meseta, no un máximo.

Y el conjunto óptimo, que en el diagrama bidimensional parece una isla verde entre cuadrados pálidos o blancos, indica sobreentrenamiento, es decir, se elimina alguna particularidad, que es muy óptima, pero que nunca se volverá a encontrar, lo que se denomina sobreentrenamiento.

 
mytarmailS #:

Y ambos tratan de lo incorrecto.

Lee el artículo, luego el problema de las pruebas múltiples y después mi pregunta otra vez.

Como quieras, no insisto.

 
СанСаныч Фоменко #:

¡Canción de antaño!

Nadie necesita este conjunto. Y la optimización en el probador busca precisamente ese conjunto único y un gran número de "optimizadores" se conforman con este único conjunto de parámetros sin prestar atención al "diagrama bidimensional", mediante el cual se puede intentar encontrar un conjunto de conjuntos, es decir, encontrar una meseta, no un máximo.

Y el conjunto óptimo, que en el diagrama bidimensional parece una isla verde entre cuadrados pálidos o blancos, indica sobreentrenamiento, es decir, se elimina alguna particularidad, que es muy óptima, pero que nunca se volverá a encontrar, lo que se denomina sobreentrenamiento.

Bien, permítame una pregunta sencilla: ¿puede estimar sin ambigüedades lo que usted llama "meseta"? - ¡¡¡¡si puedes, entonces describe la estimación para que lo que tienes en la meseta tenga el máximo valor de estimación!!!! - si es tan difícil de entender, haz la estimación sin ambigüedades para que lo que necesitas encontrar tenga la máxima estimación posible.

Una vez más, si el máximo no es lo que quieres al optimizar, entonces estás utilizando la estimación equivocada.

 
Andrey Dik #:

como quieras, no insisto.

)))