Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 360

 
Mihail Marchukajtes:
¡¡Interesante!! Pero el problema es un poco diferente. Supongamos que su TS disminuye un 20%. ¿Cuál es la pregunta? ¿Saldrá de la reducción y ganará por encima o seguirá drenando????? ¿Cómo sabe si su ST necesita ser reoptimizado?
En mi opinión, este "cómo" no es diferente de cualquier otro sistema. MO o no MO es irrelevante. Elige un criterio y decide cuándo y qué.
 
Mihail Marchukajtes:
¡¡Interesante!! Pero el problema es un poco diferente. Supongamos que su TS disminuye un 20%. ¿Cuál es la pregunta? ¿Saldrá de la reducción y ganará por encima o seguirá drenando????? ¿Cómo puede saber si su ST necesita ser reoptimizado?

El ST NO debe estar sobre-optimizado - ese es el objetivo de crear un ST. Todo lo demás es un juego de números
 
SanSanych Fomenko:

La CU NO debe ser recalificada - ese es el objetivo de la creación de la CU. Todo lo demás es un juego de números.
Si se reedita, puede que se reedite o no, pero tarde o temprano empezará a fallar de cualquier manera. Creo que esa era la preguntade Mihail Marchukajtes: ¿cómo se sabe cuándo?
 
Yuriy Asaulenko:
Puede que se le reciba o no, pero tarde o temprano empezará a filtrarse de todos modos. Creo que esa era la preguntade Mikhail Marchukajtes: ¿cómo se sabe cuándo?


Usted no entiende la palabra "reconvertido".

Primero hay que preocuparse de que el TC no esté reconvertido, demostrar ese hecho. Y luego hay que repetir esa prueba. Si no puede demostrar que no está reciclado, no puede utilizarlo.

 
SanSanych Fomenko:


No entiendes la palabra "sobreentrenado".

Primero hay que preocuparse de que el TC no esté reconvertido, demostrar ese hecho. Y luego hay que repetir esa prueba. Si no puedes demostrar que no está reciclado, no puedes utilizarlo.

Supongo que lo entiendo).

Переобучение (переподгонка, пере- в значении «слишком», англ. overfitting) в машинном обучении и статистике — явление, когда построенная модель хорошо объясняет примеры из обучающей выборки, но относительно плохо работает на примерах, не участвовавших в обучении (на примерах из тестовой выборки).

Это связано с тем, что при построении модели («в процессе обучения») в обучающей выборке обнаруживаются некоторые случайные закономерности, которые отсутствуют в генеральной совокупности.

Даже тогда, когда обученная модель не имеет чрезмерного количества параметров, можно ожидать, что эффективность её на новых данных будет ниже, чем на данных, использовавшихся для обучения[1]. В частности, значение коэффициента детерминации будет сокращаться по сравнению с исходными данными обучения.

Способы борьбы с переобучением зависят от метода моделирования и способа построения модели. Например, если строится дерево принятия решений, то можно обрезать некоторые его ветки в процессе построения.
https://ru.wikipedia.org/wiki/Переобучение

Creo que esta es una definición algo simplificada. Por lo tanto, sigue siendo no sólo posible, sino tal vez incluso necesario utilizarla. Todo depende de los detalles.

Usamos modelos burdos, y esto también puede interpretarse como un sobreentrenamiento.

 
Mihail Marchukajtes:
¡¡Interesante!! Pero el problema es un poco diferente. Supongamos que su TS disminuye un 20%. ¿Cuál es la pregunta? ¿Saldrá de la depreciación y ganará por encima o seguirá drenando???? ¿Cómo puede saber si su ST necesita ser reoptimizado?

Si el modelo recién entrenado en el probador no muestra una reducción del 20% para este período y el modelo antiguo en la cuenta real se abrió - entonces vuelva a entrenarlos inequívocamente, el modelo ha perdido su relevancia y debe tener en cuenta los nuevos patrones. ¿Por qué no volver a entrenar el modelo después de cada nueva operación? Y dale un historial actualizado de ofertas para entrar.
 
Maxim Dmitrievsky:

Si el modelo recién entrenado en el probador no da una reducción del 20% durante este período, y el viejo modelo en la cuenta real lo hizo - entonces vuelva a entrenarlo, el modelo ha perdido su relevancia y necesita tener en cuenta nuevos patrones. ¿Por qué no volver a entrenar el modelo después de cada nueva operación? Y también deberías darle el historial actualizado de ofertas para entrar.
)) Ayer estuve reflexionando sobre este tema. Decidí que sería mejor registrar las transacciones y, tras su realización, presentar una muestra de formación para su entrada. Me gustaría aprender más a medida que avanza el juego.
 
Yuriy Asaulenko:

Supongo que lo entiendo).

Creo que esta es una definición algo simplificada. Por lo tanto, no sólo es posible, sino tal vez incluso necesario, utilizarla. Todo depende de los detalles.

Estamos utilizando modelos burdos, y esto también puede interpretarse como un exceso de ajuste.


¡En la cita el sobreaprendizaje es una consideración demasiado sutil de los rasgos, y usted tiene el engrosamiento como sobreaprendizaje...!

Tú lo sabes mejor. No es la primera vez.

 
Maxim Dmitrievsky:

Si el modelo recién entrenado en el probador no da una reducción del 20% durante este período, y el viejo modelo en la cuenta real lo hizo - entonces vuelva a entrenarlo, el modelo ha perdido su relevancia y necesita tener en cuenta nuevos patrones. ¿Por qué no volver a entrenar el modelo después de cada nueva operación? Y dale el historial actualizado de los tratos que hay que introducir.

La formación, el reciclaje y la readaptación (superfitting) son cosas fundamentalmente diferentes.

Toda esta formación en cada nuevo bar se masca y se masca en este foro y en general dentro de AT.

En la lucha contra el sobreentrenamiento (overfitting) conozco dos métodos.

1. Limpieza del conjunto de predictores de los predictores no relacionados con la variable objetivo - limpieza del conjunto de predictores de entrada del ruido. Los primeros 100 mensajes de este hilo lo discutieron en detalle.

2. Teniendo el conjunto de predictores limpios de ruido, empezamos a ajustar el modelo con la muestra de entrenamiento, luego con la muestra de prueba y de validación, que son muestras aleatorias de un archivo. El error en los tres conjuntos debería ser aproximadamente el mismo.

3. A continuación, tome un archivo separado del anterior y ejecute el modelo en él. De nuevo el error debería ser más o menos el mismo que los anteriores.

4. Si estas comprobaciones se hacen con regularidad, entonces tu pregunta: "un desplome del 20% es una señal para el reentrenamiento" no vale en absoluto porque como resultado de los tres primeros pasos se obtiene el desplome como parámetro del modelo y sobrepasarlo dice que el modelo no funciona y que hay que empezar todo de nuevo.

 
SanSanych Fomenko:


En la cita el sobreentrenamiento es una consideración demasiado fina de los rasgos y usted tiene el engrosamiento es el sobreentrenamiento?

Tú lo sabes mejor. No es la primera vez.

Tampoco es la primera vez. Pero, ¿por qué sólo se ensucia? Otro ejemplo está justo en la definición: un modelo demasiado complejo encuentra algo que no existe: patrones aparentes.

Tienes una comprensión muy simplista o unilateral del sobreentrenamiento, en mi opinión.

SanSanych Fomenko:

El aprendizaje, el sobreentrenamiento y el sobreentrenamiento (overfitting) son cosas fundamentalmente diferentes.

Toda esta formación en cada bar nuevo se masca y se masca en este foro y en general dentro de AT.

En la lucha contra el sobreentrenamiento (overfitting) conozco dos métodos.

.....

4. Si haces estas comprobaciones con regularidad tu pregunta: "un desplome del 20% es una señal para el reentrenamiento" no vale en absoluto ya que los tres primeros pasos dieron como resultado un desplome como parámetro del modelo y superarlo dice que el modelo no es viable y hay que empezar desde el principio.

Pues sí. Pero no del todo masticado. La literatura considera seriamente esta opción: la enseñanza previa en el curso de una obra. Cómo y cuándo puede hacerlo, y cuándo no, es otra cuestión. Hay limitaciones en todas partes.