Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 351
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
En realidad, esto no es correcto, imho.
A medida que el sistema se vuelve más complejo, la rentabilidad y la estabilidad deberían aumentar al mismo tiempo. Es decir, a medida que el sistema se vuelve más complejo, sus propiedades para el usuario deberían aumentar.
Absolutamente NO es correcto.
Los criterios informativos, varios acaics allí, tienen como objetivo minimizar la complejidad del modelo. El engrosamiento del modelo es una herramienta muy eficaz contra el principal mal del comercio: el sobreentrenamiento.
Maxim Dmitrievsky:
Al diablo con eso.
Basta con tomar el más sencillo: un bosque aleatorio. Por lo general, recibimos clases como resultado de la formación. En realidad el algoritmo da la probabilidad de una clase de la que obtenemos una clase. Por lo general, dividimos la probabilidad a la mitad para dos clases.
¿Qué tal si se divide en clases: 0 - 0,1 es una clase y 0,9 - 1,0 es otra clase? ¿Y la diferencia entre 0,1 y 0,9 está fuera del mercado?
Esto es lo que he visto en el artículo.
Completamente NO es cierto.
Los criterios informativos, varios acaics allí, tienen como objetivo minimizar la complejidad del modelo. La simplificación del modelo es una herramienta muy eficaz para combatir el principal mal del trading: el sobreentrenamiento (overfitting).
No sé por qué está mal). A partir de la segunda frase estamos hablando de lo mismo.
Hay un texto en mi post que no es correcto. Entonces revelas esta posición.
La regla general es: conseguir un gran sistema en términos de rentabilidad y luego empeorarlo en términos de rentabilidad, con la esperanza de ganar algo mucho más importante: la sostenibilidad en el futuro.
Hay un texto en mi post que no es correcto. Usted expone aún más esta posición.
La regla general es: conseguir un gran sistema en términos de rentabilidad, y luego empeorarlo en términos de rentabilidad, con la esperanza de conseguir algo mucho más importante: la sostenibilidad en el futuro.
Pues bien, a medida que aumenta la estabilidad, también lo hace la rentabilidad, al menos reduciendo el número de operaciones perdedoras. Las rentables se ven afectadas en menor medida.
Si no es así, entonces hay algo que falla en la informatividad de los predictores. En cualquier caso, la relación beneficio/pérdida sólo debería crecer con el aumento de la complejidad.
La estabilidad aumenta, y también la rentabilidad, al menos reduciendo el número de operaciones perdedoras. Las rentables se ven afectadas en menor medida.
Si no es así, entonces hay un problema con la información de los predictores. De todos modos, la relación beneficio/pérdida debe crecer junto con la complicación.
Tú lo sabes mejor, aunque todo el mundo opina exactamente lo contrario.
La estabilidad aumenta, y también la rentabilidad, al menos reduciendo el número de operaciones perdedoras. Las rentables se ven afectadas en menor medida.
Si no es así, entonces hay un problema con la información de los predictores. En cualquier caso, con el aumento de la complejidad, la relación entre beneficios y pérdidas no puede sino crecer.
Faa escribe la idea correcta, pero la expone incorrectamente.
Tienes una serie y un conjunto de predictores. Se divide la serie en tres partes: muestra de entrenamiento y avance (caso más sencillo).
Se construyen, por ejemplo, 20 modelos.
La cuestión es que la selección de un modelo de la lista no se realiza por el mejor en la muestra de entrenamiento y no por el mejor en la de avance. Se selecciona un modelo que da las mismas puntuaciones de calidad tanto en el entrenamiento como en el avance.
Tú lo sabes mejor, aunque todo el mundo opina exactamente lo contrario.
La esencia - la selección de un modelo de la lista no se basa en el criterio del mejor en la muestra de entrenamiento y no en el criterio del mejor en el avance. Se selecciona un modelo que da casi la misma calidad en la muestra de entrenamiento y en la de avance.
Esto no está en duda. Sólo se trataba del funcionamiento real o de las pruebas del sistema.
En realidad, esto no es correcto, imho.
A medida que el sistema se vuelve más complejo, la rentabilidad y la estabilidad deberían aumentar al mismo tiempo. En otras palabras, a medida que el sistema se vuelve más complejo, sus propiedades para el usuario deberían aumentar.
Utilizando el ejemplo del desarrollo de la mano:
1. tomamos una idea de trading desnuda y creamos un TS simple, optimizando el beneficio (las pérdidas pueden ser completamente ignoradas).
2. Introducir restricciones que minimicen el número de operaciones perdedoras. Por supuesto, parte de las operaciones accidentalmente rentables se irán y en parte de las rentables el beneficio disminuirá, pero los drawdowns también disminuirán, y como resultado la suma de beneficio-pérdida aumentará.
Una mayor complicación sólo conduce a un aumento de los beneficios, al menos debido a la disminución del número de operaciones perdedoras.
Si la cantidad de pérdidas y ganancias no aumenta como resultado de la complicación, debemos estar haciendo algo mal. Por ejemplo, introducimos condiciones ineficientes.
Qué error, está creando un modelo de clasificación. Cuanto más grande es la muestra, más fuerte es la generalización, el modelo se vuelve más estable en general y menos preciso en las particularidades, por lo tanto, menos beneficio
Si lo entrenas con una muestra pequeña, puede ser muy preciso en una muestra corta, pero inestable en una larga