Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3359
![MQL5 - Lenguaje de estrategias comerciales para el terminal de cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Presento un pequeño experimento para <removed by moderator>.
Entrenado algún modelo, da igual cual, sin calibrar no mejora sus propiedades al aumentar el umbral. Los acuerdos son menores, el beneficio futcor no crece.
Calibrado de la manera disponible, corrió con diferentes umbrales. La calibración fue después de 2015, todo antes de eso es OOS.
El método es personalizado, se me ocurrió a mí mismo. Luego lo compararé con los conocidos, porque hay una pequeña pega en su exportación a MT5, luego decidiré.
umbral 0.5
0.6
0.7
Un ejemplo sencillo de que la calibración de modelos incluso inicialmente débiles da algún resultado.
CHTD
Lee los artículos, lee los artículos de los enlaces.
Extraña impresión.
Según los artículos el punto de calibración es suavizar de una manera u otra. y ¿qué es mejor que establecer umbrales en las probabilidades suavizadas y en las probabilidades no suavizadas? No hay estimación, aunque para mí hay una estimación es el error de clasificación.
si tiene algún sentido.
Nuevo negocio: venta de predictores
Un ejemplo sencillo es que la calibración de modelos incluso inicialmente débiles da algún resultado.
La calibración es un mecanismo para interpretar el rendimiento del modelo, ajustado a determinados datos.
Por sí mismo no modifica los valores de salida del modelo. La variante en la que después de la cuantificación los rangos se reordenan debido a un pico en la proporción de clase - no he visto esto en los modelos - todo fluye siempre sin problemas. Tal vez si se divide en 100 segmentos, entonces esto ocurrirá....
Según sim, la calibración en general conduce a un desplazamiento del punto 0,5 - más a menudo en el lado más grande. Así que sin calibración se puede encontrar un punto de este tipo - por qué no lo hizo es bastante claro, especialmente si usted tiene el mismo Take Profit y Stop Loss para todas las posiciones. Si no son los mismos, entonces usted necesita un enfoque completamente diferente - calibración por matriz de expectativas :)
La calibración es un mecanismo de interpretación del rendimiento del modelo, ajustado a determinados datos.
Por sí mismo no modifica los valores de salida del modelo. La variante cuando después de la cuantificación se produce la reordenación de los rangos debido a un aumento de la proporción de clase - no la he visto en los modelos - todo fluye siempre sin problemas. Tal vez si se divide por 100 segmentos, entonces esto ocurrirá....
Según sim, la calibración en general conduce a un desplazamiento del punto 0,5 - más a menudo en el lado más grande. Así que sin calibración se puede encontrar un punto de este tipo - por qué no lo hizo es bastante claro, especialmente si usted tiene la misma Take Profit y Stop Loss para todas las posiciones. Si no son los mismos, entonces usted necesita un enfoque completamente diferente - calibración por matriz de expectativas :)
No estoy agitando a nadie en absoluto. Hay un montón de enfoques, la pregunta era sobre el conocimiento de la MO
Siempre hay una cura mágica para todos los problemas: optimizar todo lo que se mueve.No estoy haciendo campaña en absoluto. Hay muchos enfoques, la pregunta era sobre el conocimiento de MO
Bueno, yo personalmente no asocio la respuesta del modelo con la probabilidad de abandono de una clase, lo tomo como la confianza del modelo en la definición de la clase. La confianza se cuenta por hojas, y las hojas se cuentan por la muestra de entrenamiento. Aquí una sola hoja mostrará la probabilidad de abandono de la clase. Como cada hoja no tiene respuestas en todos los puntos de la muestra, resulta que la suma de probabilidades está distorsionada en la respuesta final del modelo. Tal vez hay una manera de corregir a este nivel - y estoy interesado en ello - Traté de convertir la discusión en esta dirección.
En mi opinión - la solución es agrupar las hojas por puntos de respuesta similares y la posterior transformación de la media de los resultados resumidos de los grupos....
Bueno, yo personalmente no asocié la respuesta del modelo con la probabilidad de abandono de la clase, sino que la tomé como la confianza del modelo en la detección de la clase. La confianza se basa en las hojas, y las hojas se basan en la muestra de entrenamiento. Aquí una sola hoja mostrará la probabilidad de abandono de clase. Como cada hoja no tiene respuestas en todos los puntos de la muestra, resulta que la suma de probabilidades está distorsionada en la respuesta final del modelo. Tal vez haya una manera de corregir a este nivel - y estoy interesado en ello - esa es la dirección en la que estaba tratando de girar la discusión.
En mi opinión - la solución es agrupar las hojas por puntos de respuesta similares y la posterior transformación de la media de los resultados resumidos de los grupos....
Lo siento, pero sin referencias a las bibliotecas, cuadernos o artículos, todavía lo tomo más o menos como sigue