Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3355
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
El modelo fuera de la caja no da las probabilidades correctas, ninguna de ellas. Ésa es la historia. Puede haber predicho etiquetas que coinciden completamente, pero las probabilidades no.
Añadido mi post. Cualquier modelo da probabilidades correctas en el sentido de que el error de clasificación no fluctuará.
De alguna manera no estás prestando atención a mis posts, centrándose en las probabilidades. No importa cómo se llame la probabilidad, lo que importa es que si no mejora, el modelo está sobreentrenado, en la papelera. El error de predicción en OOV, OOS y VNU debería ser más o menos el mismo.
Aquí hay otro histograma
Diferente algoritmo - diferente histograma, aunque las etiquetas y los predictores son los mismos. Si usted está buscando algún tipo de probabilidad teórica, lo que implica que diferentes algoritmos de clasificación producirá los mismos histogramas ... que no se me ocurre, ya que hay que trabajar con algoritmos específicos y van a predecir y tienen que ser evaluados, no algún ideal teórico. La evaluación principal aquí es el sobreajuste del modelo, no la proximidad de las probabilidades a algún ideal teórico.
¿Rendirse? Googlea calibración de probabilidad de clasificación, debería estar en R.
.
Estamos hablando de cosas diferentes.
Yo estoy escribiendo sobre el resultado, y usted está escribiendo sobre el ideal de los datos intermedios.
Para mí es obvio que los valores de probabilidad de etiquetas específicas dadas por RF y ada serán diferentes, pero las predicciones de etiquetas específicas son casi las mismas. No me interesan los valores de probabilidad, sino el error de predicción.
Si teorizas, lo más probable es que sea imposible obtener la probabilidad de clase en tu sentido, ya que tienes que demostrar que tu probabilidad satisface el teorema del límite, lo cual es muy dudoso.
Estamos hablando de cosas diferentes.
Yo estoy escribiendo sobre el resultado, y tú estás escribiendo sobre el ideal de los datos intermedios.
Los valores de probabilidad de clase dados por RF y ada serán diferentes, pero las predicciones de etiquetas específicas son casi las mismas. No me interesan los valores de probabilidad, sino el error de predicción.
Si teorizas, lo más probable es que sea imposible obtener la probabilidad de clase en tu sentido, ya que tienes que demostrar que tu probabilidad satisface el teorema del límite, lo cual es muy dudoso.
Aún así, la pregunta original estaba ahí, nadie respondió.
¿Por qué? Si en el sentido de una tesis....
¿Por qué? Si en el sentido de una tesis....
Esperaba que al menos alguien buscara el dato en Google.
Muestra el resultado del modelo en rangos de "probabilidad" con un paso de 0.05. CatBoost sitúa la separación de clases en 0.5 con bastante precisión (magnetta es 1, aqua es 0).
Puede ver que el resultado de la aleta es positivo a partir de 0,35: la curva verde se eleva por encima de la curva roja.
¿Es esto lo que quiere calibrar, desplazar el punto de separación de clases al punto de generación de ingresos?
¿Es eso exactamente lo que se quiere calibrar: desplazar el punto de división de clases al punto de generación de ingresos?