Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3358
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
No he visto este tema, tal vez me lo perdí (solía leer más Cyberpawk). Se trata de modelos que producen distribuciones de probabilidad en lugar de valores numéricos específicos. No quiere decir que sea un enfoque completamente nuevo, pero en los últimos años ha habido un notable aumento de interés en este tema.
Ha habido muchos intentos, pero no conozco sus resultados públicos satisfactorios. Lo más simple que se ha hecho es tratar la salida de una sola neurona como la probabilidad de una venta/compra en el rango [-1.0;1.0], nada bueno salió de eso, aplicar un umbral no ayuda.
Otra cosa es que sea posible aplicar la distribución de salidas de neuronas como probabilidad, pero no he visto a nadie hacerlo. Por ejemplo, para las mismas señales de venta/compra de la neurona de salida de la red durante el entrenamiento, la distribución de valores puede ser muy diferente, por lo que el comportamiento en OOS será diferente.
Además, hace tiempo que mostré gráficos de entrenamiento y comportamiento en OOS, donde la línea va sin romperse, por supuesto sin spread, y la entrada se daban incrementos de mashka simple de diferentes timeframes, elementales. Y aquí unos genios de repente sacaron la "brillante" conclusión de que el spread afecta al comportamiento en OOS.
Bueno, ha habido muchos intentos, pero no conozco sus resultados públicos exitosos. Lo más sencillo que se hizo fue tratar la salida de una sola neurona como una probabilidad de venta/compra en el rango [-1.0;1.0], nada bueno salió de ello, aplicar un umbral no ayuda.
Otra cosa es que se pueda aplicar la distribución de salidas de las neuronas como probabilidad, pero no he visto a nadie hacerlo. Por ejemplo, con las mismas señales de venta/compra de la neurona de salida de la red durante el entrenamiento, la distribución de valores puede ser muy diferente, por lo que el comportamiento en OOS será diferente.
Además, hace tiempo que mostré gráficos de entrenamiento y comportamiento en OOS, donde la línea va sin romperse, por supuesto sin spread, y a la entrada se le daban incrementos de mashka simple de diferentes timeframes, elementales. Y aquí unos genios de repente sacaron la "brillante" conclusión de que el spread afecta al comportamiento en OOS.
Aún así, la clasificación es un caso especial relativamente simple, en el que la distribución de la salida es discreta y, por lo tanto, todo es relativamente fácil de reducir al habitual "punto", problema numérico de MO.
Un enfoque más amplio es interesante, con modelos para los que la salida no es un número, sino cualquier distribución (dentro de límites razonables, por supuesto). Un ejemplo es la MO utilizada en la teoría de la fiabilidad (donde se estudia la distribución de la vida útil) o en la previsión meteorológica probabilística (donde se construye una distribución de probabilidad para la posible cantidad de precipitaciones, por ejemplo).
...
Es interesante un enfoque más amplio, con modelos para los que el resultado no es un número, sino cualquier distribución (dentro de unos límites razonables, por supuesto). Un ejemplo sería el modus operandi utilizado en la teoría de la fiabilidad (donde se estudia la distribución de la vida útil) o en la previsión meteorológica probabilística (donde se construye una distribución de probabilidad para la posible cantidad de lluvia, por ejemplo).
Formar una distribución de probabilidad durante el entrenamiento, no después.
Y después del entrenamiento, ¿para qué sirve hacer nada? Un hipotético tonto de las máquinas no adquirirá nuevos conocimientos si se le pellizca con un destornillador después del entrenamiento.
Ya he descrito el ejemplo más arriba. Hay un clasificador que pasa el OOS, pero los rendimientos se distribuyen 60/40. No te gusta, subes el umbral de decisión, pero la situación no cambia, y a veces incluso empeora. Te rascas la cabeza para saber por qué es así.
Se da una explicación: porque en el caso de una estimación de probabilidad real la situación debería cambiar.
Se da una solución.
¿Cómo encuentras imbéciles como este Karpov?
La cabeza del hombre es un desastre. El hombre es incapaz de pensamiento coherente. ¡Es simplemente espeluznante!
Desde los primeros minutos simplemente afirma que el clasificador no da la probabilidad. ¿Y de dónde se puede sacar la probabilidad sin usar lo que da el clasificador?
¿Cómo encuentras imbéciles como este Karpov?
La cabeza del hombre es un desastre. El hombre es incapaz de pensamiento coherente. ¡Eso es simplemente espeluznante!
Bueno, ¿también te invitaron a trabajar en Inglaterra con tu papilla? )
al hombre no le importa en absoluto, lo está haciendo bien.
No entender el punto ! = entenderlo mal. Son personas de una formación un poco diferente, ese es probablemente el problema.
Hace tiempo que es obvio que el topic necesita sangre nueva. Yo también soy ya un oldfag. Los nuevos vendrán y se dejarán ver, si al final el foro no se enmohece claro.
Lo peor es que entiendo qué cambios se producen en el cerebro con la edad, y por qué la gente razona de esta manera y no de otra. Esta obviedad a veces es hilarante, pero no hay quien la quite.
¿También te han invitado a trabajar en Inglaterra con tus gachas? )
al hombre no le importa en absoluto, le va bien.
No captar la idea ¡ = no ponerla bien. Se trata de personas de una formación ligeramente diferente, ese es probablemente el problema.
Hace tiempo que es obvio que el topic necesita sangre nueva. Yo también soy ya un oldfag. Los nuevos vendrán y se dejarán ver, si al final el foro no se enmohece claro.
Lo peor es que entiendo qué cambios se producen en el cerebro con la edad, y por qué la gente razona de esta manera y no de otra. Esta obviedad a veces es hilarante, pero no hay quien la quite.
¿Qué tiene esto que ver con Inglaterra?
Pareces una persona cualificada, pero te arrastran constantemente al cubo de la basura.
Rara vez discutes sobre los méritos....
¿Qué tiene que ver Inglaterra?
Pareces un hombre cualificado, pero siempre te arrastras al cubo de la basura.
Usted muy rara vez hace objeciones de fondo...
Los clasificadores como el método de vectores de soporte y los árboles de decisión tienen la función predict_proba porque pueden proporcionar estimaciones de probabilidades de clase basadas en sus características internas. Sin embargo, estas estimaciones de probabilidad pueden no ser completamente precisas o no reflejar la confianza real del clasificador.
Porejemplo, para el método de vectores soporte , la funciónpredict_proba puede devolver estimaciones de probabilidad basadas en la distancia al hiperplano de separación, pero estos valores pueden estar sesgados debido a características del propio método.
Para los árboles de decisión , la funciónpredict_proba puede calcular las probabilidades de clase basándose en el número de objetos de cada clase en los nodos hoja, pero estas probabilidades pueden no ser del todo precisas debido a la estructura del árbol.
Por lo tanto,aunque estos clasificadores tengan una funciónpredict_proba, las probabilidades que proporcionan pueden ser menos fiables en comparación con los métodos basados en un modelo probabilístico, como un clasificador bayesiano ingenuo o una regresión logística.