Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 75
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Por eso Dr.Trader no podía ejecutar una libVMR completa reescrita en R - demasiados cálculos y demasiado consumo de memoria.
Tenía un error en mi código en la función de conversión del núcleo grande. Atach tiene la misma versión antigua 3.01 pero con arreglo. La memoria está ahora bien, así como el gran núcleo. Pero será más lento que java.
Tenía un error en mi código en la función de conversión del núcleo grande. Atach tiene la misma versión 3.01, pero con un arreglo. La memoria está bien ahora, al igual que el gran núcleo de la máquina. Pero la velocidad es más lenta que en java.
Lo más desagradable es que la velocidad está por debajo del zócalo.
Además, libVMR es un clasificador binario, lo que no es bueno. Ternario puede hacer un objeto dulce de la mierda:
En el propio predictor el nivel de generalización de los datos es del 90%, pero en el modelo descargado es sólo del 47% No es claro.... Y todavía no ha funcionado en MQL....
Poco a poco he ido aumentando el nivel de generalización del modelo hasta el 100%, a ver cómo funciona en el futuro :-)
La generalización al 100% no es el límite. Podemos mejorar esto aún más seleccionando los predictores por sesgo. Si dos clasificadores ternarios tienen una capacidad de generalización del 100%, pero sesgos diferentes, el clasificador con el sesgo más bajo será mejor: tiene más predictores significativos.
Cuanto menor sea el sesgo, menos ejemplos de la muestra de prueba se marcarán con un guión (incertidumbre).
La generalización al 100% no es el límite. Podemos mejorar esto aún más seleccionando los predictores por sesgo. Si dos clasificadores ternarios tienen un 100% de generalizabilidad pero diferentes sesgos, el clasificador con el menor sesgo será el mejor, ya que tiene más predictores significativos.
Cuanto menor sea el sesgo, menos ejemplos de la muestra de prueba estarán marcados con guiones (incertidumbre).
Llevo mucho tiempo preguntándome y preguntando. ¿Qué significa el parámetro Indicador de Reshetov y qué significa? ¿Qué significa?
La cuestión es que es un buen indicador para la capacidad de aprendizaje, pero no tiene ningún sentido para la capacidad de generalización. Por eso lo quitaré en las próximas versiones de jPrediction, para que no sea una molestia.
La cuestión es que es un buen indicador para la capacidad de aprendizaje, pero no tiene sentido para la capacidad de generalización. Por eso en las próximas versiones de jPrediction lo eliminaré para que sea menos molesto.
Yuri, una pregunta. ¿Puede un predictor dar probabilidades en lugar de clases?
Yuri, una pregunta. ¿Puede un predictor producir probabilidades en lugar de clases?
No, las probabilidades se calculaban en versiones muy tempranas de libVMR, pero existía el gran problema de que todos los predictores debían ser estrictamente independientes entre sí para calcular correctamente el valor de la probabilidad. Y hacer cumplir esa condición en muchos ámbitos de aplicación no es en absoluto realista. Por ejemplo, casi todos los indicadores y osciladores en el comercio se correlacionan entre sí, es decir, no son independientes. Además, la condición de independencia en el algoritmo, en su ausencia en los datos, tiene un impacto negativo en la capacidad de generalización. Por lo tanto, había que abandonar esa dirección sin salida.
Ahora jPrediction no presta atención a la independencia de los predictores, sino sólo al valor de la generalizabilidad. Esto se debe a que varios predictores pueden complementarse entre sí, es decir, algunos ejemplos darán buenos resultados para algunos predictores, otros para otros, y combinaciones de predictores para otros. El cálculo de probabilidades en estas condiciones puede tener un margen de error muy grande y muy cuestionable.