Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 45
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
OK, ¡es un muy buen rendimiento comercial en la historia! Enhorabuena.
¿Cómo se hacen varios predictores a partir de los rangos de un predictor? No lo entiendo.
Oh, es muy simple ) la agrupación...
1) Tomemos cada predictor y clustericémoslo en, digamos, 50 clusters (además podemos y debemos hacerlo en dos tipos 1) clusterización "tal cual" para clusterizar el predictor por valores numéricos y el segundo tipo 2) clusterización del predictor normalizado para clusterizarlo como imagen) juntos obtendremos todo como en la visión humana, conoceremos no sólo valores numéricos "reales" del predictor sino también la imagen - curvas, pendientes
2) Creamos una tabla donde las columnas son clusters, 50 clusters ---> 50 columnas ---> 50 predictores, comprobamos la importancia de estos predictores utilizando algún algoritmo y vemos que de los 50 predictores sólo 1-5 son importantes, los mantenemos
3) tomar el siguiente predictor, agruparlo y repetir los pasos 1 y 2
Esta selección dentro del predictor debería aumentar teóricamente la calidad del reconocimiento en órdenes de magnitud...
pero hay algunas desventajas
1) cálculos costosos
2) si cada predictor se divide uno por uno y su contenido se evalúa por separado del contenido de otros predictores, será imposible evaluar la correlación entre los predictores, por lo que habrá que resolverlo de alguna manera
Oh, es muy simple ) la agrupación...
1) Tomamos cada predictor y lo agrupamos en, digamos, 50 clusters (mientras que la agrupación puede y debe hacerse en dos tipos 1) agrupación "tal cual" para agrupar el predictor según los valores numéricos y el segundo tipo 2) agrupación del predictor normalizado para agruparlo como una imagen) juntos obtenemos todo como la visión humana, conoceremos no sólo los valores numéricos "reales" del predictor sino también la imagen - curvas, pendientes
2) Creamos una tabla en la que las columnas son clusters, 50 clusters ---> 50 columnas ---> 50 predictores, comprobamos la importancia de estos predictores utilizando algún algoritmo y vemos que de los 50 predictores sólo 1-5 elementos son importantes, los mantenemos
3) tomar el siguiente predictor, agruparlo y repetir los pasos 1 y 2
Esta selección dentro del predictor debería aumentar teóricamente la calidad del reconocimiento en órdenes de magnitud...
pero hay algunas desventajas
1) cálculos costosos
2) si cada predictor se desglosa uno por uno y su contenido se evalúa por separado del contenido de otros predictores, será imposible evaluar la correlación entre los predictores, lo que debe resolverse de alguna manera
Puedes probarlo así . En general, hay un método. Se hace un gráfico de puntos de salida-predicción. Lo ideal es que haya una buena dependencia. Pero si la dependencia es borrosa en algún segmento (normalmente en las colas), estas observaciones se excluyen.
¿cómo se llama este método?
¿hay alguno en el rc?
¿Cómo resolver el problema nº 2?
¿cómo se llama este método?
¿hay alguno en el rc?
¿Cómo resolver el problema nº 2?
Por cierto, a alguien le interesa esto o no, no lo entiendo. ¿Necesitas un robot entrenado que pase la validación en 5 años con beneficios?
Tal
Ya he vuelto de las vacaciones. Puedo preparar los archivos y publicarlos, y quien lo necesite lo mejorará por sí mismo.
Me interesa saber cómo has creado el robot punto por punto, si no es difícil...
1) seleccionar las características según su método
2) Has hecho el modelo
¿y eso es todo?
Me interesa saber cómo has creado el robot punto por punto, si no es difícil...
1) Seleccione las características según su método
2) Has construido el modelo
¿y eso es todo?
Este es un esquema general que siempre funciona.
Selecciono las características a través de la importancia después de la ejecución de GBM. Y pruebo diferentes números de selecciones. La máquina está entrenada mediante GBM y he probado diferentes funciones de fitness. Se utiliza la validación cruzada. Sus parámetros también varían. Y hay más matices.
En general, obtuve un resultado que demuestra que más complejo no siempre es mejor. En el caso del EURUSD, el modelo utiliza sólo 5 predictores y sólo dos faltas de validación cruzada.
Muy interesante la red neuronalhttp://gekkoquant.com/2016/05/08/evolving-neural-networks-through-augmenting-topologies-part-3-of-4/ ¿crees que se puede hacer que opere por sí misma y que aprenda de sus propios errores? Y si es así, cómo hacerlo.
Si el desarrollador dice que la red puede sustituir a un algoritmo de aprendizaje por refuerzo, esto es prometedor.
Es necesario experimentar. Pero el tema es interesante.
Si el desarrollador dice que la red puede sustituir a un algoritmo de aprendizaje por refuerzo, eso es prometedor.
Es necesario experimentar. Pero es un tema interesante.
Estoy de acuerdo, es interesante... Pero no tengo casi nada claro, empezando por la ideología y terminando por el propio código, hay demasiadas cosas y muchos operadores que ni siquiera conozco.
Si alguien pudiera explicarlo todo, al menos con ejemplos elementales, cómo utilizarlo en el trading, sería un buen experimento para gente tan inexperta como yo