Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1050
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Sólo un recordatorio de que Aleshenka y Koldun (parecen ser los únicos aquí que tienen algún éxito en el comercio de las redes neuronales)
¿Alguna prueba de ello?
Alexander_K:
Mucho tiempo para preparar los datos de entrada.
Es algo estándar, incluso un principiante en MO diría "la basura en la entrada es la basura en la salida".
Yo, deliberadamente, con mis posts, provoco sus comentarios :))) Ay, guarda ese secreto...
))) divertido
¿Tienes alguna prueba?
Casi siempre borran sus mensajes, sólo hay que comunicarse con ellos en línea.
Casi siempre borran sus mensajes, sólo hay que comunicarse con ellos en línea.
Ahh, bueno, eso tiene sentido entonces...
Casi siempre borran sus mensajes, sólo hay que comunicarse con ellos en línea.
Ellos borran sus mensajes para no avergonzarse) y tú mantienes mitos sobre ellos
Los borran para no avergonzarse) y tú mantienes mitos sobre ellos.
Puede ser, Max - sin argumentos :))
¿Y Reshetov? Pues sí, conoce el MSUA, lo dijo una vez.
La propia idea de enumerar predictores, crear modelos y luego crear modelos de complejidad creciente es, en mi opinión, muy correcta.
Pero tal vez sea un error no buscar predictores sino soluciones de sistemas comerciales en un entorno o algo más...
Pero construir modelos uno encima del otro, apilados o algo más es, en mi opinión, demasiado. Porque si realmente están aprendiendo basura, no servirá de nada, son algunas fracciones de mejora que no significan nada.
No hay error, sólo que no hay patrones consistentes )
Por cierto, al trastear con el software de Reshetov, ya sea por el nombre del subdirectorio de la biblioteca del programa o por lo que me encontré en
http://www.gmdh.net/gmdh.htm
así que debe ser lo mismo. Allí sólo las librerías en Java y su programa también.
Y luego tiene un tándem de 2 clasificadores - SVM y MLP, que se entrenan iterativamente en características transformadas. Por eso tarda tanto en funcionar todo.
Pero construir modelos uno encima del otro, para apilarlos o algo más es, en mi opinión, una exageración. Porque si realmente están aprendiendo basura, no sirve de nada, son algunas fracciones de mejora, que no significan nada.
No hay que hacer algo más complicado a partir de algo más primitivo, es un principio natural, que derivamos del esperma)) o de una idea si se mira más allá). Y ahora ya somos mayores)
Así que no hay nada de malo en complicar el modelo, además, la complicación se comprueba mediante un criterio externo e interno, se mide el error dentro y fuera de la muestra, si el error aumenta con la complicación, el algoritmo se detiene... aún no lo he utilizado pero el método me atrae mucho
No hacer algo más complejo a partir de lo más primitivo, es un principio de la propia naturaleza, derivamos de los espermatozoides)) o del pensamiento si se mira aún más lejos...)
Así que no hay nada de malo en complicar el modelo, además, la complicación se comprueba por criterio externo e interno, es decir, se mide el error dentro y fuera de la muestra... en fin, yo no lo he aplicado, pero el método me atrae mucho
tomamos una matriz habitual con atributos, en cada iteración añadimos un nuevo atributo compuesto de todos los atributos, volvemos a entrenar, cambiamos este atributo por uno más complejo a través del polinomio de Kolmogorov, volvemos a entrenar cinco veces... hasta que el error baje
pero en la práctica, eso no va a ocurrir con datos ruidosos.
si el error sigue siendo malo, toma todos estos signos polinómicos y úsalos para crear nuevos signos :) pero necesitas una red neuronal muy rápida o un modelo lineal, de lo contrario tendrás que esperar un año
o incluso más fácil - tomar la SVM kernelizada o la NN profunda y obtener el mismo resultado (simplemente añadiendo capas en la red neuronal se puede obtener exactamente el mismo resultado que en los rasgos transformados) es decir, los milagros ocurren
Dice que el GMDH es el primer análogo del NN profundo
Tomamos una matriz ordinaria con atributos, en cada iteración añadimos un nuevo atributo compuesto de todos los atributos, volvemos a entrenar, cambiamos este atributo por uno más complejo a través del polinomio de Kolmogorov, volvemos a entrenar cinco veces... hasta que el error baje
Pero en la práctica, eso no va a ocurrir con datos ruidosos.
si el error sigue siendo malo, toma todos estos signos polinómicos y úsalos para crear nuevos signos :) pero necesitas una red neuronal muy rápida o un modelo lineal, de lo contrario tendrás que esperar un año
o incluso más fácil - tomar kernelized SVM o NN profunda y obtener el mismo resultado (simplemente añadiendo capas en la red neuronal se puede obtener exactamente el mismo resultado que en las características transformadas), por lo que los milagros ocurren
Dice que el GMDH es el primer análogo del NN profundo
Puede que sí, no lo discutiré o puede que no)) Sólo añadiré que el trader con un super robot que usaba GMDH no aplicaba un polinomio en las pruebas sino series de Fourier (armónicos) y como sabemos el análisis del espectro de Fourier no es aplicable a los mercados financieros porque está diseñado para funciones periódicas, pero sin embargo funcionaba y por igual) Así que, el infierno sabe, hay que probarlo todo....
y, sin embargo, funcionó para el hombre, y cómo.
¿Hay una continuación de la historia?
He observado que si un sistema de comercio da sólo resultados positivos, entonces habrá una pérdida permanente - estamos hablando de TS con lote fijo y stoplosses