Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1885
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Sí, hay que pasar por todo, si no, no se puede.
Prueba a jugar, es bueno para entender cómo influyen los parámetros en los resultados.
Sí, lo he visto, lástima que no puedas meter el tuyo.
Prueba a reducir lerning_rate para empezar.
Bonita foto, se ve claramente a dónde fue el sobreentrenamiento
Intercambiando sus racimos, tal como dije
Y el error es del 0,82% en los nuevos datos
Deberías haberme hecho caso cuando te dije que hicieras un centro comercial y lo comprobaras, e hiciste algunos optimizadores, parsers y otras chorradas.
La red normal parece ser mejor que la lstm. Y Tanh es mejor que Relu.
Los parámetros de la red son los mismos en todas partes. Los datos están normalizados en un rango de +-1.
A la izquierda se muestran los errores de trayn y las validaciones de las épocas. En el centro está la salida neta en la bandeja y el punto de referencia. A la derecha se muestra el resultado neto de las validaciones y el punto de referencia.
tanh
relu
lstm
Tuve que pasar mucho tiempo con lstm para que se fuera de 0,5. Y el resultado no era muy bueno y la ventana de parámetros era muy estrecha. Y me llevó unos 10 minutos entrenarlo. Pero aquí la red estuvo practicando durante algo más de un minuto. Dicen que lstm tarda más en entrenarse, en este ejemplo las redes se entrenaron en el mismo tiempo (upd sin embargo lstm tarda más en entrenarse).
La red normal parece ser mejor que la lstm. Y Tanh es mejor que Relu.
La configuración de la red es la misma en todas partes.
tanh
relu
lstm
Tuve que agitar las cosas con lstm durante mucho tiempo para que desapareciera de 0,5. Y el resultado no era muy bueno y la ventana de parámetros era muy estrecha. Y me llevó unos 10 minutos entrenarlo. Pero aquí la red estuvo practicando durante algo más de un minuto. Dicen que el lstm tarda más en entrenarse, en este ejemplo las rejillas se entrenan en el mismo tiempo.
Tengo un NS primitivo sin entrenamiento. No veo el sentido de entrenar, no estoy desanimando a nadie ni mucho menos.
El gráfico de barras en porcentaje indica la probable dirección futura del movimiento.
Es importante alimentar la red con la información correcta.
Si alimentas la basura. El resultado con cualquier paquete será caótico.
Espero que quede claro que el azul está arriba y la zanahoria abajo.
normal es la Densidad Secuencial ?
Sí
algún tipo de activación no funciona con valores negativos, no entró en eso?
No había pensado en eso. tanh +-1, relu 0-inf
La actualización miró los ejemplos, relu todavía lleva a 0 promedio.
Tengo un NS primitivo sin entrenamiento. No veo el sentido de entrenar, no estoy desanimando a nadie ni mucho menos.
El gráfico de barras en porcentaje indica la probable dirección futura del movimiento.
Es importante alimentar la red con la información correcta.
Si alimentas la basura. El resultado con cualquier paquete será caótico.
Espero que quede claro que el azul está arriba y la zanahoria abajo.
m5 corto, d1 compra, otros están de acuerdo.
m5 corto, d1 compra, de acuerdo con los demás.
Ha habido un cambio en una hora.
Comerciando con tus racimos, tal y como te dije.
y aunque el error en los nuevos datos es del 0,82%.
Así que deberías haberme escuchado cuando te dije que hicieras un centro comercial y que miraras de una vez, y que fueras unos optimizadores, analizadores sintácticos y otras mierdas de sierra
no es una mierda sino un caramelo...
todo debería funcionar como un reloj, estás haciendo algo mal
pero no tengamos una discusión pública al respecto. Porque me imaginaba el dinero fluyendo en mis bolsillos después de tan ingenioso descubrimiento. No quiero compartirlo con nadie.