Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 629
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Maxim, bueno, no entrenes la red en el optimizador MT. El entrenador NS y el optimizador son algoritmos completamente diferentes con criterios de optimización completamente diferentes.
Si todavía utiliza esa estructura NS, que dibujó antes, entonces es un poco simple - débil para el mercado. Ya escribí que sólo tuve éxito cuando llegué a la estructura 15-20-15-10-5-1. Y esto es sólo para un tipo de operaciones. También hice absolutamente todo con los métodos descritos por Haikin, es decir, nada nuevo, sin trucos.
Las estructuras más sencillas estaban mal formadas.
¿Ha intentado tomar no el número de capas sino el número de neuronas en una capa? ¿Por ejemplo, 15-200-1 o 15-200-20-1?
De hecho, los datos necesarios para la formación no son muchos, sino muchísimos. Con una muestra pequeña, NS no obtendrá nada útil.
¿Y cuántos datos toma? Tomo 86000 cuerdas para la formación.
1) ¿Has probado a tomar no el número de capas, sino el número de neuronas en una capa? ¿Por ejemplo, 15-200-1 o 15-200-20-1?
2) ¿Y cuántos datos toma? Llevaba 86000 líneas para la formación.
1. No lo he probado. 20 en la primera capa es suficiente. Se ha ido incrementando tanto las neuronas por capa como las capas.
2. Tuve alrededor de 12000 filas en el entrenamiento con barajado intermedio entre N épocas. Después de algunas épocas, los datos de entrenamiento fueron sustituidos por otros datos que no habían participado en el entrenamiento.
Me disculpo por el insulto, pero deberías releer tu post. Parece bastante ambiguo.
Lo mismo. Los MLP no son relevantes desde hace mucho tiempo, el aprendizaje profundo es tendencia desde hace mucho tiempo. Y una red es bastante capaz de procesar datos heterogéneos, lo principal es la arquitectura.Y en general tienes razón, pero sólo en lo que respecta a la primera capa de la red neuronal. Si la retroalimentación va a la segunda y siguientes capas o en general a las capas de la red paralela, su afirmación no será válida.
En ese caso, Maxim debería pensar en profundizar en la red y llevar la retroalimentación a las capas ocultas.
Y qué hay de:
Estoy de acuerdo, pero cómo combinar la profundidad con todos esos trucos que surgieron :) en el optimizador será un poco largo de aprender ... pero muy, muy alta calidad, porque allí y el comercio pasa a la vez
Creo que más de 30 pesos no es una opción para el optimizador.
+ Mucha gente se olvida de que hay una nube, que en general es genial para trabajar con todas estas cosas, pero hay que ser muy bueno en la optimización del código.
Estoy de acuerdo, pero cómo combinar la profundidad con todos esos trucos que surgieron :) en el optimizador será un poco largo de aprender ... pero muy, muy alta calidad, porque allí y el comercio pasa a la vez
Creo que más de 30 pesos no es una opción para el optimizador.
+ Creo que mucha gente olvida que hay una nube, a través de la cual todas estas cosas son divertidas de trabajar, pero hay que optimizar muy bien el código.
Intenta duplicar la capa de entrada.
Lo mismo. Los MLP ya no son relevantes, el aprendizaje profundo es tendencia desde hace tiempo. Y una red es bastante capaz de procesar datos heterogéneos, lo que importa es la arquitectura.Prueba a duplicar la capa de entrada.
Si los MLP pueden resolver un problema, ¿qué diferencia hay en que sean relevantes o no? Especialmente con los MLP no tienes que esforzarte: hay de todo para ellos prácticamente en todas partes.
No estoy tratando de doblegarte a nada. El aprendizaje en profundidad comienza con los MLP.
Además, hay de todo y en todas partes para el aprendizaje profundo. =)Pero cuando se trata de la representación de los datos dentro de una red, su movimiento y transformaciones, se plantean naturalmente cuestiones sobre la activación, las capas recurrentes, la regularización, la combinación de capas, etc. Eso sí que es aprendizaje profundo.
Si los MLP pueden resolver un problema, ¿qué diferencia hay en que sean relevantes o no? Especialmente con los MLP no tienes que esforzarte: hay de todo para ellos prácticamente en todas partes.
Bueno, yo no te inclino a nada. El aprendizaje profundo comienza sólo con los MLP.
Pero cuando se trata de la representación de los datos dentro de la red, su movimiento y transformaciones, se plantean naturalmente cuestiones sobre la activación, las capas recurrentes, la regularización, la combinación de capas, etc. Esto es un aprendizaje profundo.
Lo entiendo, pero me refiero a otra cosa. Para el problema de los dos tubos no se necesitan matemáticas superiores, sólo aritmética. Que la aritmética sea relevante o no es otra cosa.
Es decir, primero hay que definir el problema y luego elegir los métodos de solución.
En cuanto a las grandes y complejas DM - DL, la MLP está ciertamente muy pasada de vueltas.
Es que el profundo puede aprender mucho más rápido aún, en igualdad de condiciones... no 10 horas sino 5 minutos, por ejemplo :)