Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2253
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Digamos (no todo el código de Python tiene sentido para mí). ¿Dónde está la formación de esta BAE?
¿Está en pyTorch?todo en la antorcha
el codificador funciona, sólo que los resultados son peores
en resumen, el modelo de distancia de Kullback-Leibner es muy difícil de aprender, es un problema descrito con los codificadores de variaciones
de hecho, el algoritmo "converge" después de 2-3 épocas y no pasa nada más
Uno de los principales inconvenientes de los autocodificadores variacionales es que la integral del término de divergencia KL no tiene una solución analítica de forma cerrada, excepto para un puñado de distribuciones. Además, no es sencillo utilizar distribuciones discretas para el código latentez z . Esto se debe a que la retropropagación a través de variables discretas no suele ser posible, lo que dificulta el entrenamiento eficiente del modelo. Un enfoque para hacer esto en el entorno de la VAE se introdujoaquí.
¿tiene usted acceso a los pesos de la red y a la posibilidad de modificarlos?
Claro, pero no es necesario.
todo en la antorcha.
el codificador funciona, sólo que los resultados son peores.
en resumen, el modelo de distancia de Kullback-Leibner es muy difícil de aprender, este es un problema descrito de los codificadores de variaciones
de hecho, el algoritmo "converge" después de 2-3 épocas y no pasa nada más
Uno de los principales inconvenientes de los autocodificadores variacionales es que la integral del término de divergencia KL no tiene una solución analítica de forma cerrada, excepto para un puñado de distribuciones. Además, no es sencillo utilizar distribuciones discretas para el código latentez z . Esto se debe a que la retropropagación a través de variables discretas no suele ser posible, lo que dificulta el entrenamiento eficiente del modelo. Un enfoque para hacer esto en el entorno de la VAE se introdujoaquí.
El artículo habla de otra cosa. Se trata del caso en el que todos los predictores son discretos [0, 1]. Entonces hay un problema. La red neuronal no entiende de predictores con variación cero.
Su caso, según tengo entendido, es ligeramente diferente. Ha combinado los predictores (continuos) y el objetivo (matriz discreta ncol=3) en la entrada. Se trata de obtener una distribución cualitativa de latentes a partir de la cual se generan (restauran) las de entrada incluyendo la de destino prácticamente sin entrenamiento. ¿He entendido bien? No tendrá éxito cualitativamente. El artículo muestra el camino de la solución. Convertir el objetivo discreto en continuo mediante RBM, conectar con otros predictores y además con VAE (¡entrenamiento!). Y luego recuperar los ejemplos de la VAE entrenada y restaurar el objetivo de nuevo con RBM. Es bastante complicado. Pero puede funcionar.
Lo probaré con un AE normal.
Buena suerte
El artículo trata de un asunto ligeramente diferente. Se trata del caso en el que todos los predictores son discretos [0, 1]. Entonces hay un problema. La red neuronal no entiende de predictores con variación cero.
Su caso, según tengo entendido, es ligeramente diferente. Ha combinado los predictores (continuos) y el objetivo (matriz discreta ncol=3) en la entrada. Se trata de obtener una distribución cualitativa de latentes a partir de la cual se generan (restauran) las de entrada incluyendo la de destino. ¿He entendido bien? No tendrá éxito cualitativamente. El artículo muestra el camino de la solución. Convertir el objetivo discreto en continuo mediante RBM, conectar con otros predictores y además con VAE (¡entrenamiento!). Y luego recuperar los ejemplos de la VAE entrenada y restaurar el objetivo de nuevo con RBM. Es bastante complicado. Pero puede funcionar.
Lo probaré con un AE normal.
Buena suerte
Tengo CVAE. En las etiquetas de clase del codificador y el decodificador (1,0), entre otras cosas. Pero he comparado la VAE y la CVAE, los resultados no son muy diferentes (igualmente mediocres)
Los objetivos no se reconstruyen, sino que se fijan al generar las características. Es decir, para qué objetivo generar las características. En los ejemplos de generación de imágenes esto es lo que se hace, sólo que hay más objetivos, por lo que se hacen van-calientes
Estaba mirando las tablas comparativas de VAE y GAN. Este último es mucho mejor para generar, estoy pensando en escupir a los codificadores. No me gusta tanto reinventar la rueda.
Podría tener sentido convertirlo en continuo, sí... pero no es una certeza.
Hay una pequeña posibilidad de que esté haciendo algo mal ... pero han practicado en gatitos antes )
Z.U. incluso en el ejemplo con los números, sólo aprende 10 épocas y luego el error deja de caer
Los autocodificadores son más adecuados para comprimir datos a dimensiones más bajas o para generar vectores semánticos a partir de ellos. Donde los GAN son más adecuados para generar datos
https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52
Creo que los resultados son borrosos debido a la compresión de datos. Aunque se aumente el número de neuronas, seguirá habiendo cierta compresión, un cambio hacia una distribución diferente. Los nuevos datos siempre se verán emborronados, suavizados, etc. Y no quiero una mancha, quiero muestras plausibles.
Se puede obtener exactamente el mismo aspecto escarchado comprimiendo las muestras en PCA, convirtiéndolas después en GMM y descomprimiéndolas después desde PCA. Yo lo he hecho y también me ha salido muy borroso.
Coder es PCA + GMM en una botella, si se hace la analogía
¿Alguien ha probado el método vectorial correspondiente?
serás el primero
Se puede obtener exactamente el mismo aspecto difuso comprimiendo los atributos de PCA, convirtiéndolos después en GMM y descomprimiéndolos después desde PCA. Yo lo he hecho y tengo el mismo lío.
El codificador es PCA + GMM en un solo paquete, si se hace la analogía.
Por lo tanto, deja todos los componentes de PCA y no tendrás manchas, obtendrás una imagen nítida.
Serás el primero.
Así que deja todos los componentes del PCA y no tendrás una mancha, tendrás una imagen clara.
No lo hará, la conversión inversa añade mucho ruido
o tal vez no... pero parece que síno lo hará, la conversión inversa del nagenerado añade mucho ruido
No lo entiendo, ¿el gmm añade ruido o qué?
No entiendo, ¿el gmm ya se suma al ruido? ¿o qué?
No pensé mucho en ello, sólo una suposición basada en un poco de hurgar.
gmm le dará características que no ha visto antes. Pero similares a los que has visto. En una transformación inversa podría tener algún efecto, supongo. Añade algo de ruido.
Es una suposición.