Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2252

 
Maxim Dmitrievsky:

¿Cómo que me estás tomando el pelo?

Es decir, sabía lo que son los autogeneradores antes que tú))

 
mytarmailS:

¿Por qué hay una neuronka allí en absoluto puede explicar el diagrama de bloques

 
Maxim Dmitrievsky:

¿Por qué decidisteis sustituir a gmm por un codificador?

¿Por qué pensaste que funcionaría mejor, tuviste una idea, me interesa la idea, sabes?

 
mytarmailS:

Así que digo, ¿por qué decidiste reemplazar el gmm por un codificador?

¿Por qué pensaste que funcionaría mejor, tuviste una idea, me interesa la idea, sabes?

Porque es el mismo modelo generativo, pero es personalizable.

funciona igual de bien en las fracciones, es peor en las comillas, aún no he averiguado por qué.

 
Maxim Dmitrievsky:

porque es el mismo modelo generativo, pero personalizable

funciona igual de bien en las comillas, es peor en las citas, aún no he averiguado por qué.

¿Tienes acceso a los pesos netos y la posibilidad de cambiarlos?

 
Maxim Dmitrievsky:

Esperaba más de ellos.

El codificador es una neurona.

no lo entenderías de todos modos, pero esta es la estructura del mismo.

¿Y dónde está la formación? Todo son funciones y clase.

 
Vladimir Perervenko:

Entonces, ¿dónde está la formación? Todo son funciones y clase.

¿necesita un ciclo de formación?

 
Maxim Dmitrievsky:

¿necesita un ciclo de aprendizaje?

Bueno, por lo que tengo entendido, la variación AE difiere de la AE normal en que durante el entrenamiento el decodificador no se alimenta de un oculto sino de un valor reparametrizado del mismo. No he visto dónde ocurre.

 
Vladimir Perervenko:

Bueno, por lo que tengo entendido, la variación AE difiere de la AE normal en que durante el entrenamiento el decodificador no se alimenta de un oculto sino de un valor reparametrizado del mismo. No he visto dónde ocurre.

        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
Maxim Dmitrievsky:

Digamos (no todo me queda claro en el código de Python). ¿Y dónde está la formación de este BAE?

¿Está en pyTorch?