L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2252

 
Maxim Dmitrievsky:

Comment ça, tu te moques de moi ?

Je veux dire - je savais ce que sont les autogénérateurs avant vous))

 
mytarmailS:

Pourquoi y a-t-il un neurone ? Pouvez-vous expliquer le schéma fonctionnel ?

 
Maxim Dmitrievsky:

Pourquoi avez-vous décidé de remplacer gmm par un codeur ?

Pourquoi avez-vous pensé que ça marcherait mieux, vous avez eu une idée, je suis intéressé par l'idée, vous savez ?

 
mytarmailS:

Donc je dis, pourquoi avez-vous décidé de remplacer le gmm par un codeur ?

Pourquoi avez-vous pensé que ça marcherait mieux, vous avez eu une idée, je suis intéressé par l'idée, vous savez ?

Parce que c'est le même modèle génératif, mais il est personnalisable.

ça marche aussi bien sur les fractions, c'est pire sur les guillemets, je n'ai pas encore compris pourquoi.

 
Maxim Dmitrievsky:

parce qu'il s'agit du même modèle génératif, mais personnalisable

ça marche aussi bien sur les guillemets, c'est pire sur les guillemets, je ne sais pas encore pourquoi.

Avez-vous accès aux poids nets et à la possibilité de les modifier ?

 
Maxim Dmitrievsky:

Je m'attendais à mieux de leur part.

L'encodeur est un neurone.

vous ne le comprendriez pas de toute façon, mais en voici la structure.

Alors, où est la formation ? C'est tout en fonctions et en classe.

 
Vladimir Perervenko:

Alors, où est la formation ? C'est tout en fonctions et en classe.

avez-vous besoin d'un cycle d'entraînement ?

 
Maxim Dmitrievsky:

avez-vous besoin d'un cycle d'apprentissage ?

D'après ce que j'ai compris, la variation AE diffère de l'AE normale en ce sens que, pendant la formation, le décodeur ne reçoit pas une valeur cachée mais une valeur reparamétrée de celle-ci. Je n'ai pas vu où cela se produit.

 
Vladimir Perervenko:

D'après ce que j'ai compris, la variation AE diffère de l'AE normale en ce sens que, pendant la formation, le décodeur ne reçoit pas une valeur cachée mais une valeur reparamétrée de celle-ci. Je n'ai pas vu où cela se produit.

        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
Maxim Dmitrievsky:

Disons (tout n'est pas clair pour moi dans le code de Python). Et où est la formation de ce BAE ?

Est-ce que c'est dans pyTorch ?