L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2252

 
Maxim Dmitrievsky:

Cosa vuol dire che mi stai prendendo in giro?

Voglio dire - sapevo cosa sono gli autogeneratori prima di te))

 
mytarmailS:

Perché c'è un neurone lì a tutti può spiegare il diagramma a blocchi

 
Maxim Dmitrievsky:

Perché avete deciso di sostituire gmm con un codificatore?

Perché hai pensato che avrebbe funzionato meglio, hai avuto un'idea, mi interessa l'idea, sai?

 
mytarmailS:

Quindi dico, perché avete deciso di sostituire il gmm con un codificatore?

Perché hai pensato che avrebbe funzionato meglio, hai avuto un'idea, mi interessa l'idea, sai?

Perché è lo stesso modello generativo, ma è personalizzabile.

Funziona altrettanto bene sulle frazioni, è peggio sulle virgolette, non ho ancora capito perché.

 
Maxim Dmitrievsky:

perché è lo stesso modello generativo, ma personalizzabile

funziona altrettanto bene sulle citazioni, è peggio sulle citazioni, non so ancora perché.

Avete accesso ai pesi netti e alla possibilità di cambiarli?

 
Maxim Dmitrievsky:

Mi aspettavo di più da loro.

Il codificatore è un neurone.

non lo capireste comunque, ma ecco la sua struttura.

Allora, dov'è la formazione? È tutto funzioni e classe.

 
Vladimir Perervenko:

Allora dov'è la formazione? È tutto funzioni e classe.

hai bisogno di un ciclo di allenamento?

 
Maxim Dmitrievsky:

hai bisogno di un ciclo di apprendimento?

Beh, per quanto ho capito la variazione AE differisce dalla normale AE in quanto durante l'addestramento il decoder non viene alimentato con un nascosto ma con un valore riparametrizzato di esso. Non ho visto dove succede.

 
Vladimir Perervenko:

Beh, per quanto ho capito la variazione AE differisce dalla normale AE in quanto durante l'addestramento il decoder non viene alimentato con un nascosto ma con un valore riparametrizzato di esso. Non ho visto dove succede.

        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
Maxim Dmitrievsky:

Diciamo (non tutto mi è chiaro nel codice di Python). E dov'è la formazione di questo BAE?

È in pyTorch?