Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2252

 
Maxim Dmitrievsky:

Was soll das heißen, du verarschst mich?

Ich meine - ich wusste, was Autogeneratoren sind, bevor Sie es wussten))

 
mytarmailS:

Warum gibt es dort überhaupt ein Neuronka, können Sie das Blockdiagramm erklären?

 
Maxim Dmitrievsky:

Warum haben Sie beschlossen, gmm durch einen Codierer zu ersetzen?

Warum dachten Sie, dass es besser funktionieren würde, Sie hatten eine Idee, und die Idee interessiert mich, verstehen Sie?

 
mytarmailS:

Ich frage mich also, warum Sie beschlossen haben, den GMM durch einen Codierer zu ersetzen?

Warum dachten Sie, dass es besser funktionieren würde, Sie hatten eine Idee, und die Idee interessiert mich, verstehen Sie?

Denn es ist dasselbe generative Modell, aber es ist anpassbar.

Bei den Brüchen funktioniert es genauso gut, bei den Anführungszeichen ist es schlechter, ich habe noch nicht herausgefunden, warum.

 
Maxim Dmitrievsky:

weil es dasselbe generative Modell ist, aber anpassbar

es funktioniert genauso gut bei den Anführungszeichen, bei den Anführungszeichen ist es schlechter, ich weiß noch nicht warum.

Haben Sie Zugang zu den Nettogewichten und die Möglichkeit, diese zu ändern?

 
Maxim Dmitrievsky:

Ich hatte mehr von ihnen erwartet.

Der Encoder ist ein Neuron.

Du würdest es sowieso nicht verstehen, aber hier ist die Struktur des Textes.

Und wo ist die Ausbildung? Es geht nur um Funktionen und Klasse.

 
Vladimir Perervenko:

Wo findet also die Ausbildung statt? Es geht nur um Funktionen und Klasse.

Brauchen Sie einen Ausbildungszyklus?

 
Maxim Dmitrievsky:

Brauchen Sie einen Lernzyklus?

Soweit ich weiß, unterscheidet sich Variation AE von normaler AE dadurch, dass der Decoder beim Training nicht mit einem versteckten, sondern mit einem umparametrisierten Wert davon gefüttert wird. Ich habe nicht gesehen, wo das passiert.

 
Vladimir Perervenko:

Soweit ich weiß, unterscheidet sich Variation AE von normaler AE dadurch, dass der Decoder beim Training nicht mit einem versteckten, sondern mit einem umparametrisierten Wert gefüttert wird. Ich habe nicht gesehen, wo das passiert.

        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
Maxim Dmitrievsky:

Sagen wir mal so (im Python-Code ist mir nicht alles klar). Und wo ist die Ausbildung dieser BAE?

Ist es in pyTorch?