トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2252

 
マキシム・ドミトリエフスキー

どういうことだ、ふざけてるのか?

というか - オートジェネレータが何なのか、先に知ってました))

 
mytarmailS:

なぜニューロンカがあるのか、そのブロック図を説明してください。

 
マキシム・ドミトリエフスキー

gmmをコーダーに置き換えたのはなぜですか?

なぜ、その方がいいと思ったのか、アイデアがあったのか、そのアイデアに興味があるのか、ね。

 
mytarmailS:

だから、なんでgmmをコーダーで代用しようと思ったんだよって話なんだけど。

なぜ、その方がいいと思ったのか、アイデアがあったのか、そのアイデアに興味があるのか、ね。

同じジェネレーティブモデルでありながら、カスタマイズが可能だからです。

分数はうまくいくのですが、引用符はうまくいきません。

 
マキシム・ドミトリエフスキー

同じ生成モデルでありながら、カスタマイズが可能なため

は、引用符の上でも同じように機能します。引用符の上ではより悪くなります。その理由はまだわかっていません。

ネットウェイトにアクセスし、それを変更する機能はありますか?

 
マキシム・ドミトリエフスキー

もっと期待していたのに。

エンコーダーはニューロンです。

どうせ理解できないだろうけど、こんな構造になっている。

では、トレーニングは?それは、機能と品格です。

 
Vladimir Perervenko:

では、そのトレーニングはどこにあるのでしょうか?それは、機能と品格です。

トレーニングサイクルは必要ですか?

 
マキシム・ドミトリエフスキー

ラーニングサイクルは必要ですか?

私の理解では、バリエーションAEは通常のAEと異なり、学習時にデコーダーにhiddenではなく、そのパラメータを変更した値を入力することになります。どこでそうなるかは見ていない。

 
Vladimir Perervenko:

私の理解では、バリエーションAEは通常のAEと異なり、学習時にデコーダーにhiddenではなく、そのパラメータを変更した値を入力することになります。どこでそうなるかは見ていない。

        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
マキシム・ドミトリエフスキー

としましょう(Pythonのコードで全てが分かるわけではありません)。そして、このBAEの訓練はどこに?

pyTorchにあるのでしょうか?
理由: