トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2251

 
マキシム・ドミトリエフスキー

シリーズを別空間にマッピングする(配信?)

そうですね、別の空間に、流通は分かりませんが...。

なぜクラスラベルなのか、なぜコーダーなのか。

 
mytarmailS:

ああ、別空間に、配分はどうだろう...。

なぜクラスラベルなのか、なぜコーダーなのか。

良い売りサンプルと買いサンプルが必要で、そのためにレーベルがある。

は、その空間における点の分布で、通常は多変量正規分布が選ばれる。

うまくいかないかもしれないけど、楽しいよ。

来年、パターンが変わったらどうするんですか? 何もしない、今年から取り出せない

全履歴をクラスタに分解し、各クラスタのサンプル数を均等にし、そこから例を生成して学習させる必要があります。これは理論上、+-の安定したものになります。

 
マキシム・ドミトリエフスキー

売りと買いの事例が必要なので、マークが必要です。

は、この空間における点の分布で、通常は................................である。

そうですね......具体的なアイデアは、まあまあ納得できるのですが......。

========================

ディストリビューションに搭載されているロボットは?

 
mytarmailS:

そうですね......具体的なアイデアは、まあまあ納得できるのですが......。

========================

ディストリビューションでのロボットは?

ランダムではなく、通常のデータで、クールなアイデアです。

ユーロにしか効かない、他にはあまり効かない。

私はgmmの代わりにcoderを使用しています。

 

Kak prikrepiti instrument BTC/USD?

 

gmmの代わりにcoderを使用。トレーニング2ヶ月、テスト5年。

建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された

通常のフィードフォワード層

 
マキシム・ドミトリエフスキー

gmmの代わりにcoder。トレーニング2ヶ月、テスト5年。

建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された

通常のフィードフォワード層。

gmmの方がグラフが滑らかな気がするのですが...。

なぜ神経細胞があるのか、ブロック図で説明してください。


単層では線形問題しか解けない

 
mytarmailS:

gmmのグラフの方が滑らかなような気がするのですが.

なぜ神経細胞が全くないのか、ブロック図を説明してください。


1層では線形問題しか解けない

もっと期待したい

エンコーダはニューロニクス

どうせわからないだろうけど、こんな構造になっています。

class Encoder(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.linear = nn.Linear(input_dim + n_classes, hidden_dim)
        self.mu = nn.Linear(hidden_dim, latent_dim)
        self.var = nn.Linear(hidden_dim, latent_dim)

    def forward(self, x):
        #  x is of shape [batch_size, input_dim + n_classes]

        hidden = torch.sigmoid(self.linear(x))
        #  hidden is of shape [batch_size, hidden_dim]

        #  latent parameters
        mean = self.mu(hidden)
        #  mean is of shape [batch_size, latent_dim]
        log_var = self.var(hidden)
        #  log_var is of shape [batch_size, latent_dim]

        return mean, log_var


class Decoder(nn.Module):
    def __init__(self, latent_dim, hidden_dim, output_dim, n_classes):
        super().__init__()

        self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim)
        self.hidden_to_out = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
        #  x is of shape [batch_size, latent_dim + num_classes]
        x = torch.sigmoid(self.latent_to_hidden(x))
        #  x is of shape [batch_size, hidden_dim]
        generated_x = torch.sigmoid(self.hidden_to_out(x))
        #  x is of shape [batch_size, output_dim]

        return generated_x


class CVAE(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1)
        self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1)

    def forward(self, x, y):

        x = torch.cat((x, y), dim=1)

        #  encode
        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)

        z = torch.cat((x_sample, y), dim=1)

        #  decode
        generated_x = self.decoder(z)

        return generated_x, z_mu, z_var
 
マキシム・ドミトリエフスキー

コーダーはニューロンである。

マジかよ!?))

マキシム・ドミトリエフスキー

って言われてもわからないですよね。

だから言ってるじゃないですか、何を期待して、なぜうまくいくと思ったのか、ブロック図は完璧なのに......。

そして、コードは馴染みのない言語で書かれた聖書は、当然ながら理解しがたい。

 
mytarmailS:

マジかよ!?))

だからこそ、あなたが何を期待し、なぜうまくいくと思ったのか...を伝えているのです。

慣れない言語で書かれたコードを理解するのは大変です。

つまり、私をからかっているのでしょうか?

理由: