トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2251 1...224422452246224722482249225022512252225322542255225622572258...3399 新しいコメント mytarmailS 2020.12.19 14:38 #22501 マキシム・ドミトリエフスキー: シリーズを別空間にマッピングする(配信?) そうですね、別の空間に、流通は分かりませんが...。 なぜクラスラベルなのか、なぜコーダーなのか。 Maxim Dmitrievsky 2020.12.19 14:58 #22502 mytarmailS: ああ、別空間に、配分はどうだろう...。なぜクラスラベルなのか、なぜコーダーなのか。 良い売りサンプルと買いサンプルが必要で、そのためにレーベルがある。 は、その空間における点の分布で、通常は多変量正規分布が選ばれる。 うまくいかないかもしれないけど、楽しいよ。 来年、パターンが変わったらどうするんですか? 何もしない、今年から取り出せない 全履歴をクラスタに分解し、各クラスタのサンプル数を均等にし、そこから例を生成して学習させる必要があります。これは理論上、+-の安定したものになります。 mytarmailS 2020.12.19 15:10 #22503 マキシム・ドミトリエフスキー: 売りと買いの事例が必要なので、マークが必要です。は、この空間における点の分布で、通常は................................である。 そうですね......具体的なアイデアは、まあまあ納得できるのですが......。 ======================== ディストリビューションに搭載されているロボットは? Maxim Dmitrievsky 2020.12.19 15:25 #22504 mytarmailS: そうですね......具体的なアイデアは、まあまあ納得できるのですが......。========================ディストリビューションでのロボットは? ランダムではなく、通常のデータで、クールなアイデアです。 ユーロにしか効かない、他にはあまり効かない。 私はgmmの代わりにcoderを使用しています。 34767361 2020.12.19 17:38 #22505 Kak prikrepiti instrument BTC/USD? Maxim Dmitrievsky 2020.12.20 09:04 #22506 gmmの代わりにcoderを使用。トレーニング2ヶ月、テスト5年。 建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された 通常のフィードフォワード層 mytarmailS 2020.12.20 12:34 #22507 マキシム・ドミトリエフスキー: gmmの代わりにcoder。トレーニング2ヶ月、テスト5年。建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された通常のフィードフォワード層。 gmmの方がグラフが滑らかな気がするのですが...。 なぜ神経細胞があるのか、ブロック図で説明してください。 単層では線形問題しか解けない Maxim Dmitrievsky 2020.12.20 12:41 #22508 mytarmailS: gmmのグラフの方が滑らかなような気がするのですが.なぜ神経細胞が全くないのか、ブロック図を説明してください。1層では線形問題しか解けない もっと期待したい エンコーダはニューロニクス どうせわからないだろうけど、こんな構造になっています。 class Encoder(nn.Module): def __init__(self, input_dim, hidden_dim, latent_dim, n_classes): super().__init__() self.linear = nn.Linear(input_dim + n_classes, hidden_dim) self.mu = nn.Linear(hidden_dim, latent_dim) self.var = nn.Linear(hidden_dim, latent_dim) def forward(self, x): # x is of shape [batch_size, input_dim + n_classes] hidden = torch.sigmoid(self.linear(x)) # hidden is of shape [batch_size, hidden_dim] # latent parameters mean = self.mu(hidden) # mean is of shape [batch_size, latent_dim] log_var = self.var(hidden) # log_var is of shape [batch_size, latent_dim] return mean, log_var class Decoder(nn.Module): def __init__(self, latent_dim, hidden_dim, output_dim, n_classes): super().__init__() self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim) self.hidden_to_out = nn.Linear(hidden_dim, output_dim) def forward(self, x): # x is of shape [batch_size, latent_dim + num_classes] x = torch.sigmoid(self.latent_to_hidden(x)) # x is of shape [batch_size, hidden_dim] generated_x = torch.sigmoid(self.hidden_to_out(x)) # x is of shape [batch_size, output_dim] return generated_x class CVAE(nn.Module): def __init__(self, input_dim, hidden_dim, latent_dim, n_classes): super().__init__() self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1) self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1) def forward(self, x, y): x = torch.cat((x, y), dim=1) # encode z_mu, z_var = self.encoder(x) # sample from the distribution having latent parameters z_mu, z_var # reparameterize std = torch.exp(z_var / 2) eps = torch.randn_like(std) x_sample = eps.mul(std).add_(z_mu) z = torch.cat((x_sample, y), dim=1) # decode generated_x = self.decoder(z) return generated_x, z_mu, z_var mytarmailS 2020.12.20 12:54 #22509 マキシム・ドミトリエフスキーコーダーはニューロンである。 マジかよ!?)) マキシム・ドミトリエフスキーって言われてもわからないですよね。 だから言ってるじゃないですか、何を期待して、なぜうまくいくと思ったのか、ブロック図は完璧なのに......。 そして、コードは馴染みのない言語で書かれた聖書は、当然ながら理解しがたい。 Maxim Dmitrievsky 2020.12.20 12:55 #22510 mytarmailS: マジかよ!?))だからこそ、あなたが何を期待し、なぜうまくいくと思ったのか...を伝えているのです。慣れない言語で書かれたコードを理解するのは大変です。 つまり、私をからかっているのでしょうか? 1...224422452246224722482249225022512252225322542255225622572258...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
シリーズを別空間にマッピングする(配信?)
そうですね、別の空間に、流通は分かりませんが...。
なぜクラスラベルなのか、なぜコーダーなのか。
ああ、別空間に、配分はどうだろう...。
なぜクラスラベルなのか、なぜコーダーなのか。
良い売りサンプルと買いサンプルが必要で、そのためにレーベルがある。
は、その空間における点の分布で、通常は多変量正規分布が選ばれる。
うまくいかないかもしれないけど、楽しいよ。
来年、パターンが変わったらどうするんですか? 何もしない、今年から取り出せない
全履歴をクラスタに分解し、各クラスタのサンプル数を均等にし、そこから例を生成して学習させる必要があります。これは理論上、+-の安定したものになります。
売りと買いの事例が必要なので、マークが必要です。
は、この空間における点の分布で、通常は................................である。
そうですね......具体的なアイデアは、まあまあ納得できるのですが......。
========================
ディストリビューションに搭載されているロボットは?
そうですね......具体的なアイデアは、まあまあ納得できるのですが......。
========================
ディストリビューションでのロボットは?
ランダムではなく、通常のデータで、クールなアイデアです。
ユーロにしか効かない、他にはあまり効かない。
私はgmmの代わりにcoderを使用しています。
Kak prikrepiti instrument BTC/USD?
gmmの代わりにcoderを使用。トレーニング2ヶ月、テスト5年。
建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された
通常のフィードフォワード層
gmmの代わりにcoder。トレーニング2ヶ月、テスト5年。
建築をピックアップするのはちょっと難しいですね。1層では全く効果がなかったが、2層目を追加したところ、改善された
通常のフィードフォワード層。
gmmの方がグラフが滑らかな気がするのですが...。
なぜ神経細胞があるのか、ブロック図で説明してください。
単層では線形問題しか解けない
gmmのグラフの方が滑らかなような気がするのですが.
なぜ神経細胞が全くないのか、ブロック図を説明してください。
1層では線形問題しか解けない
もっと期待したい
エンコーダはニューロニクス
どうせわからないだろうけど、こんな構造になっています。
コーダーはニューロンである。
マジかよ!?))
って言われてもわからないですよね。
だから言ってるじゃないですか、何を期待して、なぜうまくいくと思ったのか、ブロック図は完璧なのに......。
そして、コードは馴染みのない言語で書かれた聖書は、当然ながら理解しがたい。
マジかよ!?))
だからこそ、あなたが何を期待し、なぜうまくいくと思ったのか...を伝えているのです。
慣れない言語で書かれたコードを理解するのは大変です。
つまり、私をからかっているのでしょうか?