トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 598

 
アレクセイ・テレンテフ
1)トレーニングの様子はいかがですか?ウェイトがどのように適用されるのかがわからない。
2) ニューロン自体の重みは利用可能か?
3) 媒介として、1-4次の終値または高速MAの微分を取ることができます。またはインクリメント。
4) 隠れ層の大きさを入力と同じにする。

重みが加算器へ、すべてがクラシック、そして重みが活性化関数へ送られます。

環境」として - ここでは、NSが既に外部から行ったアクション、例えばトランザクションを想定している...つまり、n個のアクションを逆算したシステムメモリ。同じことは、どのアクションがどんな結果をもたらしたかというフィードバックについても言える

そこで、入力レイヤーと同じ内部レイヤーを作り、後でもう1つ追加することにします。

 
ユーリイ・アサウレンコ

時間を無駄にするだけです。実際のデータではうまくいきません。

例:NSが1回間違えると、それ以降に影響する。


そうではなく、nsは取引の連続性と有効性を追加要素として考慮する予定です。これはあくまでオプションであり、最終的なものだとは言っていません

そのため、他のアイデアを求めているのです

+ トランジスタのような内蔵型適応素子です。

と、メインNSには他のフィ

 
マキシム・ドミトリエフスキー

重みが加算器へ、すべてがクラシック、そして重みが活性化関数へ送られます。

環境」として - ここでは、NSが既に外部から行ったアクション、例えばトランザクションを想定している...つまり、n個のアクションを逆算したシステムメモリ。同じことは、どのアクションがどんな結果をもたらしたかというフィードバックについても言える

というわけで、入力と同じ内部レイヤーを置き、後でもう一つ追加することにします。

そして、オプションとして、利益の合計をpipsで表示します。貿易が成功する→増える、逆も然り。
しかし、ここで微妙なのは、この場合は報酬と見なすべきで、Q機能の追加を考えなければならないことです。あるいは、報酬を意識した学習式を導き出す。
 
アレクセイ・テレンテフ
では、利益の合計をpipsで表すとどうでしょう。貿易が成功する→増える、逆も然り。
しかし、ここで困るのは、この場合、報酬とみなさざるを得ないので、Qファンクションの利用を考える必要があることです。あるいは、報酬を意識した学習式を導き出す。

ええ、わかりました :) いい選択肢ですね。

今のところ式はシンプルで、別々のニューロンに過去のトレード結果が供給され、ニューロンですらなく、単に値がコンバイナーに加えられるだけです。 クーリングについてはまだよく読んでいないのですが

 
マキシム・ドミトリエフスキー

ええ、わかりました :) いい選択肢ですね。

ここまでの式は単純で、過去のトレードの結果が供給される別々のニューロン、ニューロンですらなく、単に値が加算されるだけです。 クーリングについては、まだよく読んでいないのですが

2つの同じNSを作り、一方は従来の画像で訓練し、もう一方は最初のNSの予測結果に応じて重みを直接転送します。
 
イワン・ネグレシュニー
2つの同じNSを作り、一方は伝統的なイメージで教え、もう一方はスケールの直接転写で教え、最初の予測からの結果に従って投薬する、つまり、2番目はポジティブな経験のみから学ぶべきである。

このようなバリエーションもあり、まず複数のNSを異なる周期で訓練し、それらを1つにまとめる......洗練されたフィッティングですね。)

動作が不安定になったときに、それを理解し、動作を組み立て直してほしい。

 
マキシム・ドミトリエフスキー

このようなバリエーションもあり、まず複数のNSを異なる周期で訓練し、それらを1つにまとめる......洗練されたフィッティングですね。)

あまりに抜け目なく動き始めると、自分でチューニングしていることを理解してほしい。

そういう目的のために、明らかに間違った構造を思いついたのでしょう。
 
ユーリイ・アサウレンコ
明らかにそのような目的のために間違った構造を持っています。

どうやってるんですか?

 
マキシム・ドミトリエフスキー

どうやってるんですか?

全くわからない)。でも、こんなの絶対ダメ。
 
マキシム・ドミトリエフスキー

このようなバリエーションもあり、まず複数のNSを異なる周期で訓練し、それらを1つにまとめる......洗練されたフィッティングですね。)

シャープに動き出したら理解して、自分で再構築してほしい

まず - 委員会がよりよく動作することが証明されているように、正確にフィッティングではなく、それは精度の向上につながる、別々のモデルの反対符号の偏差に、例えば、説明することができる。第二に、提案するNSタンデムは、強化学習 法でも有益性が証明されている、単一の自己適応型モデルである。

理由: