トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1977

 

残念なことに、TFを上げると結果が悪くなるので、ランジーの方が良いのです。

MAと間引きを追加しました。MAがなければ、間引きはTFの変化として機能し、分布を正規化する。RMS = 間引きステップのルート。MAが間引きより2倍大きい場合、ダウンサンプリングが正しく行われ、予測は高い精度で行われるが、正しい期待値を計算するテスターが必要である。ジグザグはできているのですが、どのような形にすればいいのかわかりません。最小値と最大値を持つインデックスの配列か、インデックスの1つの配列か、価格の配列を一度に表示するかです。

MAではなく、他のフィルターでも良いのですが、インパルス特性だけ知りたいのです。コード中のMAは[1/per]*perとなり、per=4では[0.25, 0.25, 0.25, 0.25]に展開されます。

 
ロールシャッハ

森:正解率55.89%、期待値2.36

森林の累積増分。正答率55.89%、期待値2.36、同一結果

しかし、違いはあって、刻みが良くなっていることです。

ジグザグの問題点、最小限の変化を制限する方法が明確でない、常にマイクロスイッチングしている。


 

無意味に近いけど聞いてみる。


NSはこのようなシリーズを予測できるのか?


また、シリーズAはシリーズBに依存しているのでしょうか?

 
Evgeniy Chumakov:

無意味に近いけど聞いてみる。


NSはこのようなシリーズを予測できるのか?


次のキャラクターが登場する確率とか。 あと、シリーズAとシリーズBには相関関係があるのでしょうか。

これが彼らの直接的な仕事です。

 

TensorFlow 2.3への移行後、エラーが発生するようになりました。

"WARNING:tensorflow:最後の11コールのうち11コールがtf.function retracingのトリガーと なる。トレースにはコストがかかり、過剰なトレース数は、@tf.functionをループで繰り返し作成していることが原因である可能性があります " .

つまり、あるtf.functionがループしていると宣誓しているのです。tf.functionはありませんが、ループの中でモデルpredict=model.predict(data)をポーリングしています。
tf.functionの説明はこちら
これは明らかに未知の存在なのですが、どなたかお分かりになりますか?

UPD
とにかく、これはある種のクールなもので、これなしではやっていけない、調べる必要がある。TensorFlowとPythonの互換性の問題を解決 します。

 

エージェントトレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう

今は、LSTMをいろいろなバリエーションで試してみたいと思っていますし、トランスフォーマー(でも、それを理解するのは難しいかもしれません)にも興味があります。
 
マキシム・ドミトリエフスキー

トレーダーが完成したようです。αテスト用のデモをモニターさせていただきました。ロジックが自明でないため、バグがあるかもしれません。テストしてみよう

今は、LSTMの様々なバリエーションやトランスフォーマーを試してみたいと思っています(でも、それを理解しようとすると、脳が壊れてしまうかもしれません)。

ロジックはもっと複雑です。一方では良いことだと思います。一方、慣れない土地での虫。トランスフォーマーって何?

 
Valeriy Yastremskiy:

ロジックはもっと枝分かれしています。一方では、これは良いことだとも言えます。一方で、慣れない分野でのバグもあります。トランスフォーマーって何?

時間的シーケンスを扱うための新しいタイプのネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。

セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。

 
マキシム・ドミトリエフスキー

は、新しいタイプの時系列ネットワークで、lstmより優れていると言われています。テキスト認識や機械翻訳などでは、文の文脈を強調するために使われる。つまり、ある単語が何らかの文脈によって他者(前)と関係している場合である。

セルフアテンショントランスフォーマーメカニズム - 人間の注意のアナログ。

そんな重大な合併症をまず、記憶の長短、そして、モデルにおける注意の相似性です。脳が一度に対応できないのです(笑)。でも、もっとうまくいくはずです。

 
Valeriy Yastremskiy:

まあそんな重大な合併症。まず、記憶の長短、そして、モデルにおける注意の相似性です。脳が確実に追いついていない)))です。)でも、もっとうまくいくはずです。

確かに効果はありますが、どこに向かっているのかわからなくなります。

一般に、mlpのような従来の逆伝播網は、時系列には 全くと言っていいほど適さない。最低限必要なのはRNN
理由: