トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1974

 
NeuralNetwork:

マキシム・ドミトリエフスキー さん、こんにちは。メールを読みました。 githabには何もありません。 簡単なネットワークコードを自分用に修正しました。ティックの履歴 からゴミを取り除くのに決定的な効果がありました。 Pythonです。

うーん...よくわからない...繰り返しの価格をすべて削除したのか...何の効果があるのか不明だ

 
マキシム・ドミトリエフスキー

うーん、よくわからない...つまり、繰り返しの価格をすべて削除してしまった...これでは何が得られるのかわからない。

あるティック数のトップとボトムを探したかったので、ニューラルネットワークを 学習させるときに、価格を誘導するのです。

 
何のためにあるのか、わかりますよね? フラットな状態だと、損をしないことが一番大事なんです。そして、その傾向はネットワークで容易に認識されます。 ニューラルネットワークにとって 最も重要なことは、フラットな状態でトレンドの方向を推測 することです。
 
NeuralNetwork:
何のためにあるのか、わかっているのか? フラットな状態だと、損をしないことが一番大事なんです。そして、その傾向はネットワークによって簡単に検出されます。ニューラルネットワークにとって 最も重要なことは、フラット時のトレンド方向を推測する ことです。

まあ...何を教えるかにもよりますが。何が入っていて何が入っていないのか

 
NeuralNetwork:
何のためにあるのか、わかっているのか? フラットな状態だと、損をしないことが一番大事なんです。そして、その傾向はネットワークによって簡単に検出されます。ニューラルネットワークにとって 最も重要なことは、フラット時のトレンド方向を推測する ことです。

選択したウィンドウのティックの蓄積を記録してみてはいかがでしょうか。

 
Aleksey Vyazmikin:

選択したウィンドウのティックの累積を記録してみてはいかがでしょうか。

もしそういうことなら、私はティックの数を固定しています

df = df[-240000::1]
 
NeuralNetwork:

そういうことなら、そのまま刻み数を固定しています。

例えばフラットのティックの価格は、フラットの中身を別の述語という形で理解した時点で、マイナス値で集計されるという意味です。反復価格を削除したのであれば、予測因子も一緒に削除されたのか、それともクリーンなティックで構築したのか?

 
Aleksey Vyazmikin:

私はむしろ、例えばマイナス値でフラットの中のティックの価格を、別の述語という形で何が入っているのか理解した時点で集計するという意味です。反復価格を削除したのであれば、予測因子も一緒に削除されたのか、それともクリーンなティックで構築したのか?

私のネットワークは、クリアしたものを使うことができるように設計されています。

 
NeuralNetwork:

私のネットワークは、すでにクリアしたものをベースにするように設定されています。 あなたも試してみてはいかがでしょうか。

また、入力-増分にはどのような予測変数が入るのでしょうか?

 
mytarmailS:

とりあえず、スプレッドでテストしてみましたが......うーん、引きずってるみたいで、悪化してますね。来週にはターミナル用に書き換えて、テストにかけられるようにします。

理由: