トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3092

 
mytarmailS #:

利益と損失だろ?

だから、ポジションが開いているときに、その状態からリタイヤメントを取るんだ。

そうだね。

mytarmailS#:

異なるTS設定の代わりに、異なるセクションの取引を取るだけです。



そして、一般的に。あなたがやっていることを理解するために記事を読んで、制限があります。例えば、-1000000から+1000000ではなく、明らかに成功した設定を与える必要があります。全部を連続で出すと、平均OOSが一番下になってしまい、それと比較する意味がない。0,95...0,98のような非常に狭い範囲も、DR側から見ると良くない。

 
Forester #:

はい



そして、一般的に。あなたがやっていることを理解するために記事を読んでください、制限があります。例えば、-1000000から+1000000ではなく、明らかに成功した設定を与える必要がある。全部を連続で出すと、平均OOSが一番下になってしまい、それと比較する意味がない。0.95...0.98という非常に狭い範囲もよくありません。

利益が出るTSを提出すべきであり、何でも良いわけではないことは理解していますが...。


私はすでにこのことをテストするためのアルゴリズムを概説しましたが、メトリクスには1つだけニュアンスがあります。


4+1の指標をすべて最適化するべきか?

 p_bo      slope       ar^2     p_loss 
 0.1666667  2.1796000 -0.2100000  0.1670000 
+

прибыль


それとも

 p_bp  + прибыль


 
しかし、トレーニングなしでどうやってクロスバリデーションを行うのか理解できない。準備のできたリターンのセットを与えて、それを12000のバリアントで混ぜる。12000のISそれぞれについてトレーニングし、対応するOOSそれぞれについて予測する必要がある。
 
mytarmailS #:

何でもいいというわけではなく、利益の出るTCを提出しなければならないことは理解している。


私はすでにこのことをテストするためのアルゴリズムを概説しましたが、その指標にはただ一つニュアンスがあります。


4つ+1つの指標をすべて最適化する必要がある。


あるいは


分からない。どれかだと思う。
 
Forester #:
しかし、トレーニングなしでどうやってクロスバリデーションを行うのか理解できない。準備のできたリターンセットを投入し、それを12000のバリアントでミックスしているだけだ。12000のISそれぞれについてトレーニングし、対応するOOSそれぞれについて予測する必要がある。

それが訓練方法だ。

多分、パッケージを見る時が来たようだ。

 
mytarmailS #:

そう教えられているんだ。

forest/NSのハイパーパラメータはどこにあるのですか?そうではないので、トレーニングは行われない。
外部モデルの予測の安定 性を評価しているだけだと思う。
 
Forester #:
forest/NSのハイパーパラメータはどこにありますか?いいえ、トレーニングではありません。 、外部モデルの予測値の
安定 性を評価しているだけだと思います。

私の理解では、線形回帰によって安定性を推定します。

forests/NSに関する論文はありますか?
 

競技について少し理解できない。プロフスレダ、ではなく、タスクがあり、そのタスクの正しさの議論の方が適切で、正しければ、なぜダメなのか?

私はホリバーのすべての参加者の意見を尊重するが、私は別のものを持っている))))))

外部パラメータやその他のパラメータがなければ、すべてが非常に複雑で、むしろ永久機関マシンに近い))))))しかし、外部パラメーターがあれば、同じような大きな問題が発生する)))

平均への回帰は最も理解しやすく、永遠であり、小さなtfでは誤差が少ないことは明らかだが、セイバーティックはブラックスワンも引き起こす)))))

 
mytarmailS #:

私の理解では、線形回帰によって安定性を推定する

この記事には森林やNSに関する記述はないのでしょうか?

それとも単純なことなのでしょうか?ラトルのように?

最初のファイルは大きく、2番目のファイルは小さくてもよいが、最初のファイルに対する最新の日付がある。

最初のファイルをランダム・サンプリングで3つの部分に分ける:70/15/15の割合で訓練、テスト、検証。

訓練では、例えば5フォールドでクロス検証を行う。1フォールドが最小1500バーであれば、train = 7500バーとなる。円の場合、2つのソース・ファイルで15000本あれば十分です。

訓練されたモデルをテストと検証で 実行し、それぞれの分類エラーを 得ます。

次に、2つ目のファイルで1500小節のウィンドウを実行します。分類誤差を収集します。

得られた分類誤差がすべて5%チャンネル内に収まれば、すべて問題ありません:得られた分類誤差は信頼でき、再トレーニングは必要ありません。

 
СанСаныч Фоменко #:

シンプルにしたらどうだ?

そうしよう。


まずアルゴリズムを実行してテストしてみて、もしうまくいかなかったら、それを捨てて忘れてしまうことだ。

もしうまくいったら、記事を掘り下げ、方法を掘り下げ、1%の 改善/変更/置換を試みることができる。

理由: