トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3363

 
mytarmailS #:

基本的に、通常のトレード、非常に良い、そしてただ良いの3つの状態がある。

やっぱりシンプルだね。

値は一定ですか、動的ですか?

この質問に回答しました。

 
fxsaber #:

簡単なことだとわかっていた。

その質問に答えた。


平均を例にとると、平均には周期というパラメータがある。

このパラメータは定数であることもあれば、計算式に従って変化させることもできる。

パラメータは一定なのですね?

 
mytarmailS #:

平均を例にとると、平均にはperiodというパラメータがある。

このパラメータは定数であることもあれば、計算式によって変更することもできる。

パラメータは一定なんですね?

その用語はよく知りません。MT5-testerで最適化された5つのパラメータ。

 
fxsaber #:

そうやって何でも説明できる。もちろん、具体的に言えることは何もない。私自身は調整だと思う。さんのフェアランスのフェアランスのフェアランスフェアランスフェアランスフェアランスフェアランスフェアランスフェアランスフェアランスフェアランスこのような状況では、OOSももちろんこのように説明できる。


これもEURUSDです。右のOOSは2023年の最後の4ヶ月です。OOSは2023年の残りです。

他の説明の選択肢はありますか?😀 チャートからは具体的なことはわかりませんね。

ウルフ・フォワードによって、過大最適化が正しく行われる確率を計算することができます。ー フォワードで月何回オーバー・オプティマイゼーションをーショ ンでー 利益をー 損失ーこれは経済的な自信と勇気を与えるだろう。
 
Maxim Dmitrievsky #:
いくつかのウルフ・フォワードによって、正しいオーバー・オプティマイゼーションの可能性を計算することができる。月に何回フォワードで利益を出してオーバー・オプティマイズし、何回損失を出したか。これにより、経済的な自信と誇りを得ることができる。

おそらく、このような方法は、マーケットがサンプルで変化しており、したがって右の良いOOSは偶然ではないという仮説を確認/反証するのに有効であろう。ありがとう、少し考えてみるよ。

 
mytarmailS #:


平均を例にとると、平均にはperiodというパラメータがある。

このパラメータは定数であることもあれば、計算式によって変更することもできる。

パラメータは定数なのですね?

定数であれば、最適化後に変わることはありません。
 
fxsaber #:

この用語には馴染みがありません。MT5-testerで最適化された5つのパラメータ。

最適化されたパラメータを計算するためのパラメータと計算式を検索するのが理にかなっているのかもしれません。最適化の結果に基づいて。もちろん、それは複雑です。
 
Valeriy Yastremskiy #:
最適化されたパラメータを計算するためのパラメータと計算式を探すことは、理にかなっているのかもしれない。最適化の結果に基づいてね。もちろん、それは複雑だ。
+
そう言いたかったんだけど、理解してほしかったんだ。
人は自分の推測しか評価しない。
 
fxsaber #:

おそらく、このような方法は、マーケットがサンプルで変化した、したがって、右の良いOOSは偶然ではないという仮説を確認/反証するのに有効であろう。ありがとうございます。

そうですね、サンプル・ウィンドウを後方に動かすと、すべてのOOS曲線が変化します。多項式回帰のように、ウィンドウを動かすと予測値が狂ったようにジャンプします。optパラメータや多項式の次数が大きければ大きいほど、このピースはよりぐねぐねします。理想的には、マウスでウィンドウを動かしてすぐに見ることができるような高速な最適化が必要です。あなたはベスト・インターバルでそのようなことをしたと思う。

前回の記事では、MOのトレーニングをより安定させる方法について提案しました。つまり、再トレーニングを減らすということだ。しかし、歩留まりは悪くなります。

これはバイアスと分散のトレードオフで、TSパラメータを増やすと新しいデータでドリフトし、減らすと予測値の分散が大きくなります。ローカル・オプティマイザーはこれを理解できない。
 
Maxim Dmitrievsky #:
そうです、サンプル・ウィンドウを後方に動かすと、すべてのOOS曲線が変化します。ちょうど多項回帰でウィンドウを動かすと予測が狂ったようにジャンプするのと同じです。optパラメータや多項式の次数が大きければ大きいほど、この悩みは大きくなります。理想的には、マウスでウィンドウを動かしてすぐに見ることができるような高速な最適化が必要です。 。

前回の記事で、MOのトレーニングをより安定させる方法のバリエーションを提案しました。つまり、再トレーニングを減らすことだ。しかし、収益性は悪くなる。

これはバイアスと分散のトレードオフで、TSのパラメーターを増やすと新しいデータでドリフトし、減らすと予測のばらつきが大きくなる。ローカル・オプティマイザーはこれを理解できない。

すべてがもっと単純なのだ。

彼らは非定常ランダム過程のある区間に何かを当てはめたが、非定常過程のどの区間も非定常過程の他の区間とは何の関係もないことに気づいていない。したがって、他の区間での結果は恣意的である。良い結果かもしれないが、悪い結果かもしれない。

ところで、「分散」という概念は、定常ランダム過程のことを指している。

理由: