トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3215 1...320832093210321132123213321432153216321732183219322032213222...3399 新しいコメント mytarmailS 2023.08.31 13:58 #32141 fxsaber #:マーティン そして、もし反動がない傾向が強ければ、マーティンはうまくいくのだろうか? そして、なぜうまくいかないのだろうか? fxsaber#:それは哲学 です。 1)あるアルゴリズムが長い間市場で儲けていれば、それは規則性ですよね? 2)そして、このアルゴリズムの上に別のアルゴリズムを重ね合わせ、そのアルゴリズムが最初のアルゴリズムを観察し、統計を取り、売買シグナルを出し、お金を稼ぐ。 それなら、それはすでに哲学であって、あなたの言うパターンではない。 それこそ、私がトレーダーの例で説明したことだ...。 fxsaber 2023.08.31 14:04 #32142 mytarmailS #:それなら、それは哲学であって、パターンではないということになる。 私はお互いに時間の無駄だと思う。きっと、直接向かい合って話していたら、相互理解の確率は1に近いと思う。 TCの結果に何かを重ねるのは普通のこと。最も一般的なのはフィルターだ。MM(例えば、バランスカーブに対するフィルター:より強く逸脱すれば、MMをより強く変化させる)。さらにまれなのは、取引結果の規則性を探すことだ。 Maxim Dmitrievsky 2023.08.31 14:06 #32143 fxsaber #:お互いに時間の無駄だと思う。もし私たちが直接向かい合って話していたら、相互理解の確率は1に近いと思う。 UAEでの会議の提案はまだ有効だ ) mytarmailS 2023.08.31 14:14 #32144 fxsaber #:お互いに時間の無駄だと思う。もし私たちが直接向かい合って話していたら、相互理解の確率は1に近いと思う。 そうですね Valeriy Yastremskiy 2023.09.01 09:44 #32145 Maxim Dmitrievsky #:スペルを間違えている。OOS-テスト、検証-モデル評価 (検証)のための2つ目のサブサンプル(トレインと共に)。バリデーションはテストと同じでも別々でもよい。この分離は、IOがしばしばトレーニングを早期に中止するために2番目のサブサンプルを使用することから生まれた。これはある意味、フィッティングと呼べるかもしれない。 そのため、3つのサブサンプルを使用し、そのうちの1つはトレーニングにまったく関与しない。 検証 - 有効性の確認。はい/いいえ。適合度モデルの評価というのは、ちょっとやっかいなものだ。) 会話は用語とその意味についてだと思う)) Maxim Dmitrievsky 2023.09.01 10:21 #32146 Valeriy Yastremskiy #:バリデーション - 有効性の確認。はい/いいえ。評価は目的適合モデルにとって少し厄介なものである。)話は用語とその意味についてだと思う)。検証は評価に先行する、あるいは評価を含む、お好きなように。それが目的ではない。そして、あなたが言いたかったのは、MOS派は紛らわしいサブサンプルだということだ :))しかし、彼らは産業的規模で複数のユートピア市場理論を生み出している。我々のゴールは新しいデータで最高のパフォーマンスを発揮するネットワークを見つけることなので、異なるネットワークを比較する最も単純なアプローチは、トレーニングに使用したデータとは独立したデータで誤差関数を推定することです。異なるネットワークは、訓練データセットに関して定義された対応する誤差関数を最小化することで訓練される。次に、独立した検証セットで誤差関数を評価することによってネットワークの性能を比較し、検証セットに関する誤差が最小のネットワークを選択する。この手法はホールドアウト法と呼ばれる。この手順だけでは検証集合に過負荷がかかる可能性があるため、選択されたネットワークの性能は、テスト集合と呼ばれる3つ目の独立したデータ集合での性能を測定することで検証されなければならない。このプロセスの応用として、早期停止がある。候補モデルは同じネットワークの連続した反復であり、検証セットでの誤差が大きくなった時点で学習が停止され、前のモデル(誤差が最小のもの)が選択される。https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets Forester 2023.09.01 11:01 #32147 Maxim Dmitrievsky #:このプロセスの応用として、早期停止がある。候補モデルは同じネットワークの連続した反復であり、検証セットでの誤差が大きくなると学習が停止し、前のモデル(誤差が最小のもの)が選択 される。 パターンがほとんどないデータでは、早期停止が行われたプロットにフィットし、良いトレースが得られます。トレインを1セクション増やすだけで、ほぼ同じモデルが得られます。 Maxim Dmitrievsky 2023.09.01 11:10 #32148 Forester #: パターンがほとんどない場合、早めの停止が行われたプロットへのフィットがあり、トレースも良好である。トレインを1セクション増やすだけで、ほぼ同じパターンが得られます。 それは別の問題だ。 fxsaber 2023.09.01 11:23 #32149 Maxim Dmitrievsky #: それは違う質問だ。 私が提起したのはそれだ。 Maxim Dmitrievsky 2023.09.01 11:41 #32150 fxsaber #:それが彼が持ち上げていたものだ。 最低でもブートストラップは混ぜてください。もしサンプルが異なる分布から得られたものであれば、どのような比較ができるだろう。MOはパターンを探すのではなく、すでに知られているパターンでサンプルを分類する。 もしMOでパターンを探すことが、私がやっているような別の技術だとしたら、MOでパターンを探すことは! 1...320832093210321132123213321432153216321732183219322032213222...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
マーティン
そして、もし反動がない傾向が強ければ、マーティンはうまくいくのだろうか? そして、なぜうまくいかないのだろうか?
それは哲学 です。
1)あるアルゴリズムが長い間市場で儲けていれば、それは規則性ですよね?
2)そして、このアルゴリズムの上に別のアルゴリズムを重ね合わせ、そのアルゴリズムが最初のアルゴリズムを観察し、統計を取り、売買シグナルを出し、お金を稼ぐ。
それなら、それはすでに哲学であって、あなたの言うパターンではない。
それこそ、私がトレーダーの例で説明したことだ...。
それなら、それは哲学であって、パターンではないということになる。
私はお互いに時間の無駄だと思う。きっと、直接向かい合って話していたら、相互理解の確率は1に近いと思う。
TCの結果に何かを重ねるのは普通のこと。最も一般的なのはフィルターだ。MM(例えば、バランスカーブに対するフィルター:より強く逸脱すれば、MMをより強く変化させる)。さらにまれなのは、取引結果の規則性を探すことだ。
お互いに時間の無駄だと思う。もし私たちが直接向かい合って話していたら、相互理解の確率は1に近いと思う。
UAEでの会議の提案はまだ有効だ )
お互いに時間の無駄だと思う。もし私たちが直接向かい合って話していたら、相互理解の確率は1に近いと思う。
そうですね
スペルを間違えている。OOS-テスト、検証-モデル評価 (検証)のための2つ目のサブサンプル(トレインと共に)。
バリデーションはテストと同じでも別々でもよい。
この分離は、IOがしばしばトレーニングを早期に中止するために2番目のサブサンプルを使用することから生まれた。これはある意味、フィッティングと呼べるかもしれない。
そのため、3つのサブサンプルを使用し、そのうちの1つはトレーニングにまったく関与しない。検証 - 有効性の確認。はい/いいえ。適合度モデルの評価というのは、ちょっとやっかいなものだ。)
会話は用語とその意味についてだと思う))
バリデーション - 有効性の確認。はい/いいえ。評価は目的適合モデルにとって少し厄介なものである。)
話は用語とその意味についてだと思う)。
検証は評価に先行する、あるいは評価を含む、お好きなように。それが目的ではない。
そして、あなたが言いたかったのは、MOS派は紛らわしいサブサンプルだということだ :))しかし、彼らは産業的規模で複数のユートピア市場理論を生み出している。
我々のゴールは新しいデータで最高のパフォーマンスを発揮するネットワークを見つけることなので、異なるネットワークを比較する最も単純なアプローチは、トレーニングに使用したデータとは独立したデータで誤差関数を推定することです。異なるネットワークは、訓練データセットに関して定義された対応する誤差関数を最小化することで訓練される。次に、独立した検証セットで誤差関数を評価することによってネットワークの性能を比較し、検証セットに関する誤差が最小のネットワークを選択する。この手法はホールドアウト法と呼ばれる。この手順だけでは検証集合に過負荷がかかる可能性があるため、選択されたネットワークの性能は、テスト集合と呼ばれる3つ目の独立したデータ集合での性能を測定することで検証されなければならない。
このプロセスの応用として、早期停止がある。候補モデルは同じネットワークの連続した反復であり、検証セットでの誤差が大きくなった時点で学習が停止され、前のモデル(誤差が最小のもの)が選択される。
https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_setsパターンがほとんどないデータでは、早期停止が行われたプロットにフィットし、良いトレースが得られます。トレインを1セクション増やすだけで、ほぼ同じモデルが得られます。
パターンがほとんどない場合、早めの停止が行われたプロットへのフィットがあり、トレースも良好である。トレインを1セクション増やすだけで、ほぼ同じパターンが得られます。
それは違う質問だ。
私が提起したのはそれだ。
それが彼が持ち上げていたものだ。