トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1139 1...113211331134113511361137113811391140114111421143114411451146...3399 新しいコメント Aleksey Vyazmikin 2018.11.01 14:45 #11381 pantural: はい、このエラーは間違いなく報告する価値があります。あなたのレポートを例として使用してもよろしいですか?どう見てもフィット感がありまくりで、問題はそれをいかに許容範囲内に抑えるかということ。もちろん、使っていただいて結構です。このレポートに価値のあるものはありません フィッティングについては、ここで、どうしようかと思うのですが、一方では履歴で得られた組み合わせを葉っぱの形で限定して使うことで、フィッティングの影響を軽減できるはずですが、他方では、トレーニングサンプルで機能していた葉っぱの6割がテストサンプルで機能しなくなるんですね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。 大きな数のプレディクターは、空に浮かぶ大きな星のようなもので、その集まりから、他の太陽系の惑星からは見ることのできない、さまざまな星座を思いつくことができ、その組み合わせの数は、市場の参入 数を超える--だからこそ、フィッティングが存在するのです。 Ivan Negreshniy 2018.11.01 15:34 #11382 Aleksey Vyazmikin: もちろん、使っていただいて結構です。このレポートに価値のあるものはありません一方、履歴から得られる組み合わせをリーフという形で限定して使うことで、フィッティングの影響を軽減できるはずですが、一方で、 トレーニングサンプルで機能していたリーフの6割がテストサンプルで機能 しなくなることがありますね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。予測因子の数が多いというのは、空に浮かぶ大量の星のようなもので、それが集まっているからこそ、他の太陽系の惑星からは見えないさまざまな星座を発明することができ、組み合わせの数が市場の参入 数を超える--それが調整の原因です。研修での調整は、誰がなんと言おうと、これまでも、そしてこれからも、高いクオリティで行われなければならないし、そうすればワーキング・リーフも増えるだろう。 比喩的に言えば、トレーニングでトレードすることと、加速して慣性でOOSを飛んでしまう飛び込み台から飛び降りることを比較することができます。 ただし、このサンプルのエクイティグラフが湾曲してデコボコしているように見える場合は、うまくジャンプすることをあてにしないこと)。 pantural 2018.11.01 17:45 #11383 アレクセイ・ヴャジミキン一方、履歴上で得られた組み合わせをリーフの形で限定して使うことで、フィッティングの影響を軽減できるはずですが、一方で、トレーニングサンプルで機能していたリーフの6割が、テストサンプルで機能しなくなるんですね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。 予測変数の数が多いということは、空にある大量の星のようなもので、それが集まっているからこそ、他の太陽系の惑星からは見えないようなさまざまな星座を作ることができ、その組み合わせの数は市場の参入 数を超える--だからフィッティングがあるのです。それは10億ドルの質問です IMHO どんな誘導は、フィッティング、MOはちょうど統計、アウトオブコントロール理論、工学統計、ヒューリスティックと松葉杖を軽蔑していない、統計は1または別の平均、平均、平均からの偏差の平均、などです。ラッセル・チキンの譬えは、飼い主がニワトリに数百回(統計的に有意な回数)餌をやるが、それはわざとで、一回で屠殺するためだ((たぶん、ドールも同じだろう)。 Aliaksandr Hryshyn 2018.11.01 18:27 #11384 反省のための質問です。 歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか? Yuriy Asaulenko 2018.11.01 19:26 #11385 アリアクサンデル・フリシン反省のための質問です。 歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?何もない。どちらのクラスの戦略も、履歴に合わせて調整されます。 おそらく、その目的や手段は異なるのだろうが、著者でない我々はそれを知ることができない)。 mytarmailS 2018.11.02 11:01 #11386 アリアクサンデル・フリシン反省のための質問です。 歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさん あります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?)))))))))))))))))))))))))))))))))))))))............. Aliaksandr Hryshyn 2018.11.02 11:08 #11387 mytarmailS:)))))))))))))))))))))))))))))))))))))))............. どちらかというと、ただの疑問なんですけどね)。 pantural 2018.11.02 11:08 #11388 アリアクサンデル・フリシン反省のための質問です。 歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?という疑問はもっともです。 学習と制御で、モデルにたった一つのことを教えれば、誤差曲線は次のようになります。 過剰学習は、発散が始まるとき(画像の19番目のn)であり、したがって、質問の答えは、 調整されたモデルは、コントロールのものよりも歴史的にはるかに優れて いることになります。理想的には、ヒストリーとコントロール(OOS)のエクイティのグラフが区別できないようにすることです。つまり、地元の「達人」は全くゴミ、その逆で、どこで歴史が終わり、どこでチェックが始まったのかがわからないのです。 Renat Akhtyamov 2018.11.02 11:13 #11389 MOのエキスパートである紳士たち。 関数をグラフ化するための学習ニューロンを作る方法について、誰かリンクを教えてください。 Maxim Dmitrievsky 2018.11.02 11:19 #11390 pantural。問題は正解です。 トレーニングでもコントロールでも、ONEと同じものをモデルに教えると仮定すると、誤差曲線はこのくらいになります。 オーバートレーニングは、発散が始まるとき(図の19n目あたり)なので、質問の答えは、 オーバートレーニングの モデルは、コントロールのモデルよりも歴史的に非常に優れて いることになります。理想的には、ヒストリーとコントロール(OOS)のエクイティのグラフが区別できないようにすることです。つまり、「レベルスプリングボード」についての地元の「達人」たちの主張は、全くナンセンスであり、正反対で、物語がどこで終わり、どこでコントロールが始まったのかが見えないはずです。2つのセレクトのバランスをとる、ただそれだけです。3回目の失敗を防ぐことはできないが、アプローチは正しい 1...113211331134113511361137113811391140114111421143114411451146...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
はい、このエラーは間違いなく報告する価値があります。あなたのレポートを例として使用してもよろしいですか?
どう見てもフィット感がありまくりで、問題はそれをいかに許容範囲内に抑えるかということ。
もちろん、使っていただいて結構です。このレポートに価値のあるものはありません
フィッティングについては、ここで、どうしようかと思うのですが、一方では履歴で得られた組み合わせを葉っぱの形で限定して使うことで、フィッティングの影響を軽減できるはずですが、他方では、トレーニングサンプルで機能していた葉っぱの6割がテストサンプルで機能しなくなるんですね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。
大きな数のプレディクターは、空に浮かぶ大きな星のようなもので、その集まりから、他の太陽系の惑星からは見ることのできない、さまざまな星座を思いつくことができ、その組み合わせの数は、市場の参入 数を超える--だからこそ、フィッティングが存在するのです。
もちろん、使っていただいて結構です。このレポートに価値のあるものはありません
一方、履歴から得られる組み合わせをリーフという形で限定して使うことで、フィッティングの影響を軽減できるはずですが、一方で、 トレーニングサンプルで機能していたリーフの6割がテストサンプルで機能 しなくなることがありますね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。
予測因子の数が多いというのは、空に浮かぶ大量の星のようなもので、それが集まっているからこそ、他の太陽系の惑星からは見えないさまざまな星座を発明することができ、組み合わせの数が市場の参入 数を超える--それが調整の原因です。
研修での調整は、誰がなんと言おうと、これまでも、そしてこれからも、高いクオリティで行われなければならないし、そうすればワーキング・リーフも増えるだろう。
比喩的に言えば、トレーニングでトレードすることと、加速して慣性でOOSを飛んでしまう飛び込み台から飛び降りることを比較することができます。
ただし、このサンプルのエクイティグラフが湾曲してデコボコしているように見える場合は、うまくジャンプすることをあてにしないこと)。
一方、履歴上で得られた組み合わせをリーフの形で限定して使うことで、フィッティングの影響を軽減できるはずですが、一方で、トレーニングサンプルで機能していたリーフの6割が、テストサンプルで機能しなくなるんですね。問題は、ストーリーがどのように変化したのか、うまくいっていたものがうまくいかなくなったのは一体どういうことなのかを理解することです。
予測変数の数が多いということは、空にある大量の星のようなもので、それが集まっているからこそ、他の太陽系の惑星からは見えないようなさまざまな星座を作ることができ、その組み合わせの数は市場の参入 数を超える--だからフィッティングがあるのです。
それは10億ドルの質問です IMHO どんな誘導は、フィッティング、MOはちょうど統計、アウトオブコントロール理論、工学統計、ヒューリスティックと松葉杖を軽蔑していない、統計は1または別の平均、平均、平均からの偏差の平均、などです。ラッセル・チキンの譬えは、飼い主がニワトリに数百回(統計的に有意な回数)餌をやるが、それはわざとで、一回で屠殺するためだ((たぶん、ドールも同じだろう)。
反省のための質問です。
歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?
反省のための質問です。
歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?
何もない。どちらのクラスの戦略も、履歴に合わせて調整されます。
おそらく、その目的や手段は異なるのだろうが、著者でない我々はそれを知ることができない)。
反省のための質問です。
歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさん あります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?
))))))))))))))))))))))))))))))))))))))).............
))))))))))))))))))))))))))))))))))))))).............
反省のための質問です。
歴史にフィットした戦略もたくさんありますし、新しいデータで良い結果を出す戦略もたくさんあります。この2つの戦略をヒストリーで実行すると、どのように違うのでしょうか?
という疑問はもっともです。
学習と制御で、モデルにたった一つのことを教えれば、誤差曲線は次のようになります。
過剰学習は、発散が始まるとき(画像の19番目のn)であり、したがって、質問の答えは、 調整されたモデルは、コントロールのものよりも歴史的にはるかに優れて いることになります。理想的には、ヒストリーとコントロール(OOS)のエクイティのグラフが区別できないようにすることです。つまり、地元の「達人」は全くゴミ、その逆で、どこで歴史が終わり、どこでチェックが始まったのかがわからないのです。
MOのエキスパートである紳士たち。
関数をグラフ化するための学習ニューロンを作る方法について、誰かリンクを教えてください。
問題は正解です。
トレーニングでもコントロールでも、ONEと同じものをモデルに教えると仮定すると、誤差曲線はこのくらいになります。
オーバートレーニングは、発散が始まるとき(図の19n目あたり)なので、質問の答えは、 オーバートレーニングの モデルは、コントロールのモデルよりも歴史的に非常に優れて いることになります。理想的には、ヒストリーとコントロール(OOS)のエクイティのグラフが区別できないようにすることです。つまり、「レベルスプリングボード」についての地元の「達人」たちの主張は、全くナンセンスであり、正反対で、物語がどこで終わり、どこでコントロールが始まったのかが見えないはずです。
2つのセレクトのバランスをとる、ただそれだけです。3回目の失敗を防ぐことはできないが、アプローチは正しい