トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1302 1...129512961297129812991300130113021303130413051306130713081309...3399 新しいコメント Aleksey Vyazmikin 2019.02.08 11:20 #13011 マキシム・ドミトリエフスキー一番嬉しいのは、「予測因子」の数が多いことです。そもそも引用元はどこだろう?9割方ゴミです。みんな自分の錯覚をいろいろと表現して、その場その場でお金をたくさん持っている人の錯覚が働くんです。それは、枝や葉で構成される茂みのようなもので、誰かがそれらを異なる複雑な形に刈り込んで、熟考する人々に異なる反応を引き起こすかもしれないのです。 Maxim Dmitrievsky 2019.02.08 11:40 #13012 アレクセイ・ヴャジミキンみんな自分の錯覚をいろいろと表現して、その場その場でお金をたくさん持っている人の錯覚が働くんです。それは、枝葉からなる低木のようなもので、誰かがそれを別の複雑な形に刈り込むことを思いつき、思索する人たちに別の反応を引き起こす。まあ、人それぞれですが、そんな几帳面な私は、とにかく、このままの調整で、しばらくはうまくいくだろうという主旨で、悩んでいます入力と出力の最適な組み合わせが見つかれば、4つのプレディクターで十分であることがわかりました。 要するに、効率と時間の妥協が必要なのです Yuriy Asaulenko 2019.02.08 16:37 #13013 マキシム・ドミトリエフスキーどのように掘っても、幻想的な「パターン」はどこにでもあり、どのような現象にも見出すことができる。 何より嬉しいのは、「予測因子」の多さです。引用元はどこなのでしょうか?9割方ゴミです。その通り、ゴミです。そして、それぞれの指標を別々に測ると、ほぼ半々で、しかも、その数値が本当に意味をなす場所での動作範囲は非常に狭いのです。 しかし、一緒になって...これらはすでに他の指標の適用範囲を限定し、N次元空間のある領域を定義しており、そこでは共同測定が意味を持つ。相乗効果というオシャレな言葉もありますね(笑)。 私の見るところ、7~8個の指標-予測変数が必要なようです。唯一の問題は、それらが同じものを測定してはいけないということです)。 Aleksey Vyazmikin 2019.02.09 10:37 #13014 マキシム・ドミトリエフスキーまあ、人それぞれですが、私はそのような几帳面さが気になります。いずれにせよ、しばらくは使えることが最大のポイントです最適な入出力の組み合わせが見つかれば、4つの予測器でも十分であることが判明しました。 つまり、効率と時間消費との妥協が必要なのです。そこが肝心なところなのですが...。 それでいて、結果的には 1.メモリー効果のため、大きなモデルはオーバートレーニングになる 2.ルール(リーフ/バイナリツリー)が履歴でうまく機能すればするほど、本番でのチャンスは少なくなる そうでなければ、このような高精度で歴史に残るようなグラフを得ることができます。 と1000年の利益のみ(資金のドローダウンもほぼ同じ)の検証サンプル(チャートで確認できます)で、精度は58%に落ちます。 テストは、「確率」0.6で1/0分割起動で行われ、確率0.5では、研究期間外では利益が5000程度ですが、テスト期間では57程度で、チャートはより歩き、精度は低くなっています。 研修期間中の余分な読書が再研修の保証になるということでしょうか? Грааль 2019.02.09 10:53 #13015 アレクセイ・ヴャジミキンが、テスト期間中は57%台で推移しています。 トレーニング期間中の余程の読みがあれば、オーバートレーニングの保証になるということでしょうか。しかし、糸とテストの結果の差が大きければ大きいほど、オーバーフィッティングの可能性は高くなります。 Aleksey Vyazmikin 2019.02.09 10:58 #13016 ザ・グレイルテストでの精度57%は非常に良い、いや良すぎるくらいですが、そうですね、モミの木とテストでの結果が違えば違うほど、詰め込みすぎの可能性が高くなりますね。だから、将来は不透明だと思うし、トレーニング以外のサンプルでうまくいくとは誰も言ってくれない...。ということで、何か接点がないかと探しています。 精度はどうでしょうか(ミス・エントリーを考慮に入れていないため、精度ではありません、1であるべきなのに0に分類されたもの)、利益は損失に等しくないので、それほど単純ではありません - 高い利益であるかもしれないし、逆であるかもしれません。その結果、確かにこのモデルはうまくいっているようだが、利益をもたらしているわけではないことがわかった。 Maxim Dmitrievsky 2019.02.09 11:01 #13017 アレクセイ・ヴャジミキンそこが肝心なところなのですが...。 それなのに、今のところ判明しているのは 1.メモリー効果のため、大きなモデルはオーバートレーニングになる 2.ルール(リーフ/バイナリツリー)が履歴でうまく機能すればするほど、本番でのチャンスは少なくなる そうでなければ、このような高精度で歴史に残るようなグラフを得ることができます。 と1000年の利益のみ(資金のドローダウンもほぼ同じ)の検証サンプル(チャートで確認できます)で、精度は58%に落ちます。 テストは「確率」0.6で1/0分割起動で行い、確率0.5では学習期間外で5000前後の利益ですが、テスト期間は57前後でチャートはより歩き、精度は低くなっています。 トレーニング期間の超良い読みは、オーバートレーニングの保証になるということでしょうか。原則として、そうです。 前兆があればあるほど、オーバートレーニングになる Maxim Dmitrievsky 2019.02.09 11:02 #13018 グレイルテストでの精度が57%というのは、非常に良い、いや良すぎるくらいですが、そうですね、モミの木とテストの結果が違えば違うほど、オーバーフィッティングの確率が高くなります。ランダムを良しとする人もいるんだから、おかしくなっちゃうよ )) ランダム+7%ネレンダムは悪いけど、ランダムよりはまし。いや悪いというか、気持ち悪いというか、全然モデルになってない。 機械学習とterverの基本を緊急に学ぶ。 特に、グラフが57%になったら、すぐにオーバートレーニングだと判断して、それ以上は分析しない。 Aleksey Vyazmikin 2019.02.09 11:09 #13019 マキシム・ドミトリエフスキーランダムの方が良いという意見もあるようですが、それは無視してください)) ランダム+7%のネランダムは悪いですが、ランダムよりは少しましです。いやいや......気持ち悪いよ、全然モデルじゃないじゃん は、機械学習とterverの基礎を緊急に学びます。今、トレーニング以外でモデルの精度はどの程度ですか?そして、どのような周期で、どのように落ちていく(変化していく)のか。 トレーニング以外の期間が10カ月あるんです。 Maxim Dmitrievsky 2019.02.09 11:10 #13020 アレクセイ・ヴャジミキン学習を超えて、今のモデルの精度はどうですか?また、どのような期間で、この数値がどのように下がる(変わる)のでしょうか? 10ヶ月のオフ・トレーニング期間があるんです。10k例でテストとトレースごとに10%の誤差、増加すると滑らかに増加する このエラーで、モデルは新しいデータで動作するようになりました。 検証の仕方が違うので、オプションで調べてみる必要があります。 もはやアルゴリズムを公開するのではなく、コミュニケーションするのみ 1...129512961297129812991300130113021303130413051306130713081309...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
一番嬉しいのは、「予測因子」の数が多いことです。そもそも引用元はどこだろう?9割方ゴミです。
みんな自分の錯覚をいろいろと表現して、その場その場でお金をたくさん持っている人の錯覚が働くんです。それは、枝や葉で構成される茂みのようなもので、誰かがそれらを異なる複雑な形に刈り込んで、熟考する人々に異なる反応を引き起こすかもしれないのです。
みんな自分の錯覚をいろいろと表現して、その場その場でお金をたくさん持っている人の錯覚が働くんです。それは、枝葉からなる低木のようなもので、誰かがそれを別の複雑な形に刈り込むことを思いつき、思索する人たちに別の反応を引き起こす。
まあ、人それぞれですが、そんな几帳面な私は、とにかく、このままの調整で、しばらくはうまくいくだろうという主旨で、悩んでいます
入力と出力の最適な組み合わせが見つかれば、4つのプレディクターで十分であることがわかりました。
要するに、効率と時間の妥協が必要なのです
どのように掘っても、幻想的な「パターン」はどこにでもあり、どのような現象にも見出すことができる。
何より嬉しいのは、「予測因子」の多さです。引用元はどこなのでしょうか?9割方ゴミです。
その通り、ゴミです。そして、それぞれの指標を別々に測ると、ほぼ半々で、しかも、その数値が本当に意味をなす場所での動作範囲は非常に狭いのです。
しかし、一緒になって...これらはすでに他の指標の適用範囲を限定し、N次元空間のある領域を定義しており、そこでは共同測定が意味を持つ。相乗効果というオシャレな言葉もありますね(笑)。
私の見るところ、7~8個の指標-予測変数が必要なようです。唯一の問題は、それらが同じものを測定してはいけないということです)。
まあ、人それぞれですが、私はそのような几帳面さが気になります。いずれにせよ、しばらくは使えることが最大のポイントです
最適な入出力の組み合わせが見つかれば、4つの予測器でも十分であることが判明しました。
つまり、効率と時間消費との妥協が必要なのです。
そこが肝心なところなのですが...。
それでいて、結果的には
1.メモリー効果のため、大きなモデルはオーバートレーニングになる
2.ルール(リーフ/バイナリツリー)が履歴でうまく機能すればするほど、本番でのチャンスは少なくなる
そうでなければ、このような高精度で歴史に残るようなグラフを得ることができます。
と1000年の利益のみ(資金のドローダウンもほぼ同じ)の検証サンプル(チャートで確認できます)で、精度は58%に落ちます。
テストは、「確率」0.6で1/0分割起動で行われ、確率0.5では、研究期間外では利益が5000程度ですが、テスト期間では57程度で、チャートはより歩き、精度は低くなっています。
研修期間中の余分な読書が再研修の保証になるということでしょうか?
が、テスト期間中は57%台で推移しています。
トレーニング期間中の余程の読みがあれば、オーバートレーニングの保証になるということでしょうか。
しかし、糸とテストの結果の差が大きければ大きいほど、オーバーフィッティングの可能性は高くなります。
テストでの精度57%は非常に良い、いや良すぎるくらいですが、そうですね、モミの木とテストでの結果が違えば違うほど、詰め込みすぎの可能性が高くなりますね。
だから、将来は不透明だと思うし、トレーニング以外のサンプルでうまくいくとは誰も言ってくれない...。ということで、何か接点がないかと探しています。
精度はどうでしょうか(ミス・エントリーを考慮に入れていないため、精度ではありません、1であるべきなのに0に分類されたもの)、利益は損失に等しくないので、それほど単純ではありません - 高い利益であるかもしれないし、逆であるかもしれません。その結果、確かにこのモデルはうまくいっているようだが、利益をもたらしているわけではないことがわかった。
そこが肝心なところなのですが...。
それなのに、今のところ判明しているのは
1.メモリー効果のため、大きなモデルはオーバートレーニングになる
2.ルール(リーフ/バイナリツリー)が履歴でうまく機能すればするほど、本番でのチャンスは少なくなる
そうでなければ、このような高精度で歴史に残るようなグラフを得ることができます。
と1000年の利益のみ(資金のドローダウンもほぼ同じ)の検証サンプル(チャートで確認できます)で、精度は58%に落ちます。
テストは「確率」0.6で1/0分割起動で行い、確率0.5では学習期間外で5000前後の利益ですが、テスト期間は57前後でチャートはより歩き、精度は低くなっています。
トレーニング期間の超良い読みは、オーバートレーニングの保証になるということでしょうか。
原則として、そうです。
前兆があればあるほど、オーバートレーニングになるテストでの精度が57%というのは、非常に良い、いや良すぎるくらいですが、そうですね、モミの木とテストの結果が違えば違うほど、オーバーフィッティングの確率が高くなります。
ランダムを良しとする人もいるんだから、おかしくなっちゃうよ )) ランダム+7%ネレンダムは悪いけど、ランダムよりはまし。
いや悪いというか、気持ち悪いというか、全然モデルになってない。
機械学習とterverの基本を緊急に学ぶ。
特に、グラフが57%になったら、すぐにオーバートレーニングだと判断して、それ以上は分析しない。ランダムの方が良いという意見もあるようですが、それは無視してください)) ランダム+7%のネランダムは悪いですが、ランダムよりは少しましです。
いやいや......気持ち悪いよ、全然モデルじゃないじゃん
は、機械学習とterverの基礎を緊急に学びます。
今、トレーニング以外でモデルの精度はどの程度ですか?そして、どのような周期で、どのように落ちていく(変化していく)のか。
トレーニング以外の期間が10カ月あるんです。
学習を超えて、今のモデルの精度はどうですか?また、どのような期間で、この数値がどのように下がる(変わる)のでしょうか?
10ヶ月のオフ・トレーニング期間があるんです。
10k例でテストとトレースごとに10%の誤差、増加すると滑らかに増加する
このエラーで、モデルは新しいデータで動作するようになりました。
検証の仕方が違うので、オプションで調べてみる必要があります。
もはやアルゴリズムを公開するのではなく、コミュニケーションするのみ