トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 963 1...956957958959960961962963964965966967968969970...3399 新しいコメント Forester 2018.05.29 09:50 #9621 イワン・ネグレシュニーまた、あなた自身は、純粋な偶然以外に、下方乖離の許容を正当化するものは何ですか? OOSがTrainより優れているはずと期待する正当な理由がない。 ランダムなOOSデータから、自分が学んだものよりも良い結果を求めるのはどうでしょうか?偶然を除いてはありえない。 最近、別のスレッドで、「生徒は先生より多くを知ることはできない」と書かれていました。 例 EPのデータの一部(例えば80%)はモデルにとって馴染みのあるもので、そこでは列車と同じ誤差を示します(誤差を30%とする)。EPのデータの残り20%は新しい、未学習のもので、50%の誤差を示すでしょう。この80%の馴染みのデータと20%の新しいデータを合わせると、サイトのOOSエラーは35%程度になるはずです。 ですから、OOSの結果が改善されるよりも、悪化することの方が多いと予想されます。 また、OOSに非常に多くの良い例が入り、その割合がTrain plotよりも多くなれば、改善される確率が高くなります。フィードバックの誤差を少なくする方法は、他に思いつきません。 イワン・ネグレシュニー そして、このランダム性と戦わずして、何があなたの主な仕事なのでしょうか?なぜなら、それはバリデーションやOOS、IOの意味を一般的にレベルアップさせるからです)。 課題は、誤差のデルタが大きくなりすぎないようにすることです。 Forester 2018.05.29 10:18 #9622 Aleshaに質問です。 600の予測因子から、どのようにノイズを選別するのでしょうか? Ivan Negreshniy 2018.05.29 10:32 #9623 エリブラリウスOOSがTrainより優れていることを期待する正当な理由がない。 ランダムなOOSデータが、ティーチングオンより良い結果を生むと期待できるのか?偶然を除いてはありえない。 最近、別のスレッドで、「生徒は先生より多くを知ることはできない」と書かれていました。 例OOSのデータの一部(例えば80%)はモデルにとって馴染みのある もので、そこではTrainと同じエラー(エラー=30%とする)を示します。OOSのデータの残りの20%は新しい、未学習のもので、50%のエラーを示します。この80%の馴染みのデータと20%の新しいデータを合わせると、サイトのOOSエラーは35%程度になるはずです。 ですから、OOSの結果が改善されるよりも、悪化することの方が多いと予想されます。 また、OOSに非常に多くの良い例が入り、その割合がTrain plotよりも多くなれば、改善される確率が高くなります。フィードバックの誤差を少なくする方法は、他に思いつきません。 課題は、誤差のデルタが大きくなりすぎないようにすることです。混乱しないように、用語を定義する必要がある - OOSまたはOOS(サンプル外)は、モデルにとって馴染みのない定義によって、データであり、別のものはIS(サンプル内)である Forester 2018.05.29 10:36 #9624 イワン・ネグレシュニー用語の定義が必要です。OOSまたはOOS(out of sample)はデータであり、定義上、身近なモデルではない、IS(in sample)は別の問題である。 データに規則性が見つかれば、それに対応する例題は身近なものと考えることができる。 Yuriy Asaulenko 2018.05.29 10:46 #9625 エリブラリウスまた、多くの良い事例がOOSに入ることで、電車部門よりも割合が多くなり、改善される可能性があります。フィードバックループの誤差を減らすために、他の選択肢はないと思うのですが。国防総省の本で読んだのですが、訓練するときは、成功者と失敗者の比率を現実に対応させるべきとのことでした。成功した成果も、失敗した成果も、等しく訓練する必要があります。 Forester 2018.05.29 10:53 #9626 ユーリイ・アサウレンコ国防総省の本で読んだのですが、訓練をするときは、成功と失敗の比率が現実と一致するようにしなければならないそうです。成功した結果も、失敗した結果も、平等に教えるべきです。 では、なぜ失敗例やノイズの多い例をフィルタリングしたり、分離して「わからない」に再分割し、再度ネットワークを学習するのでしょうか? Yuriy Asaulenko 2018.05.29 10:57 #9627 エリブラリウス それなら、悪い例やノイズの多い例をフィルタリングしたり、それらを分離して「わからない」に仕切り直して、もう一度ネットワークを学習するのはどうだろう?意識はしていない。それは、そういう人のためにある。上に書いたように教えています。 Maxim Dmitrievsky 2018.05.29 12:28 #9628 Dr.トレーダーそうですね、デモがなくなってしまったのは残念です。そして、あなたがOOSを見過ぎるせいで、OOSモデルは選択できないと言う記事を引用し、ここのフォーラムで何度も同じことを書いたにもかかわらず、です。TOFとTOF上の安定性に直接的な相関があることは、すでに書きました。 OOBでは今までのトラインと同じエラーは出ませんでした、いつも最低2回以上です。後でもう一度やってみます、もうこのくだりにはうんざりです :) アルグリブ自体では他に見るべきものがないので、Pに乗り換えて良い機種を手に入れるしかないのかもしれませんね Yuriy Asaulenko 2018.05.29 14:03 #9629 マキシム・ドミトリエフスキーalglib自身は何も表示させないのでずっと前に言っただろ、行き止まりだって。MT - R、MathLab、A_K2のような、VisSimなどでモデリングしてはいけません。 モデルが動くようになったら、MTに移せばいいし、移せないことはない)。 Maxim Dmitrievsky 2018.05.29 14:12 #9630 ユーリイ・アサウレンコ昔から言われていることですが、行き止まりなんですね。MT - R、MathLab、A_K2のように、VisCimなどでモデリングしてはいけません。 モデルが機能するようになったら、それをMTに移植してもいいし、しなくてもいい)。他に気になることはありますか? 1...956957958959960961962963964965966967968969970...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
また、あなた自身は、純粋な偶然以外に、下方乖離の許容を正当化するものは何ですか?
OOSがTrainより優れているはずと期待する正当な理由がない。
ランダムなOOSデータから、自分が学んだものよりも良い結果を求めるのはどうでしょうか?偶然を除いてはありえない。
最近、別のスレッドで、「生徒は先生より多くを知ることはできない」と書かれていました。
例
EPのデータの一部(例えば80%)はモデルにとって馴染みのあるもので、そこでは列車と同じ誤差を示します(誤差を30%とする)。EPのデータの残り20%は新しい、未学習のもので、50%の誤差を示すでしょう。この80%の馴染みのデータと20%の新しいデータを合わせると、サイトのOOSエラーは35%程度になるはずです。
ですから、OOSの結果が改善されるよりも、悪化することの方が多いと予想されます。
また、OOSに非常に多くの良い例が入り、その割合がTrain plotよりも多くなれば、改善される確率が高くなります。フィードバックの誤差を少なくする方法は、他に思いつきません。
そして、このランダム性と戦わずして、何があなたの主な仕事なのでしょうか?なぜなら、それはバリデーションやOOS、IOの意味を一般的にレベルアップさせるからです)。
課題は、誤差のデルタが大きくなりすぎないようにすることです。
600の予測因子から、どのようにノイズを選別するのでしょうか?
OOSがTrainより優れていることを期待する正当な理由がない。
ランダムなOOSデータが、ティーチングオンより良い結果を生むと期待できるのか?偶然を除いてはありえない。
最近、別のスレッドで、「生徒は先生より多くを知ることはできない」と書かれていました。
例
OOSのデータの一部(例えば80%)はモデルにとって馴染みのある もので、そこではTrainと同じエラー(エラー=30%とする)を示します。OOSのデータの残りの20%は新しい、未学習のもので、50%のエラーを示します。この80%の馴染みのデータと20%の新しいデータを合わせると、サイトのOOSエラーは35%程度になるはずです。
ですから、OOSの結果が改善されるよりも、悪化することの方が多いと予想されます。
また、OOSに非常に多くの良い例が入り、その割合がTrain plotよりも多くなれば、改善される確率が高くなります。フィードバックの誤差を少なくする方法は、他に思いつきません。
課題は、誤差のデルタが大きくなりすぎないようにすることです。
混乱しないように、用語を定義する必要がある - OOSまたはOOS(サンプル外)は、モデルにとって馴染みのない定義によって、データであり、別のものはIS(サンプル内)である
用語の定義が必要です。OOSまたはOOS(out of sample)はデータであり、定義上、身近なモデルではない、IS(in sample)は別の問題である。
また、多くの良い事例がOOSに入ることで、電車部門よりも割合が多くなり、改善される可能性があります。フィードバックループの誤差を減らすために、他の選択肢はないと思うのですが。
国防総省の本で読んだのですが、訓練するときは、成功者と失敗者の比率を現実に対応させるべきとのことでした。成功した成果も、失敗した成果も、等しく訓練する必要があります。
国防総省の本で読んだのですが、訓練をするときは、成功と失敗の比率が現実と一致するようにしなければならないそうです。成功した結果も、失敗した結果も、平等に教えるべきです。
それなら、悪い例やノイズの多い例をフィルタリングしたり、それらを分離して「わからない」に仕切り直して、もう一度ネットワークを学習するのはどうだろう?
意識はしていない。それは、そういう人のためにある。上に書いたように教えています。
そうですね、デモがなくなってしまったのは残念です。そして、あなたがOOSを見過ぎるせいで、OOSモデルは選択できないと言う記事を引用し、ここのフォーラムで何度も同じことを書いたにもかかわらず、です。
TOFとTOF上の安定性に直接的な相関があることは、すでに書きました。
OOBでは今までのトラインと同じエラーは出ませんでした、いつも最低2回以上です。後でもう一度やってみます、もうこのくだりにはうんざりです :)
アルグリブ自体では他に見るべきものがないので、Pに乗り換えて良い機種を手に入れるしかないのかもしれませんねalglib自身は何も表示させないので
ずっと前に言っただろ、行き止まりだって。MT - R、MathLab、A_K2のような、VisSimなどでモデリングしてはいけません。
モデルが動くようになったら、MTに移せばいいし、移せないことはない)。
昔から言われていることですが、行き止まりなんですね。MT - R、MathLab、A_K2のように、VisCimなどでモデリングしてはいけません。
モデルが機能するようになったら、それをMTに移植してもいいし、しなくてもいい)。
他に気になることはありますか?