トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 487 1...480481482483484485486487488489490491492493494...3399 新しいコメント Maxim Dmitrievsky 2017.09.27 11:35 #4861 イワン・ネグレシュニーランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかは知らないが、バギングにはある。この変数が1より小さいと、誤差が大きくなるはずです。ですが、上記のようにエラーが平均的に表示されたままでした...今は正常です2017.09.27 18:34:34.076 RF sample (EURUSD,H1) Info=1 Error=0.2893400000000008 2017.09.27 18:34:34.077 RF sample (EURUSD,H1) Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 2017.09.27 18:34:34.077 RF sample (EURUSD,H1) Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // ちなみに、rをo.1だけ小さくしても、誤差は非常に大きくなります。r 0.9より上 0.8より下2017.09.27 18:36:11.298 RF sample (EURUSD,H1) Info=1 Error=0.5431000000000188 2017.09.27 18:36:11.299 RF sample (EURUSD,H1) Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 2017.09.27 18:36:11.300 RF sample (EURUSD,H1) Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // r = 0.66の場合(クラシックRF版と同様)2017.09.27 18:37:44.484 RF sample (EURUSD,H1) Info=1 Error=0.7935200000000080 2017.09.27 18:37:44.485 RF sample (EURUSD,H1) Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 2017.09.27 18:37:44.485 RF sample (EURUSD,H1) Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // そして結果は、掛け算の表がすでに悪い解答をしていることがわかる Andrey Kisselyov 2017.09.27 11:36 #4862 イワン・ネグレシュニーランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかどうかは知らないが、タグ付けはある。この変数が1より小さく設定されると、誤差が大きくなるはずです。マキシム・ドミトリエフスキー氏の ように誤差が少なくなるように И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267 RF sample (EURUSD,H1) Info=1 Error=0.0000000000000020 5億分の1に1回の割合で間違った取引をする必要があります。 my respect Ivan Negreshniy 2017.09.27 11:42 #4863 アンドレイ・キセリョフマキシム・ドミトリエフスキー氏の ように誤差が少なくなるように 50000000000000000に1つの間違った取引が必要です。 敬具決定木はすべてのパターンを記憶しているので、100%サンプリング、つまりR=1の訓練セットではまったく誤差が生じない可能性がある、と言っているのです。確かにオーバーフィットですが、それがアルゴリズムの仕組みです。だからこそ、ランダムフォレストでは様々なトリックが使われているのです。 Maxim Dmitrievsky 2017.09.27 11:44 #4864 イワン・ネグレシュニーディールについては、すべての決定木は実質的にすべてのパターンを記憶しており、100%サンプリング、すなわちR=1ではまったく誤差がない可能性があると言っているのです。この場合、モデルを推定するために、バッグの外を見る必要がありますが、その場合は、r=0.66 maxを設定する必要があります。 Andrey Kisselyov 2017.09.27 11:47 #4865 イワン・ネグレシュニー決定木はすべてのパターンを記憶しており、100%サンプリング、つまりR=1ではまったく誤差が生じないと言っているのですが、どうでしょう? しかし、あなたの言葉から、すべての木は何らかのパターンを覚えていて、それが後で繰り返されないかもしれないと理解しました。 しかし、繰り返しがない以上、それがどのように働くかは分からず、その確率を0.5とするのではなく、1を公理とすることができるのです。 を尊重します。 Ivan Negreshniy 2017.09.27 11:49 #4866 マキシム・ドミトリエフスキー これは、モデルを評価するために、バッグの外を見る必要がありますが、その後、r=0.66の最大値は、はい置く おそらく、それをピックアップする必要がありますが、1つのバギングは予測のための非常に強力な技術ではありません - IMHO Maxim Dmitrievsky 2017.09.27 11:50 #4867 イワン・ネグレシュニー おそらくピックアップする必要があると思いますが、タグ付けだけでは予測のための技術としてはあまり強くありません - IMHOまあ、今のところはそんなところですが...。:) その後、ディプリンクでまともなリブを引っ掛けたら、見ます。が、スピードは!? Andrey Kisselyov 2017.09.27 11:53 #4868 マキシム・ドミトリエフスキー ですが、上記のようにエラーが平均的に表示されたままでした...今は正常ですちなみに、rをo.1だけ小さくしても、誤差は大きくなる。r 0.9 以上 0.8 未満r = 0.66の場合(クラシックRF版と同様)そして、結果を見ればわかるのですが、掛け算の表はすでに非常に悪い解き方をしているのです。 信号NSの閾値を上げ、必要な入力データ量を増やすことで補ったところ、誤差は小さくなったが、入力のバリエーションも少なくなった。 敬具 Ivan Negreshniy 2017.09.27 11:53 #4869 アンドレイ・キセリョフ この場合(繰り返しがないので)、プラスでうまくいった可能性がどれくらいあるかは言えず、基本的に未知なので0.5とするのではなく、1の確率を公理とすることができます。 謹んで R=1はすべての木が学習パターン全体を記憶できることを意味し、0.66は66%しか記憶できないことを意味する。また、すべての木は戻り値のあるパターンを選ぶ、つまり、同じパターンを森の中の多くの木が繰り返し使うことができる。 Maxim Dmitrievsky 2017.09.27 11:59 #4870 アンドレイ・キセリョフ 信号のスレッショルドを上げると、NSは必要な入力数を増やすことでそれを補い、結果的に誤差は減りましたが、入力の選択肢も減りました。 敬具まあ、チップとターゲットを正しく理解することが問題なのですが、掛け算の表ほど簡単なものはないように思えますが、そこにも小さな間違いはありません。 1...480481482483484485486487488489490491492493494...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかは知らないが、バギングにはある。
この変数が1より小さいと、誤差が大きくなるはずです。
ですが、上記のようにエラーが平均的に表示されたままでした...今は正常です
ちなみに、rをo.1だけ小さくしても、誤差は非常に大きくなります。r 0.9より上 0.8より下
r = 0.66の場合(クラシックRF版と同様)
そして結果は、掛け算の表がすでに悪い解答をしていることがわかる
ランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかどうかは知らないが、タグ付けはある。
この変数が1より小さく設定されると、誤差が大きくなるはずです。
5億分の1に1回の割合で間違った取引をする必要があります。
my respect
マキシム・ドミトリエフスキー氏の ように誤差が少なくなるように
50000000000000000に1つの間違った取引が必要です。
敬具
決定木はすべてのパターンを記憶しているので、100%サンプリング、つまりR=1の訓練セットではまったく誤差が生じない可能性がある、と言っているのです。
確かにオーバーフィットですが、それがアルゴリズムの仕組みです。だからこそ、ランダムフォレストでは様々なトリックが使われているのです。
ディールについては、すべての決定木は実質的にすべてのパターンを記憶しており、100%サンプリング、すなわちR=1ではまったく誤差がない可能性があると言っているのです。
この場合、モデルを推定するために、バッグの外を見る必要がありますが、その場合は、r=0.66 maxを設定する必要があります。
決定木はすべてのパターンを記憶しており、100%サンプリング、つまりR=1ではまったく誤差が生じないと言っているのですが、どうでしょう?
を尊重します。
これは、モデルを評価するために、バッグの外を見る必要がありますが、その後、r=0.66の最大値は、はい置く
おそらくピックアップする必要があると思いますが、タグ付けだけでは予測のための技術としてはあまり強くありません - IMHO
まあ、今のところはそんなところですが...。:) その後、ディプリンクでまともなリブを引っ掛けたら、見ます。
が、スピードは!?
ですが、上記のようにエラーが平均的に表示されたままでした...今は正常です
ちなみに、rをo.1だけ小さくしても、誤差は大きくなる。r 0.9 以上 0.8 未満
r = 0.66の場合(クラシックRF版と同様)
そして、結果を見ればわかるのですが、掛け算の表はすでに非常に悪い解き方をしているのです。
敬具
この場合(繰り返しがないので)、プラスでうまくいった可能性がどれくらいあるかは言えず、基本的に未知なので0.5とするのではなく、1の確率を公理とすることができます。
謹んで
信号のスレッショルドを上げると、NSは必要な入力数を増やすことでそれを補い、結果的に誤差は減りましたが、入力の選択肢も減りました。
敬具
まあ、チップとターゲットを正しく理解することが問題なのですが、掛け算の表ほど簡単なものはないように思えますが、そこにも小さな間違いはありません。