トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1239 1...123212331234123512361237123812391240124112421243124412451246...3399 新しいコメント Грааль 2018.12.26 19:58 #12381 マキシム・ドミトリエフスキーもっと小さいクラスで、0.14 0.4エラーだテストで14%から40%? Maxim Dmitrievsky 2018.12.26 20:13 #12382 グレイルテストで14%から40%?さて、トライン14テスト40 Maxim Dmitrievsky 2018.12.26 20:15 #12383 ヴィザード_。精度と分類誤差は別物です。精度とサンプル(test-train)の割合。 原理的には問題ないのですが、トレースをオーバーランしてしまうので...。このデータセットでテスト(サンプルの20%)で0.6の精度を出すと...分類エラーは今のところありません...そこをやり直すのは長いです )) alglibで20%、OOBで80%のトレーニングをしており、ここでも同じことをしました。 pythonでやってみたところ、以下のようになりました。 score(X,y,sample_weight=None)[ソース].与えられたテストデータとラベルに対する平均精度を返します。 全然わからない、今日pythonでコツコツやっただけだから、明日またやってみるよ。テスト・アンド・トレースが50%なら、こんな感じです。 Forester 2018.12.26 20:30 #12384 ヴィザード_。これに関する私のデータセット(精度)は 傾向(サンプルの80%)=0.619 test(サンプルの20%) = 0.612 OOS 少し掘って、真正面から少ない。それが、2割のテストではなく、やり方です))) 50%では足りず、300回の観測では何もできない。 トレーニングはどのようなものだったのですか? Maxim Dmitrievsky 2018.12.26 20:32 #12385 エリブラリウス 20%で学ぶというのは新しいものです))そこでの誤差はあまり変わらなかったと思うので、そのようにした、要するに強い正則化 Forester 2018.12.26 20:34 #12386 マキシム・ドミトリエフスキー誤差があまり変わらなかったので、そのようにしたのだと思いますが、要するに強い正則化どうして変わらなかったのだろう?14%と40%は大きな違いです。 例えば、Wizardのように60x60とか......そうなんです! Forester 2018.12.26 20:37 #12387 ヴィザード_。DocとToxicでやったのと同じで、PythonとRにはそれがない...言わないけど...。 少なくとも足場やネットは? Maxim Dmitrievsky 2018.12.26 20:40 #12388 エリブラリウスそうでないわけがない。14%と40%は大きな違いです。 60 over 60 like wizard - That's it!さて、pythonにあるすべてのモデルをチェックするんだ...つまり、流通しているものを...明日までは...明日までは...だ。 もう少し前処理が必要かもしれませんね。 forexman77 2018.12.26 21:14 #12389 FXでは儲からないということがわからないのでしょうか(笑) こんなマゾヒズムに浸るくらいなら、プログラマーになって高給取りの仕事に就いた方が簡単だ。 Maxim Dmitrievsky 2018.12.26 21:17 #12390 要するに、alglibの分類エラーとloglossで...loglossは全く意味をなさない。forestの分類誤差は、traine sample>0.8 と oob 0.2 でゼロになる。 rmseは分類に適していない そのため、何らかの誤差を想定して、トレーニングのサンプルを少なめに取ったのですが、それでも少ないですね。Pythonのものと比較するのはどうかと思います。 1...123212331234123512361237123812391240124112421243124412451246...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
もっと小さいクラスで、0.14 0.4エラーだ
テストで14%から40%?
テストで14%から40%?
さて、トライン14テスト40
精度と分類誤差は別物です。精度とサンプル(test-train)の割合。
原理的には問題ないのですが、トレースをオーバーランしてしまうので...。このデータセットでテスト(サンプルの20%)で0.6の精度を出すと...
分類エラーは今のところありません...そこをやり直すのは長いです ))
alglibで20%、OOBで80%のトレーニングをしており、ここでも同じことをしました。
pythonでやってみたところ、以下のようになりました。
score(X,y,sample_weight=None)[ソース].与えられたテストデータとラベルに対する平均精度を返します。
全然わからない、今日pythonでコツコツやっただけだから、明日またやってみるよ。テスト・アンド・トレースが50%なら、こんな感じです。
これに関する私のデータセット(精度)は
傾向(サンプルの80%)=0.619
test(サンプルの20%) = 0.612 OOS
少し掘って、真正面から少ない。それが、2割のテストではなく、やり方です)))
50%では足りず、300回の観測では何もできない。
20%で学ぶというのは新しいものです))
そこでの誤差はあまり変わらなかったと思うので、そのようにした、要するに強い正則化
誤差があまり変わらなかったので、そのようにしたのだと思いますが、要するに強い正則化
どうして変わらなかったのだろう?14%と40%は大きな違いです。
例えば、Wizardのように60x60とか......そうなんです!
DocとToxicでやったのと同じで、PythonとRにはそれがない...言わないけど...。
そうでないわけがない。14%と40%は大きな違いです。
60 over 60 like wizard - That's it!
さて、pythonにあるすべてのモデルをチェックするんだ...つまり、流通しているものを...明日までは...明日までは...だ。
もう少し前処理が必要かもしれませんね。FXでは儲からないということがわからないのでしょうか(笑)
こんなマゾヒズムに浸るくらいなら、プログラマーになって高給取りの仕事に就いた方が簡単だ。
要するに、alglibの分類エラーとloglossで...loglossは全く意味をなさない。forestの分類誤差は、traine sample>0.8 と oob 0.2 でゼロになる。
rmseは分類に適していない
そのため、何らかの誤差を想定して、トレーニングのサンプルを少なめに取ったのですが、それでも少ないですね。Pythonのものと比較するのはどうかと思います。