トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1239

 
マキシム・ドミトリエフスキー

もっと小さいクラスで、0.14 0.4エラーだ

テストで14%から40%?

 
グレイル

テストで14%から40%?

さて、トライン14テスト40

 
ヴィザード_。

精度と分類誤差は別物です。精度とサンプル(test-train)の割合。

原理的には問題ないのですが、トレースをオーバーランしてしまうので...。このデータセットでテスト(サンプルの20%)で0.6の精度を出すと...

分類エラーは今のところありません...そこをやり直すのは長いです ))

alglibで20%、OOBで80%のトレーニングをしており、ここでも同じことをしました。

pythonでやってみたところ、以下のようになりました。

score(X,y,sample_weight=None)[ソース].

与えられたテストデータとラベルに対する平均精度を返します。


全然わからない、今日pythonでコツコツやっただけだから、明日またやってみるよ。テスト・アンド・トレースが50%なら、こんな感じです。


 
ヴィザード_。

これに関する私のデータセット(精度)は
傾向(サンプルの80%)=0.619
test(サンプルの20%) = 0.612 OOS

少し掘って、真正面から少ない。それが、2割のテストではなく、やり方です)))

50%では足りず、300回の観測では何もできない。

トレーニングはどのようなものだったのですか?
 
エリブラリウス
20%で学ぶというのは新しいものです))

そこでの誤差はあまり変わらなかったと思うので、そのようにした、要するに強い正則化

 
マキシム・ドミトリエフスキー

誤差があまり変わらなかったので、そのようにしたのだと思いますが、要するに強い正則化

どうして変わらなかったのだろう?14%と40%は大きな違いです。
例えば、Wizardのように60x60とか......そうなんです!

 
ヴィザード_。

DocとToxicでやったのと同じで、PythonとRにはそれがない...言わないけど...。

少なくとも足場やネットは?
 
エリブラリウス

そうでないわけがない。14%と40%は大きな違いです。
60 over 60 like wizard - That's it!

さて、pythonにあるすべてのモデルをチェックするんだ...つまり、流通しているものを...明日までは...明日までは...だ。

もう少し前処理が必要かもしれませんね。
 

FXでは儲からないということがわからないのでしょうか(笑)

こんなマゾヒズムに浸るくらいなら、プログラマーになって高給取りの仕事に就いた方が簡単だ。

 

要するに、alglibの分類エラーとloglossで...loglossは全く意味をなさない。forestの分類誤差は、traine sample>0.8 と oob 0.2 でゼロになる。

rmseは分類に適していない

そのため、何らかの誤差を想定して、トレーニングのサンプルを少なめに取ったのですが、それでも少ないですね。Pythonのものと比較するのはどうかと思います。

理由: