トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 235

 
ヴィザード_。
もうRの本も書き始めているようですね)))
allitebooks.com/automated-trading-with-r-2/
その拳は、「お金を稼ぐ方法」についての本を書き始めることであり、その後、この方法はもう機能しないか、今まで機能しなかったかのどちらかです。ただし、指標となるもの。つまり、本の中でメソッドを説明することが、メソッドそのものよりも儲かる場合です。
 
ヴィザード_。
スポーツのために、少しオーバーテイクして、そこで止めます。資源は少ししかなく、全く欲しくなかった。

は、「支店への入場券」というアイデアだけを支持した。< 0.69、当てずっぽうで、あまり問題はないでしょう。< 0.68ダントツで、考えないといけない)))

https://numer.ai


どのモデルで、どのように学んだのか、教えてください。
 
lucky_teapot:
どのモデルで、どのように教わったか教えてください。

クラス予測誤差は30%以下です。30%を大幅に下回ることもあるが、20%を下回ることはありえない。しかし、このモデルが過剰に訓練されていないと言える理由は十分にあります。重要なのは、過剰に訓練されていないことです。過剰に訓練されたモデルは全く必要なく、危険なゴミです。

モデル:ランダムフォレスト、ADA一般に、モデルの選択は、もし学習させたとしても結果にほとんど影響を及ぼさない。私の予測器では、nnetは全く学習されません。

 
サンサニッチ・フォメンコ

クラス予測誤差は30%以下です。30%を大幅に下回ることもあるが、20%を下回ることはありえない。しかし、モデルが再トレーニングされないと信じるに足る理由がある。主なものは、過剰に訓練されないことです。過剰に訓練されたモデルは全く必要なく、危険なゴミです。

モデル:ランダムフォレスト、ADA一般に、学習可能であれば、モデルの選択は結果にほとんど影響を及ぼさない。私の予測器では、nnetは全く学習されません。

そちらでは、どのようなログロスをお持ちですか?
 
lucky_teapotさん
そちらでは、どのようなログロスをお持ちですか?
loglossとは?
 
サンサニッチ・フォメンコ

クラス予測誤差は30%以下です。30%を大幅に下回ることもあるが、20%を下回ることはありえない。しかし、モデルが再トレーニングされないと信じるに足る理由がある。主なものは、過剰に訓練されないことです。過剰に訓練されたモデルは全く必要なく、危険なゴミです。

モデル:ランダムフォレスト、ADA一般に、学習可能であれば、モデルの選択は結果にほとんど影響を及ぼさない。私の予測器では、nnetは全く学習されません。

サンサニッチ・フォメンコ
loglossとは?

https://numer.ai のスコアのことだと思いますが、loglossではなく 、ハッシュ値(誤差%)での話です。 しかし、loglossは 厄介なもので、推測クラスだけでなく、確率も必要なんですね。

 
lucky_teapotさん

https://numer.ai のゲージの話ですが、loglossではなく ヘミング(誤差%)の話だと理解していますが、loglossは クラスだけでなく確率も推測する必要があり、厄介なものです。

私のEAについて書きます。モデルを持っています。

私はパッケージを使っていますが、loglossとは関係ない大まかな試算がされています。さらに、パッケージからの結果は、他の手段で推定することもできる......。ログロは覚えていない。

そして、私が見たパッケージでは、クラスは確率から導き出されています。つまり、現実には確率を数えて、それを校正しているのです。2クラスで半分が標準ですが、乗り込んで操縦することも可能です。

 
サンサニッチ・フォメンコ

私のEAについて書かせていただきます。モデルが入っているんです。

私はパッケージを使っていますが、その中に、一見するとログロとは関係ないような評価があるんです。さらに、パッケージの結果を別の手段で評価することも......。ログロは覚えていない。

そして、私が見たパッケージでは、クラスは確率から導き出されています。つまり、現実には確率を数えて、それを校正しているのです。2クラスで半分が標準ですが、乗り込んで操縦することも可能です。

少なくとも、そのような結果を得たデータセットが必要です。Loglos 同感です。私たちの場合、それは本当に正しい選択ではありません。kaggleへの賛辞であり、再教育されていない20-30%の精度の誤差、それは私には非常に強力に聞こえます、率直に言って私は信じがたいことです。

loglosの場合、例えば2クラスの場合、誤差が0%なら回答確率は100%と0%に近い{0,1,0,1・・・}となるのがミソです。誤差が10%になると、不正解の確率だけでなく、正解の確率にも影響するので、例えば1と0だった正解が0.8と0.2になり、誤差が45%になると、全てが0.5 +- 0.1 くらいで振動して、ログロスは最適になる、そんな錬金術です・・・。

 
Dr.トレーダー

たまたまlucky_teapotさんのプロフィールを見たら、フォーラムに記事へのリンクが貼られたスレッドがあったんです。私はほとんど勉強していないmql4.comのフォーラムから全部転送されたと思います、本当にそこから転送したのならMetaQuotesに感謝します。
9年近く前の記事ですが、今更ながらやってみてもいいかもと思うような便利なものがたくさんありました。アレクセイがこのスレッドで何度か言っている、次元のずれた空間についても理解できたと思う。
記事自体、とても参考になりました -https://www.mql5.com/ru/articles/1506

読んだよ...ひとつ気になったのは、著者が「データを少し修正してサンプルを増やすと、モデルの知識ベースが広くなり、モデルがうまく機能する」と言っていることです...。

スプレッドで作業しているので、サンプル全体と比較するとまだスプレッドは小さいです

数百万のサンプルを引いて、反転を捉えるモデルを教えれば、多くの例があると思いますし、反転のパターンはどちらの市場でも同じだと思います(多くのパターンが あるという意味です)。

そして、ここでまた疑問というか、アイデアはあるのですが、まだ解決していません...。

この数百万の値から反転値をすべて分離して、それだけを学習サンプルとして残せば、モデルは反転値だけを学習してくれるので、とても速いのですが、新しいデータで反転と非反転を区別する必要があるとき、非反転が何かわからないモデルがどうやって区別するのでしょうか......。((.

 
mytarmailS:

読んだよ...ひとつ気になったのは、著者が「データを少し修正してサンプルを増やすと、モデルの知識ベースが広くなり、モデルがうまく機能する」と言っていることです...。

ピボットを使って作業しているが、ピボットは全サンプルに比べるとまだ小さい


ピボットとは?ZZのように1小節?

私は本当に逆転がバーの特定のシーケンスとして考えられているときにアイデア(スレッドでここに釣り出された)、その後に、将来的には、所定の利益があるだろう。この方法であれば、クラスのアンバランスを大幅に解消することができます。それは1つです。2つ目は、クラス自体に明確な予知能力があることだろう。

理由: