トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 711

 
Alexander_K2 です。

聖杯はここではない、彼は私の隣に座っている - 彼は彼の目をゴシゴシとこの通信を見ている。

私もだんだんと確率密度や いろいろなものにたどり着いていますが、別の側面から、ムッシュリングからです :) もう少しで、あとはクーラーニングをいろいろな形で理解することだけです

そこでもエントロピーが使われ、エージェントに異なる分布を設定することができます。

 
マキシム・ドミトリエフスキー

私も徐々に確率の密度などに近づいて いますが、少し反対側でモウシンラーニングがあります :) もう少しで、あとはクーラーニングを様々な形で理解するだけです。

そうなんです。

ただ、エントリーについては、ランダムではなく、厳密に取引の強度に基づいて対処する必要があります。その時のために、長い目で見て。

財政が厳しいなら、ただ生きるために--一票を投じれば、叙事詩を続けるための戦力を作るために、確率で聖杯を落とすだけだ。

Show must go on!

 
ヴィザード_。

目を開けて))))

を開いた)))

健闘を祈る

)))

 
Alexander_K2 です。

そうなんです。

ただ、入り口はランダムではなく、トレードの強弱と厳密にリンクさせる必要があります。その時のために、長い目で見て。

財政が厳しいなら、生活のためだけに、一票を投じよう。叙事詩を続ける力を持つために、確率のために聖杯を投げ出そう。

Show must go on!

まだ未開拓の面白いものがあるので、そこを突いてみるのもいいかもしれません。

狭い定常的な問題に対して、教師あり、教師なし、単なる近似、特徴量探索に意味があるとは思えない。

 

私もブーストには賛成ですが、彼のオーバーフィットとの戦いには少し反対です。

彼にとっては、オーバーフィットに勝つこと=特定の木の分割基準+最小限の木の本数なのです。

私の場合:gbm+k-fold。今はgbmに落ち着いていますが、Rの他のパッケージ - xgboost、catboost- も試してみました。そこにはオーバーフィット保護機能が組み込まれていますが、gbmほどの喜びは得られませんでした。

 

そうなんですか?


 

とにかく、誰もがわかると思うトップラインはこうだ。


 
レナト・アフティアモフ

ニューラルネットワークと違って、私は 夜から今まで、ここで、高い 利回りを示しています(もちろん、リアル)。


カーブはもちろん面白いし、無視できないが、利回りが低すぎる。IMHO

 
ウラジーミル・グリバチョフ

そうなんですか?

はい。1 в 1.

 
レナト・アフティアモフ

DCを含め、そこで最も興味深いのは、予後です。

べからず

先生、またしても普通の奴らに暴露されましたね)))


理由: