トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 711 1...704705706707708709710711712713714715716717718...3399 新しいコメント Maxim Dmitrievsky 2018.02.22 21:06 #7101 Alexander_K2 です。聖杯はここではない、彼は私の隣に座っている - 彼は彼の目をゴシゴシとこの通信を見ている。私もだんだんと確率密度や いろいろなものにたどり着いていますが、別の側面から、ムッシュリングからです :) もう少しで、あとはクーラーニングをいろいろな形で理解することだけです そこでもエントロピーが使われ、エージェントに異なる分布を設定することができます。 Alexander_K2 2018.02.22 21:11 #7102 マキシム・ドミトリエフスキー私も徐々に確率の密度などに近づいて いますが、少し反対側でモウシンラーニングがあります :) もう少しで、あとはクーラーニングを様々な形で理解するだけです。そうなんです。 ただ、エントリーについては、ランダムではなく、厳密に取引の強度に基づいて対処する必要があります。その時のために、長い目で見て。 財政が厳しいなら、ただ生きるために--一票を投じれば、叙事詩を続けるための戦力を作るために、確率で聖杯を落とすだけだ。 Show must go on! Renat Akhtyamov 2018.02.22 21:12 #7103 ヴィザード_。目を開けて))))を開いた))) 健闘を祈る ))) Maxim Dmitrievsky 2018.02.22 21:17 #7104 Alexander_K2 です。そうなんです。 ただ、入り口はランダムではなく、トレードの強弱と厳密にリンクさせる必要があります。その時のために、長い目で見て。 財政が厳しいなら、生活のためだけに、一票を投じよう。叙事詩を続ける力を持つために、確率のために聖杯を投げ出そう。 Show must go on!まだ未開拓の面白いものがあるので、そこを突いてみるのもいいかもしれません。 狭い定常的な問題に対して、教師あり、教師なし、単なる近似、特徴量探索に意味があるとは思えない。 Dr. Trader 2018.02.22 21:51 #7105 1時間04分よりhttps://youtu.be/DR3mgnEKRgI 私もブーストには賛成ですが、彼のオーバーフィットとの戦いには少し反対です。 彼にとっては、オーバーフィットに勝つこと=特定の木の分割基準+最小限の木の本数なのです。 私の場合:gbm+k-fold。今はgbmに落ち着いていますが、Rの他のパッケージ - xgboost、catboost- も試してみました。そこにはオーバーフィット保護機能が組み込まれていますが、gbmほどの喜びは得られませんでした。 Volodymyr Hrybachov 2018.02.22 23:28 #7106 そうなんですか? Volodymyr Hrybachov 2018.02.22 23:49 #7107 とにかく、誰もがわかると思うトップラインはこうだ。 Mihail Marchukajtes 2018.02.23 05:22 #7108 レナト・アフティアモフニューラルネットワークと違って、私は 夜から今まで、ここで、高い 利回りを示しています(もちろん、リアル)。 カーブはもちろん面白いし、無視できないが、利回りが低すぎる。IMHO Vizard_ 2018.02.23 06:10 #7109 ウラジーミル・グリバチョフそうなんですか?はい。1 в 1. Vizard_ 2018.02.23 06:10 #7110 レナト・アフティアモフDCを含め、そこで最も興味深いのは、予後です。 べからず先生、またしても普通の奴らに暴露されましたね))) 1...704705706707708709710711712713714715716717718...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
聖杯はここではない、彼は私の隣に座っている - 彼は彼の目をゴシゴシとこの通信を見ている。
私もだんだんと確率密度や いろいろなものにたどり着いていますが、別の側面から、ムッシュリングからです :) もう少しで、あとはクーラーニングをいろいろな形で理解することだけです
そこでもエントロピーが使われ、エージェントに異なる分布を設定することができます。
私も徐々に確率の密度などに近づいて いますが、少し反対側でモウシンラーニングがあります :) もう少しで、あとはクーラーニングを様々な形で理解するだけです。
そうなんです。
ただ、エントリーについては、ランダムではなく、厳密に取引の強度に基づいて対処する必要があります。その時のために、長い目で見て。
財政が厳しいなら、ただ生きるために--一票を投じれば、叙事詩を続けるための戦力を作るために、確率で聖杯を落とすだけだ。
Show must go on!
目を開けて))))
を開いた)))
健闘を祈る
)))
そうなんです。
ただ、入り口はランダムではなく、トレードの強弱と厳密にリンクさせる必要があります。その時のために、長い目で見て。
財政が厳しいなら、生活のためだけに、一票を投じよう。叙事詩を続ける力を持つために、確率のために聖杯を投げ出そう。
Show must go on!
まだ未開拓の面白いものがあるので、そこを突いてみるのもいいかもしれません。
狭い定常的な問題に対して、教師あり、教師なし、単なる近似、特徴量探索に意味があるとは思えない。
私もブーストには賛成ですが、彼のオーバーフィットとの戦いには少し反対です。
彼にとっては、オーバーフィットに勝つこと=特定の木の分割基準+最小限の木の本数なのです。
私の場合:gbm+k-fold。今はgbmに落ち着いていますが、Rの他のパッケージ - xgboost、catboost- も試してみました。そこにはオーバーフィット保護機能が組み込まれていますが、gbmほどの喜びは得られませんでした。
そうなんですか?
とにかく、誰もがわかると思うトップラインはこうだ。
ニューラルネットワークと違って、私は 夜から今まで、ここで、高い 利回りを示しています(もちろん、リアル)。
カーブはもちろん面白いし、無視できないが、利回りが低すぎる。IMHO
そうなんですか?
はい。1 в 1.
DCを含め、そこで最も興味深いのは、予後です。
べからず
先生、またしても普通の奴らに暴露されましたね)))