トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1240 1...123312341235123612371238123912401241124212431244124512461247...3399 新しいコメント forexman77 2018.12.26 21:20 #12391 マキシム・ドミトリエフスキーお金のためではなく、アイデアのためにやっているのです)お金はもっとつまらない手段で作ることができます。ああ、この発想はなんなんだ。まあ、機械学習はありますが、奇跡が起こるわけではなく、より高度な指標になっただけで、それ以上のものではありません。 私はいくつかの株式、先物を取引したいのですが、私はそこに多くのお金を必要とするでしょう、それは、それは私のためではないことを意味します。 これらのインジケータの使い方がわからない、取引の種類が違うのではないか。 Maxim Dmitrievsky 2018.12.26 21:22 #12392 FXMAN77 です。ああ、その発想はなんなんだ。まあ、機械学習はありますが、奇跡はなく、指標を高度化しただけで、それ以上のことはありません。 まあ、株取引でも先物取引でもいいんだけど、そっちはもっとお金が必要だから、自分には向かない。 神経と力が入っているのに対して、アウトプットは蚊の肉のようなものです。ケツを温めてから苦しむか...この畑でタクシーを探すか forexman77 2018.12.26 21:24 #12393 さらに短くするならば、FXは登らなければならない山だと想像してください。しかし、実質的には何もないつるつるの山です。 MOを1〜2%向上させても、実質的には何の効果もありません。そこには予測因子もなく、ノイズがあるだけで、あとは再トレーニングを行うだけです。 Forester 2018.12.26 21:26 #12394 マキシム・ドミトリエフスキー: 要するに、alglibの分類エラーとloglossで...loglossは全く意味がなく、forestの分類誤差はトレーニングサンプル>0.8、oob 0.2でゼロになる。そのため、何らかの誤差を想定してトレーニングサンプルを小さく取ったのですが、それでも小さいですね。Pythonのものと比べてどうなんだろう。 再教育というか...。木は入力データを完全に記憶することができる。Rは減らせますし、Algibeで他にいじることはなさそうです。xgboostでは、例えば、木の深さを制限することができます。 だから、最初は使わず、メッシュに切り替えたんです。しかし、グリッドにはそれなりの問題がある。 Maxim Dmitrievsky 2018.12.26 21:28 #12395 ヴィザード_。ざまあみろマキシマムカはだから石を投げているんだ)))何も書いてないんですけどね。要するに-loglossはペナルティなのです。それをアクアリーシに変えると、解釈しやすいから使われるんです。 ログロス モナその後、少し曲げて、運が良ければ数パーセント絞り出すことができます。ファに見せた、Rに聖書がある... いつも半分くらいは忘れていて、1年後に同じことに驚きます。 Forester 2018.12.26 21:29 #12396 ヴィザード_。ざまあみろマキシマムカはだから石を投げているんだ)))何も書いてないんですけどね。要するに-loglossはペナルティなのです。解釈しやすいからこそ、使われるのです。 Loglossモナその後少しとより多くのパーセントペアを曲げるあなたはaccuarisiに絞り出すために幸運である場合。Faに見せた、Rにバイブルがある...algibの中身、設定がどうなっているのかわからない...。 ガラガラの物欲を抑える・・・。 Alglib-eには正則化のためのrがあるのみです。 forexman77 2018.12.26 21:29 #12397 アキュラクを市場に適用するのは全く無理だと思います、あそこのクラスは最初からバランスが悪いですから。 アクラシューが100%あれば、すべてがマジョリティクラスに飛ぶというのは、最悪の指標です。混同行列を見ると、クラスがどのように分けられているかがよくわかります。 Maxim Dmitrievsky 2018.12.26 21:31 #12398 エリブラリウス オーバートレーニングというか...。一方、トレインは入力データを完全に記憶することができます。Rは減らせるし、Alglibで他にいじることはなさそうです。xgboostでは、例えば、木の深さを制限することができます。 だから、最初は使わず、メッシュに切り替えたんです。しかし、グリッドにはそれなりの問題がある。木とrの数だけです。rが0.6より大きい場合、ほとんど常にトレイ0.0の分類エラーがあります :))) テストではばらつきがありますが、通常は0.5程度です。 Forester 2018.12.26 21:33 #12399 FXMAN77 です。アキュラクを市場に適用するのは全く無理だと思います、あそこのクラスは最初からバランスが悪いですから。 アクラシューが100%あれば、すべてがマジョリティクラスに飛ぶというのは、最悪の指標です。むしろ混乱マトリックスの方が、クラス分けが具体的にわかる。 私もアキュラシーをよく理解していないんです。エラーマトリックスや分類エラーが明確になったので、それを画面に表示させています。 Maxim Dmitrievsky 2018.12.26 21:35 #12400 Vizard_: Nspesh Pythonでもいろいろ試してみてください。猫ブーストなんかは、箱から出してもあまり出番がない+連続で全部食べてしまう+ドットでビジュアライザーがある(カットがあまり上達しないときにつける)とか......。すでにインストールされているので、明日、GBMだけでなく、LightGbmも試して みます...。xgboostはセットアップが面倒で、理解するのに時間がかかる。 1...123312341235123612371238123912401241124212431244124512461247...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
お金のためではなく、アイデアのためにやっているのです)お金はもっとつまらない手段で作ることができます。
ああ、この発想はなんなんだ。まあ、機械学習はありますが、奇跡が起こるわけではなく、より高度な指標になっただけで、それ以上のものではありません。
私はいくつかの株式、先物を取引したいのですが、私はそこに多くのお金を必要とするでしょう、それは、それは私のためではないことを意味します。
これらのインジケータの使い方がわからない、取引の種類が違うのではないか。
ああ、その発想はなんなんだ。まあ、機械学習はありますが、奇跡はなく、指標を高度化しただけで、それ以上のことはありません。
まあ、株取引でも先物取引でもいいんだけど、そっちはもっとお金が必要だから、自分には向かない。
神経と力が入っているのに対して、アウトプットは蚊の肉のようなものです。
ケツを温めてから苦しむか...この畑でタクシーを探すか
さらに短くするならば、FXは登らなければならない山だと想像してください。しかし、実質的には何もないつるつるの山です。
MOを1〜2%向上させても、実質的には何の効果もありません。そこには予測因子もなく、ノイズがあるだけで、あとは再トレーニングを行うだけです。
要するに、alglibの分類エラーとloglossで...loglossは全く意味がなく、forestの分類誤差はトレーニングサンプル>0.8、oob 0.2でゼロになる。
そのため、何らかの誤差を想定してトレーニングサンプルを小さく取ったのですが、それでも小さいですね。Pythonのものと比べてどうなんだろう。
だから、最初は使わず、メッシュに切り替えたんです。しかし、グリッドにはそれなりの問題がある。
ざまあみろマキシマムカはだから石を投げているんだ)))何も書いてないんですけどね。要するに-loglossはペナルティなのです。それをアクアリーシに変えると、解釈しやすいから使われるんです。
ログロス モナその後、少し曲げて、運が良ければ数パーセント絞り出すことができます。ファに見せた、Rに聖書がある...
いつも半分くらいは忘れていて、1年後に同じことに驚きます。
ざまあみろマキシマムカはだから石を投げているんだ)))何も書いてないんですけどね。要するに-loglossはペナルティなのです。解釈しやすいからこそ、使われるのです。
Loglossモナその後少しとより多くのパーセントペアを曲げるあなたはaccuarisiに絞り出すために幸運である場合。Faに見せた、Rにバイブルがある...algibの中身、設定がどうなっているのかわからない...。
ガラガラの物欲を抑える・・・。
アキュラクを市場に適用するのは全く無理だと思います、あそこのクラスは最初からバランスが悪いですから。
アクラシューが100%あれば、すべてがマジョリティクラスに飛ぶというのは、最悪の指標です。混同行列を見ると、クラスがどのように分けられているかがよくわかります。
オーバートレーニングというか...。一方、トレインは入力データを完全に記憶することができます。Rは減らせるし、Alglibで他にいじることはなさそうです。xgboostでは、例えば、木の深さを制限することができます。
だから、最初は使わず、メッシュに切り替えたんです。しかし、グリッドにはそれなりの問題がある。
木とrの数だけです。rが0.6より大きい場合、ほとんど常にトレイ0.0の分類エラーがあります :))) テストではばらつきがありますが、通常は0.5程度です。
アキュラクを市場に適用するのは全く無理だと思います、あそこのクラスは最初からバランスが悪いですから。
アクラシューが100%あれば、すべてがマジョリティクラスに飛ぶというのは、最悪の指標です。むしろ混乱マトリックスの方が、クラス分けが具体的にわかる。
Nspesh Pythonでもいろいろ試してみてください。猫ブーストなんかは、箱から出してもあまり出番がない+連続で全部食べてしまう+ドットでビジュアライザーがある(カットがあまり上達しないときにつける)とか......。
すでにインストールされているので、明日、GBMだけでなく、LightGbmも試して みます...。xgboostはセットアップが面倒で、理解するのに時間がかかる。