トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 96 1...8990919293949596979899100101102103...3399 新しいコメント Dr. Trader 2016.08.09 08:11 #951 アイリスペタルデータは信号ではないので、この表はフォーカテストには全く向いていない。バッチに適しているのは時系列のみ で、一定の間隔で新しい値を受け取り、それをベクトルにまとめる。このため、foreca用データテーブルの行の順番を変更することはできません。また、検証のためにいくつかの行をランダムに削除することはできません。すべては、最初にトレーニング用のデータ、次に検証用のデータという厳密な順序で行う必要があります。サンプルはありません。アイリスで一番良いのは、最大成分数min(dim(forec.dt))で=14となりますが、それでも精度は100%を下回ると思います。 mytarmailS 2016.08.09 08:22 #952 Dr.トレーダーアイリスに最適なのは、最大成分数min(dim(forec.dt))=14となりますが、それでも精度は100%を下回ると思います。 両方やったところ、精度は約85%、forecだけだと95%でした。 СанСаныч Фоменко 2016.08.09 08:23 #953 Dr.トレーダーアイリスペタルデータは信号ではないので、この表はフォーカテストには全く向いていない。バッチに適しているのは時系列だけで、一定の間隔で新しい値を受け取り、それらを組み合わせてベクトルにするのです。このため、foreca用データテーブルの行の順番を変更することはできません。また、検証のためにいくつかの行をランダムに削除することはできません。すべては、最初にトレーニング用のデータ、次に検証用のデータという厳密な順序で行う必要があります。サンプルはありません。アイリスで一番良いのは、最大成分数min(dim(forec.dt))で=14となりますが、それでも精度は100%を下回ると思います。アヤメについての投稿はとても重要だと思います。要は、rfは驚異的にオーバートレーニングになりやすいということです。そしてここで、forecaにはそのような性向がないことが判明した。だから、とても便利なパッケージなんです。 mytarmailS 2016.08.09 08:34 #954 Dr.トレーダー そこでBPを使った成果は? Dr. Trader 2016.08.09 08:53 #955 サンサニッチ・フォメンコアヤメについての投稿はとても重要だと思います。実は、rfは驚異的に過学習になりやすいのです。そしてここで、forecaにはそのような傾向がないことが判明したのです。だから、とても便利なパッケージなんです。オーバートレーニングとはいえ、虹彩の4つの予測変数にランダムな値を持つ10列を追加しても、フォレストはほぼ100%の精度で新しいデータを予測します。驚きました。そして、森がうまくいってよかったです。私自身、このような実験をしたことがないので、今後のために覚えておこうと思います。私自身は、予測率が1%以下の予測器をすべてノイズと呼び(ローブ長もランダムな値からの予測器も)、そこから何らかの信号を抽出しようとしたのです。信号がないはずの場所から信号を取り出しても無駄だと思います。この実験ではフォーカスに何も伝わらないのです。mytarmailS: そこでBPを使った結果はどうですか?このモデルはまだ学習中です。おそらくデータを送りすぎたのでしょうが、解約せず、最後まで活躍させて、残しておこうと思います。では、終わってから結果を書きますね。 Mihail Marchukajtes 2016.08.09 12:45 #956 確かに先走りはしたくないのですが、レシェトフは新作でこんなカッコいいことを......。あなたの悩みをすぐに解決してくれるはずです。私がアイデアを出したのに、彼自身がすでに考えていたのですから、バカは考えようで、結果的に力が出るものです。八つ当たりはよくないよ...。 СанСаныч Фоменко 2016.08.09 13:33 #957 ミハイル・マルキュカイツ 確かに先走りはしたくないのですが、レシェトフは新作でこんなカッコイイものを作っていたんですね...。.批判しちゃダメでしょう...。カッコいい話をカッコよく...。そして、一般的に知られている、認知されているものとの比較を少なくとも1つは見ることができるでしょうか。 Mihail Marchukajtes 2016.08.09 13:39 #958 サンサニッチ・フォメンコカッコいい話をカッコよく...。一般的に認められている、一般的に知られている、認められているものとの比較の一つでも見ることができるだろうか? いつか見られるはず、なぜか......。 mytarmailS 2016.08.09 15:13 #959 Dr.Trader(ドクタートレーダー) フォレストは再学習しますが、4つのIris予測変数にさらに10列のランダムな値を追加しても、フォレストはほぼ100%の精度で新しいデータを予測します。驚きました。そして、森がうまくいってよかったです。私自身はそのような実験をしたことがないので、今後のために頭に入れておこうと思います。そうですね、見事にノイズを無視して予測因子と区別していることに自分でも驚いています、それもやったことがないので、自分でも不思議です...。だから、今日までインポーテンス 機能には全く自信がなかった。が、それを信じさせてくれた。 Dr. Trader 2016.08.09 16:34 #960 FXに使用する際は、引き続き重要性を信用しないこと。虹彩は非常にシンプルなデータであり、利用可能なデータとクラスの間に直接的な規則性があります。RFは、虹彩のクラスが定義できる最小限の 予測変数のセットを見つけるだけで完了します。 1...8990919293949596979899100101102103...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
アイリスペタルデータは信号ではないので、この表はフォーカテストには全く向いていない。バッチに適しているのは時系列のみ で、一定の間隔で新しい値を受け取り、それをベクトルにまとめる。このため、foreca用データテーブルの行の順番を変更することはできません。また、検証のためにいくつかの行をランダムに削除することはできません。すべては、最初にトレーニング用のデータ、次に検証用のデータという厳密な順序で行う必要があります。サンプルはありません。
アイリスで一番良いのは、最大成分数min(dim(forec.dt))で=14となりますが、それでも精度は100%を下回ると思います。
アイリスに最適なのは、最大成分数min(dim(forec.dt))=14となりますが、それでも精度は100%を下回ると思います。
アイリスペタルデータは信号ではないので、この表はフォーカテストには全く向いていない。バッチに適しているのは時系列だけで、一定の間隔で新しい値を受け取り、それらを組み合わせてベクトルにするのです。このため、foreca用データテーブルの行の順番を変更することはできません。また、検証のためにいくつかの行をランダムに削除することはできません。すべては、最初にトレーニング用のデータ、次に検証用のデータという厳密な順序で行う必要があります。サンプルはありません。
アイリスで一番良いのは、最大成分数min(dim(forec.dt))で=14となりますが、それでも精度は100%を下回ると思います。
アヤメについての投稿はとても重要だと思います。
要は、rfは驚異的にオーバートレーニングになりやすいということです。
そしてここで、forecaにはそのような性向がないことが判明した。だから、とても便利なパッケージなんです。
アヤメについての投稿はとても重要だと思います。
実は、rfは驚異的に過学習になりやすいのです。
そしてここで、forecaにはそのような傾向がないことが判明したのです。だから、とても便利なパッケージなんです。
オーバートレーニングとはいえ、虹彩の4つの予測変数にランダムな値を持つ10列を追加しても、フォレストはほぼ100%の精度で新しいデータを予測します。驚きました。そして、森がうまくいってよかったです。私自身、このような実験をしたことがないので、今後のために覚えておこうと思います。
私自身は、予測率が1%以下の予測器をすべてノイズと呼び(ローブ長もランダムな値からの予測器も)、そこから何らかの信号を抽出しようとしたのです。信号がないはずの場所から信号を取り出しても無駄だと思います。この実験ではフォーカスに何も伝わらないのです。
そこでBPを使った結果はどうですか?
このモデルはまだ学習中です。おそらくデータを送りすぎたのでしょうが、解約せず、最後まで活躍させて、残しておこうと思います。では、終わってから結果を書きますね。
確かに先走りはしたくないのですが、レシェトフは新作でこんなカッコイイものを作っていたんですね...。.批判しちゃダメでしょう...。
カッコいい話をカッコよく...。
そして、一般的に知られている、認知されているものとの比較を少なくとも1つは見ることができるでしょうか。
カッコいい話をカッコよく...。
一般的に認められている、一般的に知られている、認められているものとの比較の一つでも見ることができるだろうか?
フォレストは再学習しますが、4つのIris予測変数にさらに10列のランダムな値を追加しても、フォレストはほぼ100%の精度で新しいデータを予測します。驚きました。そして、森がうまくいってよかったです。私自身はそのような実験をしたことがないので、今後のために頭に入れておこうと思います。
そうですね、見事にノイズを無視して予測因子と区別していることに自分でも驚いています、それもやったことがないので、自分でも不思議です...。
だから、今日までインポーテンス 機能には全く自信がなかった。
が、それを信じさせてくれた。