トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 18 1...111213141516171819202122232425...3399 新しいコメント Alexey Burnakov 2016.06.17 16:12 #171 ほんの少しのアイディアです。そんなシステムを純粋にMQL4で作ってみました。 は入力のベクトルを形成した(ラグを持った価格の差だけ)。理想的な入出力を形成する(いろいろな方法がありますが、私は自分の気に入った方法をとりました)。これらはすべて、たとえば5分足のバーの場合です。そして、新しいバー ごとに配列を補充し、さらに過去の類似パターンを見つけて、半径が変化する多次元球の中で買いや売りのエントリーの割合を計算するようにしました。これは長い間、テストされたものです。結果は、不安定なものでした。またいつかRでやってみたいです。つまり、ユークリッド距離による入口と出口の探索である。 Alexey Burnakov 2016.06.17 16:14 #172 mytarmailS:さて、市場がクラスタ№5に対応しているとしましょう、次のキャンドルはクラスタ№18になり、我々はクラスタ№5を取引する時間を持っていないので、それは私達に何かを与えることはありません、そしてSMMで状態の概念があり、状態は一定時間を持続することができます。それとも、あなたの考えが理解できないのでしょうか? クラスターは長い列の配列(100本のロウソクも)。この長いシーケンスをもとに、たくさんのインプットを作ることができるのです。そして、ある時点でシステムがクラスタ5からクラスタ45になるのですが、それはいわばスムーズに起こることです。 mytarmailS 2016.06.17 16:43 #173 アレクセイ・ブルナコフほんの少しのアイディアです。そんなシステムを純粋にMQL4で作ってみました。 は入力のベクトルを形成した(ラグを持った価格の差だけ)。理想的な入出力を形成する(いろいろな方法がありますが、私は自分の気に入った方法をとりました)。これらはすべて、たとえば5分足のバーの場合です。そして、新しいバー ごとに配列を補充し、さらに過去の類似パターンを見つけて、半径が変化する多次元球の中で買いや売りのエントリーの割合を計算するようにしました。これは長い間、テストされたものです。結果は、不安定なものでした。またいつかRでやってみたいです。つまり、ユークリッド距離による入口と出口の探索である。 私も似たようなことをしました、あまりにも近接はユークリッドとピアソンの相関を検索し、ユークリッドは0.27未満、相関は0以上である必要があります。97、つまりパターンはほぼ一対一で、4つの価格すべてについて3つのローソク足でシリーズで類似性を探した OHLC + ボリューム + ボラティリティ、価格は正常で、ちょうどスケールとセンター(スケール、センター)結果、前に書いたように、価格は逆相関 -0.6 と私自身の予測に反して行く-少なくともユークリッド空間では、クロスバリデーションも役に立たないと思います。 mytarmailS 2016.06.18 05:56 #174 アレクセイ・ブルナコフ 長い列のクラスタリング(100本のローソク足でも)。この長いシーケンスを元に、多くの入力を行うことが可能です。ある瞬間、システムはクラスタ5からクラスタ45に移るが、それはゆっくり起こる。 100本のローソク足の並びでクラスタ5を作ると、クラスタ5の101本のローソク足でクラスタ5とわかること、つまり100本のローソク足を失ったことです)そしてSMMでは、クラスタ#45にいることで、おそらくクラスタ#5に行くことがすでに分かっています。 mytarmailS 2016.06.18 06:10 #175 そして、Rにもう一つ質問です。ライブラリ(KZA)DAT <- rnorm(1000)KZP <- kzp(DAT,m=100,k=3)summary(KZP,digits=2,top=3)どうすれば、"summary" http://prntscr.com/bhtlo9 から、この数字を使って作業できるようになるのでしょうか? Скриншот prnt.sc Снято с помощью Lightshot mytarmailS 2016.06.18 07:55 #176 Dr.Trader(ドクタートレーダー) p-bloggersの記事を読んでみましたが、英語が分からないので何も分かりません。この選定方法の本質、仕組みについて分かりやすく説明していただけないでしょうか?純粋に直感的に、そして最初のテスト 結果から、この方法は主成分の方法に非常に似ていて、もしかしたら同じなのかもしれない、と思っています ...最初のテストでは、30個の予測変数のサンプルがあり、RFエラーを学習させたところ、精度:0.6511が得られました。そして、あなたの方法でそれらを選択しました。14の予測変数があり、その誤差は Accuracy: 0.6568 でした。実際、予測因子の半分を削除して、予測結果を少し改善できたので、悪くないと思います 他のデータセットも試してみますが......。もう一つ質問ですが、同じデータをガラケーに読み込むと、検証データで3~6%のエラーが出るのはなぜですか? Alexey Burnakov 2016.06.18 08:09 #177 mytarmailS: もし私たちが100本のキャンドルの列でクラスターを作れば、クラスター#5の101本のキャンドルでそれがクラスター#5であることがわかるということです。)そして、SMMがクラスタ45番であることから、おそらくクラスタ5番に行くだろうとすでに分かっています。 私たちは何も失わなかった。最初の測定でクラスタを見つけ、その後、クラスタの変更を繰り返していくことになります。クラスタからクラスタへの遷移の時点で、正方形の行列を構築し、クラスタnで買いを入れ、クラスタmで取引を終了するというように、取引方法を変更することができます。次に、売りについても同じマトリックスです。すべてのバリエーションは、ただ通過するだけです。そして、クラスタリングのパラメータを変化させ、ループの中でその結果を見ることができるのです。 СанСаныч Фоменко 2016.06.18 08:15 #178 mytarmailS: p-bloggersの記事を読んでみましたが、英語が分からないので何も分かりません。この選定方法の本質、仕組みについて分かりやすく説明していただけないでしょうか?純粋に直感的に、そして最初のテスト 結果から、この方法は主成分の方法に非常に似ていて、もしかしたら同じなのかもしれない、と思っています ...最初のテストでは、30個の予測変数のサンプルがあり、RFエラーを学習させたところ、精度:0.6511が得られました。そして、あなたの方法でそれらを選択しました。14の予測変数があり、その誤差は Accuracy: 0.6568 でした。実際、予測因子の半分を削除して、予測結果を少し改善できたので、悪くないと思います 他のデータセットも試してみますが......。もうひとつ、同じデータをラトルで使用した場合、検証データで3~6%の誤差が出るのはなぜでしょうか?1. 主成分法に若干の修正を加えたものが使用されている。2.この方法を使う主旨は、予測精度を上げることではありません。その結果、将来にわたって予測精度がほぼ変わらないという主旨のものである。実際には、テスターで確認したところ、最適化によってExpert Advisorから驚くべきデータを得られることがほとんどです。しかし、将来的に単調な作業が続くと、これらのグラボはデポを消耗してしまいます。これは、エキスパートアドバイザーがトレーニング中に、今後繰り返されないいくつかの特殊性を学習するために起こります。このような特異点として、対象変数とは全く関係のない予測因子、すなわちノイズが特に有効である。モデルを最適化したりRにフィットさせたりする際、このノイズから性能を飛躍的に向上させる値を抽出することは常に可能である。しかし、今後はそうもいかず、Expert Advisorは失敗します。もう一度言いますが、トレーニングサンプルと将来の見積もりにおけるモデルのパフォーマンスの違いを排除することができるツールを使用するのです。やはり、再教育の問題を解決してこそ、前に進むことができるのだと思います。3. 誤差が10%以下、さらに5%以下であれば、モデルが再トレーニングされていることの強い証拠となる。そして、モデルのオーバートレーニングは、モデルそのものではなく、入力予測変数の集合に起因するものです。 mytarmailS 2016.06.18 08:29 #179 サンサニッチ・フォメンコ3. 10%未満、ましてや5%未満の誤差は、モデルが過剰に訓練されていることの明らかな証拠です。また、モデルのオーバーフィッティングは、モデルそのものではなく、入力予測変数の集合に起因するものです。問題は、同じデータと同じモデルで、なぜRとrattleで結果が異なるのか、ではない。質問2:「サンプル切れ」のモデルをガラガラでチェックすることに何の意味があるのでしょうか? Dr. Trader 2016.06.18 08:39 #180 mytarmailS:問題は、同じデータと同じモデルで、なぜRとrattleで結果が異なるかではない質問2:ガラケーで「サンプル切れ」モデルを確認する意味は、地獄を見せるのであればおそらく、rとrattleのscaffoldingパラメータが異なるため、結果が異なるのでしょう。ラトル本体では、ツリーの数や変数を変更することも可能です。そして、あなたのガラケーは、トレーニングデータで34%の誤差、検証データで3%の誤差があるのですね?検証用データに何か問題があるのか、あるいはトレーニング用データに既に存在していたのか、あるいはデータセットが非常に小さいためにそのようになったのか。 1...111213141516171819202122232425...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
ほんの少しのアイディアです。
そんなシステムを純粋にMQL4で作ってみました。
は入力のベクトルを形成した(ラグを持った価格の差だけ)。
理想的な入出力を形成する(いろいろな方法がありますが、私は自分の気に入った方法をとりました)。
これらはすべて、たとえば5分足のバーの場合です。
そして、新しいバー ごとに配列を補充し、さらに過去の類似パターンを見つけて、半径が変化する多次元球の中で買いや売りのエントリーの割合を計算するようにしました。これは長い間、テストされたものです。結果は、不安定なものでした。
またいつかRでやってみたいです。つまり、ユークリッド距離による入口と出口の探索である。
さて、市場がクラスタ№5に対応しているとしましょう、次のキャンドルはクラスタ№18になり、我々はクラスタ№5を取引する時間を持っていないので、それは私達に何かを与えることはありません、そしてSMMで状態の概念があり、状態は一定時間を持続することができます。
それとも、あなたの考えが理解できないのでしょうか?
ほんの少しのアイディアです。
そんなシステムを純粋にMQL4で作ってみました。
は入力のベクトルを形成した(ラグを持った価格の差だけ)。
理想的な入出力を形成する(いろいろな方法がありますが、私は自分の気に入った方法をとりました)。
これらはすべて、たとえば5分足のバーの場合です。
そして、新しいバー ごとに配列を補充し、さらに過去の類似パターンを見つけて、半径が変化する多次元球の中で買いや売りのエントリーの割合を計算するようにしました。これは長い間、テストされたものです。結果は、不安定なものでした。
またいつかRでやってみたいです。つまり、ユークリッド距離による入口と出口の探索である。
長い列のクラスタリング(100本のローソク足でも)。この長いシーケンスを元に、多くの入力を行うことが可能です。ある瞬間、システムはクラスタ5からクラスタ45に移るが、それはゆっくり起こる。
そして、Rにもう一つ質問です。
ライブラリ(KZA)
DAT <- rnorm(1000)
KZP <- kzp(DAT,m=100,k=3)
summary(KZP,digits=2,top=3)
どうすれば、"summary" http://prntscr.com/bhtlo9 から、この数字を使って作業できるようになるのでしょうか?
p-bloggersの記事を読んでみましたが、英語が分からないので何も分かりません。この選定方法の本質、仕組みについて分かりやすく説明していただけないでしょうか?
純粋に直感的に、そして最初のテスト 結果から、この方法は主成分の方法に非常に似ていて、もしかしたら同じなのかもしれない、と思っています ...
最初のテストでは、30個の予測変数のサンプルがあり、RFエラーを学習させたところ、精度:0.6511が得られました。
そして、あなたの方法でそれらを選択しました。
14の予測変数があり、その誤差は Accuracy: 0.6568 でした。
実際、予測因子の半分を削除して、予測結果を少し改善できたので、悪くないと思います
他のデータセットも試してみますが......。
もう一つ質問ですが、同じデータをガラケーに読み込むと、検証データで3~6%のエラーが出るのはなぜですか?
もし私たちが100本のキャンドルの列でクラスターを作れば、クラスター#5の101本のキャンドルでそれがクラスター#5であることがわかるということです。)そして、SMMがクラスタ45番であることから、おそらくクラスタ5番に行くだろうとすでに分かっています。
p-bloggersの記事を読んでみましたが、英語が分からないので何も分かりません。この選定方法の本質、仕組みについて分かりやすく説明していただけないでしょうか?
純粋に直感的に、そして最初のテスト 結果から、この方法は主成分の方法に非常に似ていて、もしかしたら同じなのかもしれない、と思っています ...
最初のテストでは、30個の予測変数のサンプルがあり、RFエラーを学習させたところ、精度:0.6511が得られました。
そして、あなたの方法でそれらを選択しました。
14の予測変数があり、その誤差は Accuracy: 0.6568 でした。
実際、予測因子の半分を削除して、予測結果を少し改善できたので、悪くないと思います
他のデータセットも試してみますが......。
もうひとつ、同じデータをラトルで使用した場合、検証データで3~6%の誤差が出るのはなぜでしょうか?
1. 主成分法に若干の修正を加えたものが使用されている。
2.この方法を使う主旨は、予測精度を上げることではありません。その結果、将来にわたって予測精度がほぼ変わらないという主旨のものである。実際には、テスターで確認したところ、最適化によってExpert Advisorから驚くべきデータを得られることがほとんどです。しかし、将来的に単調な作業が続くと、これらのグラボはデポを消耗してしまいます。これは、エキスパートアドバイザーがトレーニング中に、今後繰り返されないいくつかの特殊性を学習するために起こります。このような特異点として、対象変数とは全く関係のない予測因子、すなわちノイズが特に有効である。モデルを最適化したりRにフィットさせたりする際、このノイズから性能を飛躍的に向上させる値を抽出することは常に可能である。しかし、今後はそうもいかず、Expert Advisorは失敗します。
もう一度言いますが、トレーニングサンプルと将来の見積もりにおけるモデルのパフォーマンスの違いを排除することができるツールを使用するのです。やはり、再教育の問題を解決してこそ、前に進むことができるのだと思います。
3. 誤差が10%以下、さらに5%以下であれば、モデルが再トレーニングされていることの強い証拠となる。そして、モデルのオーバートレーニングは、モデルそのものではなく、入力予測変数の集合に起因するものです。
3. 10%未満、ましてや5%未満の誤差は、モデルが過剰に訓練されていることの明らかな証拠です。また、モデルのオーバーフィッティングは、モデルそのものではなく、入力予測変数の集合に起因するものです。
問題は、同じデータと同じモデルで、なぜRとrattleで結果が異なるのか、ではない。
質問2:「サンプル切れ」のモデルをガラガラでチェックすることに何の意味があるのでしょうか?
問題は、同じデータと同じモデルで、なぜRとrattleで結果が異なるかではない
質問2:ガラケーで「サンプル切れ」モデルを確認する意味は、地獄を見せるのであれば
おそらく、rとrattleのscaffoldingパラメータが異なるため、結果が異なるのでしょう。ラトル本体では、ツリーの数や変数を変更することも可能です。
そして、あなたのガラケーは、トレーニングデータで34%の誤差、検証データで3%の誤差があるのですね?検証用データに何か問題があるのか、あるいはトレーニング用データに既に存在していたのか、あるいはデータセットが非常に小さいためにそのようになったのか。