未来を見据える方法としての統計学! - ページ 10 1...34567891011121314151617...21 新しいコメント Roman Kramar 2008.09.30 09:11 #91 Prival >> : あなたの投稿のすぐ上の写真を見てください。赤い曲線は、私の観点から非常に良い特性を持っています、それは私が知っている価格指標と比較して、滑らかで(私は変化することができます)、より少ないラグ(私も変化することができます)です。 一番下には、推定と予測に基づいたオシレーターが表示されます。 特に赤いカーブについては、このようなカーブに特別な用途があるとは思えないので、良いことは言えません。このようなカーブでは、ラグをほぼ使える値まで減らすと、滑らかさが急激に悪化し、オーバーシュートも増えてしまいます。このような曲線は、その値を正確に予測する地平が30〜50ステップであれば、価値があると思います。 オシレーターについては、そこにどのような値が表示されるのかが不明なので、何とも言えません。 Neutron 2008.09.30 09:27 #92 bstone писал(а)>> うーん、面白い。また、「ランダムな入力」に対して、どのような方法で結果を推定しているのでしょうか。 つまり、30~50%というのは具体的にどのようにカウントするのか、それが問題なのでは? Roman Kramar 2008.09.30 09:33 #93 実質的につまり、正しい入力の割合を 計算するのが通常の方法です。なぜ "ランダム "と相対的にずらすのか、その方法は?もちろん、単純に50%引きであれば別ですが。 Neutron 2008.09.30 09:39 #94 もちろん、単純な引き算です。 私のNSは、一歩先の増分の符号を予測します。価格の増分の符号から長さnの ベクトルを作成し、これらの増分の符号の予測から別のベクトルを作成する。次に、与えられたNSに対する正しい符号の推測の数を数え、得られた合計からn/2を 引く。これは、50/50の場合に相当する。得られた差分を200倍し、nで 割る。 以上です。 そして、TSの収益性を見積もるには、そのような値が必要なのです。この目的のためには、得られた割合に商品のボラティリティを掛ければよく、1回の取引あたりの平均的な統計リターンを得ることができます。 Roman Kramar 2008.09.30 10:01 #95 嗚呼、私の理解が正しければ、200ではなく100の掛け算を指していたのですね。すると、こうなる。 (p-n/2)*100/n=(p/n-0.5)*100=100*p/n-50, ただしpは正しく推測された文字数です。 TheXpert 2008.09.30 10:08 #96 bstone >> : 嗚呼、私の理解が正しければ、200ではなく100の掛け算を指していたのですね。すると、こうなる。 (p-n/2)*100/n=(p/n-0.5)*100=100*p/n-50, ただしpは正しく推測された文字数です。 0から100の間隔を得るために、ストロークに200で丁度いいはありません。0〜50の範囲で設定できます。ネットワークがランダム並みであることを考えると :) Neutron 2008.09.30 15:41 #97 Prival писал(а)>> 私がもっと好きな写真です :-) 噛むことができる 私は必要に迫られて、ブラショフのMEMU(赤線)を使って、その一歩先の予測(黒線)を構築したのです。Openシリーズ(緑)で行いました。MEMAの予測が一歩先、冷静にコテンパンにやられ、時間内に噛んで飲み込むことができるのが "良い "です。 しかし、代表的なサンプル(1万サンプル)では奇跡は消え、このミュービングの予測特性はゼロになり、さらに悪化する(tan=-0.02)。ここで強調したいのは、たとえ美しい絵であっても、現実を客観的に反映できるとは限らないということであり、アルゴリズムを独自の方法でチェックすることが有効であるということです。 Roman Kramar 2008.09.30 16:04 #98 Neutron >> : いくら美しい絵でも、現実を客観的に反映できるとは限らないので、独自の手法でアルゴリズムをチェックすることが有効であることを強調したい。 金言です。 追伸:この写真は、MEMAが非常に遅れており、その予測は何も与えていないことを示しています。 Roman Kramar 2008.09.30 16:30 #99 そして、こちらが裸眼での私のモデルです。 効率的市場理論の実践! Neutron 2008.10.01 03:14 #100 bstone писал(а)>> 効率的市場理論の実践! 私のように!- ちょうどいい効果:-) ところで、bstone さんが挙げたデータがNSの性能に関するものであれば、ハードなオーバートレーニングが 行われていると言えるのではないでしょうか。実際、トレーニングサンプルでは、予測と実際の増分が完全に一致していることがわかりますが、テストサンプルでは、完全に間違っていることがわかります。理想的な(最適なトレーニング)NSは、トレーニングサンプルとテストサンプルのエリプスが同一で、かなり厚く、最も重要なのはスロープと幅が同一であることです。 1...34567891011121314151617...21 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
あなたの投稿のすぐ上の写真を見てください。赤い曲線は、私の観点から非常に良い特性を持っています、それは私が知っている価格指標と比較して、滑らかで(私は変化することができます)、より少ないラグ(私も変化することができます)です。
一番下には、推定と予測に基づいたオシレーターが表示されます。
特に赤いカーブについては、このようなカーブに特別な用途があるとは思えないので、良いことは言えません。このようなカーブでは、ラグをほぼ使える値まで減らすと、滑らかさが急激に悪化し、オーバーシュートも増えてしまいます。このような曲線は、その値を正確に予測する地平が30〜50ステップであれば、価値があると思います。
オシレーターについては、そこにどのような値が表示されるのかが不明なので、何とも言えません。
うーん、面白い。また、「ランダムな入力」に対して、どのような方法で結果を推定しているのでしょうか。
つまり、30~50%というのは具体的にどのようにカウントするのか、それが問題なのでは?
もちろん、単純な引き算です。
私のNSは、一歩先の増分の符号を予測します。価格の増分の符号から長さnの ベクトルを作成し、これらの増分の符号の予測から別のベクトルを作成する。次に、与えられたNSに対する正しい符号の推測の数を数え、得られた合計からn/2を 引く。これは、50/50の場合に相当する。得られた差分を200倍し、nで 割る。
以上です。
そして、TSの収益性を見積もるには、そのような値が必要なのです。この目的のためには、得られた割合に商品のボラティリティを掛ければよく、1回の取引あたりの平均的な統計リターンを得ることができます。
嗚呼、私の理解が正しければ、200ではなく100の掛け算を指していたのですね。すると、こうなる。
(p-n/2)*100/n=(p/n-0.5)*100=100*p/n-50, ただしpは正しく推測された文字数です。
嗚呼、私の理解が正しければ、200ではなく100の掛け算を指していたのですね。すると、こうなる。
(p-n/2)*100/n=(p/n-0.5)*100=100*p/n-50, ただしpは正しく推測された文字数です。
0から100の間隔を得るために、ストロークに200で丁度いいはありません。0〜50の範囲で設定できます。ネットワークがランダム並みであることを考えると :)
私がもっと好きな写真です :-) 噛むことができる
私は必要に迫られて、ブラショフのMEMU(赤線)を使って、その一歩先の予測(黒線)を構築したのです。Openシリーズ(緑)で行いました。MEMAの予測が一歩先、冷静にコテンパンにやられ、時間内に噛んで飲み込むことができるのが "良い "です。
しかし、代表的なサンプル(1万サンプル)では奇跡は消え、このミュービングの予測特性はゼロになり、さらに悪化する(tan=-0.02)。ここで強調したいのは、たとえ美しい絵であっても、現実を客観的に反映できるとは限らないということであり、アルゴリズムを独自の方法でチェックすることが有効であるということです。
いくら美しい絵でも、現実を客観的に反映できるとは限らないので、独自の手法でアルゴリズムをチェックすることが有効であることを強調したい。
金言です。
追伸:この写真は、MEMAが非常に遅れており、その予測は何も与えていないことを示しています。
そして、こちらが裸眼での私のモデルです。
効率的市場理論の実践!
効率的市場理論の実践!
私のように!- ちょうどいい効果:-)
ところで、bstone さんが挙げたデータがNSの性能に関するものであれば、ハードなオーバートレーニングが 行われていると言えるのではないでしょうか。実際、トレーニングサンプルでは、予測と実際の増分が完全に一致していることがわかりますが、テストサンプルでは、完全に間違っていることがわかります。理想的な(最適なトレーニング)NSは、トレーニングサンプルとテストサンプルのエリプスが同一で、かなり厚く、最も重要なのはスロープと幅が同一であることです。