市場のエチケット、あるいは地雷原でのマナー - ページ 80 1...737475767778798081828384858687...104 新しいコメント Neutron 2009.06.22 05:33 #791 gpwr писал(а)>> 青い丸の近くに統計的な散らばりがあるのはなぜですか?重みがゼロから始まっていれば、統計的なばらつきはないはずです。 ポイントは、同じトレーニングサンプルで統計をとっているのではなく、1サイクルごとに1サンプルずつずらしていることです。そのため、学習結果が一致しないことがあります。なぜそうしたかは覚えていませんが、本質は変わりません。どうやら、市場の準定常的なプロセスを示し、その影響を学習速度に反映させたかったようです。 同じ学習用サンプルで10回の実験を平均化した場合の結果を示します(図左)。 初期化回数がゼロのウェイトには統計的なばらつきがないことがわかります。 右の図は、12入力、隠れ層に5ニューロン、出力に1ニューロンというネットワークアーキテクチャで、学習サンプルが120サンプル、つまりあなたのケースをコピーしたものです。統計は50回の独立した数値実験から集めたものである。また、すべて正常に動作しています。 EURUSD1hの始値を標準偏差で正規化したものを使用した場合、その平均値はゼロにならない。それとも、平均値を引いたのでしょうか? いいえ、最初の始値差を入力として使いました(文脈から明らかだと思ったので)。平均がゼロであることは明らかです。次の差の振幅と符号を予測した。 定理については、私は好きでした。しかし、それは特殊なケースとして、私たちのネットワークに関係しているのです あなたは、トレーニングサンプルの長さが無限大に傾いている場合の退化したケースを証明しました。この場合、MOがゼロのSVを表す入力データのベクトルに対して、重みがゼロになります - 統合されたSVの明日の最適な予測は、今日の現在の値ですしかし,有限長の学習サンプルを取れば,学習された重みは誤差の二乗を最小にする平衡状態に向かう.この言葉を証明する例として、SLAE(同じNS)の場合を考えてみましょう。この場合,重みは一意に定義され,学習サンプルに対する学習誤差は同値で0になり(未知数の数は方程式の数に等しい),重み(未知数における係数)は明らかに0に等しくならない. paralocus 2009.06.22 08:47 #792 このデザインは、私には何か納得がいきません。 Neutron 2009.06.22 08:53 #793 横軸の目盛りに+/-の範囲があるのはなぜですか?本来は+/-Nであるべきなのだが...。もしかしたら、±1リミットを強く設定したために、何も見えなくなってしまったのかもしれませんが、写真の通りです。 paralocus 2009.06.22 09:08 #794 だからというわけでもないと思います。範囲の境界を全く指定していない。今は-Nから+Nまでハードに設定されています。 Matkadの不具合を疑っています。新しいのはもう手に入れたんだけど、今日は郵便局が動いてないんだ。明日しか手に入りません。 Neutron 2009.06.22 09:33 #795 paralocus писал(а)>> だからというわけでもないと思います。範囲の境界を全く指定していない。今は-Nから+Nまでハードに設定されています。 Matkadの不具合を疑っています。新しいのはもう手に入れたんだけど、今日は郵便局が動いてないんだ。明日しか手に入らない。 大丈夫です。 あなた、ベクトル値を見せてください。F=...のような、何かある? paralocus 2009.06.22 09:38 #796 Neutron 2009.06.22 09:40 #797 あーあ。dif[i]=trunc(K*(Open[i]-Open[i-1]))のように、ループ内で dif を切り上げて整数にします。もしかしたら、ソース商が4桁にならないかもしれません。コチエ自体の見え方は表でご確認ください。 paralocus 2009.06.22 09:59 #798 はい、うまくいきました...。 おかしいな、どうして商が4桁にならないんだろう? Neutron 2009.06.22 10:04 #799 どこからか、どこからか...。Matcadが小数点以下3桁まで数字を表現するように設定されているからです。 あ、いや。問題は、元の商にあるのですが。生データを見てください。 paralocus 2009.06.22 12:01 #800 これは、データ型の違いによるものです。trunc() は、単に最初の商の差の値を整数型に 設定します。 1...737475767778798081828384858687...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
青い丸の近くに統計的な散らばりがあるのはなぜですか?重みがゼロから始まっていれば、統計的なばらつきはないはずです。
ポイントは、同じトレーニングサンプルで統計をとっているのではなく、1サイクルごとに1サンプルずつずらしていることです。そのため、学習結果が一致しないことがあります。なぜそうしたかは覚えていませんが、本質は変わりません。どうやら、市場の準定常的なプロセスを示し、その影響を学習速度に反映させたかったようです。
同じ学習用サンプルで10回の実験を平均化した場合の結果を示します(図左)。
初期化回数がゼロのウェイトには統計的なばらつきがないことがわかります。
右の図は、12入力、隠れ層に5ニューロン、出力に1ニューロンというネットワークアーキテクチャで、学習サンプルが120サンプル、つまりあなたのケースをコピーしたものです。統計は50回の独立した数値実験から集めたものである。また、すべて正常に動作しています。
EURUSD1hの始値を標準偏差で正規化したものを使用した場合、その平均値はゼロにならない。それとも、平均値を引いたのでしょうか?
いいえ、最初の始値差を入力として使いました(文脈から明らかだと思ったので)。平均がゼロであることは明らかです。次の差の振幅と符号を予測した。
定理については、私は好きでした。しかし、それは特殊なケースとして、私たちのネットワークに関係しているのです
あなたは、トレーニングサンプルの長さが無限大に傾いている場合の退化したケースを証明しました。この場合、MOがゼロのSVを表す入力データのベクトルに対して、重みがゼロになります - 統合されたSVの明日の最適な予測は、今日の現在の値ですしかし,有限長の学習サンプルを取れば,学習された重みは誤差の二乗を最小にする平衡状態に向かう.この言葉を証明する例として、SLAE(同じNS)の場合を考えてみましょう。この場合,重みは一意に定義され,学習サンプルに対する学習誤差は同値で0になり(未知数の数は方程式の数に等しい),重み(未知数における係数)は明らかに0に等しくならない.
このデザインは、私には何か納得がいきません。
だからというわけでもないと思います。範囲の境界を全く指定していない。今は-Nから+Nまでハードに設定されています。
Matkadの不具合を疑っています。新しいのはもう手に入れたんだけど、今日は郵便局が動いてないんだ。明日しか手に入りません。
だからというわけでもないと思います。範囲の境界を全く指定していない。今は-Nから+Nまでハードに設定されています。
Matkadの不具合を疑っています。新しいのはもう手に入れたんだけど、今日は郵便局が動いてないんだ。明日しか手に入らない。
大丈夫です。
あなた、ベクトル値を見せてください。F=...のような、何かある?
あーあ。dif[i]=trunc(K*(Open[i]-Open[i-1]))のように、ループ内で dif を切り上げて整数にします。もしかしたら、ソース商が4桁にならないかもしれません。コチエ自体の見え方は表でご確認ください。
はい、うまくいきました...。
おかしいな、どうして商が4桁にならないんだろう?
どこからか、どこからか...。Matcadが小数点以下3桁まで数字を表現するように設定されているからです。
あ、いや。問題は、元の商にあるのですが。生データを見てください。