市場のエチケット、あるいは地雷原でのマナー - ページ 70 1...636465666768697071727374757677...104 新しいコメント paralocus 2009.06.14 17:26 #691 Neutron >> : でも分散が少し高いので、ステータスを上げる必要があります。 もしかして、1時間ごとのコチラの内訳は、ごく普通なのでしょうか?1000まで統計を増やしていました。結果、少し低くなりました。今はもうdスタッツがカウントされているので、完成したらお見せします。 Vitali 2009.06.14 17:37 #692 Neutron >> : より正確には、準不胎化の事実を述べても、市場が完全に効率的であるとはならない。 ああ、なるほどね、私もその方が納得できる。とはいえ、言葉遊びで「準陰陽」という言葉を使って、推理に時間をかけることはあります。:) paralocus 2009.06.14 17:58 #693 Wienerのdスタッツを紹介します。 paralocus 2009.06.14 18:10 #694 K=2であれば、より美しい(Wienerについて)。K=1があれば、少女はよりよく学び、よりよく働くからです(かなり)。 そして、これは1000回の体験コチラの場合(K=1) Neutron 2009.06.15 02:55 #695 paralocus писал(а)>> Wienerのdスタッツを紹介します。 Fig.はあまり参考にならないような気がします。トレーニングサンプルとテストサンプルの入力次元の関数としてのタンジェントのみを1つの図に表示し、縦軸にオートスケーリングを置く。 paralocus 2009.06.15 06:10 #696 いいんですか? Neutron 2009.06.15 06:17 #697 では、何が言いたいのか説明してください。 Wienerの正接が導出された図を見てください。 その値を学習用サンプルに対して視覚的にtg=1/2で推定することは難しくない。最後の図を見ると、tgの値はレベル0.1を超えていません。 コメント paralocus 2009.06.15 06:22 #698 スピードのせいでしょうか?調べに行く。 paralocus 2009.06.15 07:05 #699 これは、計算した接線にWiener volatilityを掛けたためで、これも計算が間違っていました(カウントの差が2乗されずに蓄積されたものです) これらの写真はK=1の場合です。 Neutron 2009.06.15 07:22 #700 今、おめでとうございます。 単層NSコードが正しく動作することがわかります。ランダムプロセスではゼロ(さらに統計を追加すれば)、マーケットBPではゼロと統計的に有意な差があるものです。これで、普遍的な近似器(二層非線形NS)を使った作業に移行し、得られた結果を線形ニューロンの作業と比較することができるようになりました。研磨後、隠れ層のニューロン数を変えてリターンを比較したり、異なる入力データで実験したりすることができます。 1...636465666768697071727374757677...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
でも分散が少し高いので、ステータスを上げる必要があります。
もしかして、1時間ごとのコチラの内訳は、ごく普通なのでしょうか?1000まで統計を増やしていました。結果、少し低くなりました。今はもうdスタッツがカウントされているので、完成したらお見せします。
より正確には、準不胎化の事実を述べても、市場が完全に効率的であるとはならない。
ああ、なるほどね、私もその方が納得できる。とはいえ、言葉遊びで「準陰陽」という言葉を使って、推理に時間をかけることはあります。:)
Wienerのdスタッツを紹介します。
K=2であれば、より美しい(Wienerについて)。K=1があれば、少女はよりよく学び、よりよく働くからです(かなり)。
そして、これは1000回の体験コチラの場合(K=1)
Wienerのdスタッツを紹介します。
Fig.はあまり参考にならないような気がします。トレーニングサンプルとテストサンプルの入力次元の関数としてのタンジェントのみを1つの図に表示し、縦軸にオートスケーリングを置く。
いいんですか?
では、何が言いたいのか説明してください。
Wienerの正接が導出された図を見てください。
その値を学習用サンプルに対して視覚的にtg=1/2で推定することは難しくない。最後の図を見ると、tgの値はレベル0.1を超えていません。
コメント
これは、計算した接線にWiener volatilityを掛けたためで、これも計算が間違っていました(カウントの差が2乗されずに蓄積されたものです)
これらの写真はK=1の場合です。
今、おめでとうございます。
単層NSコードが正しく動作することがわかります。ランダムプロセスではゼロ(さらに統計を追加すれば)、マーケットBPではゼロと統計的に有意な差があるものです。これで、普遍的な近似器(二層非線形NS)を使った作業に移行し、得られた結果を線形ニューロンの作業と比較することができるようになりました。研磨後、隠れ層のニューロン数を変えてリターンを比較したり、異なる入力データで実験したりすることができます。