ということであれば、私は反対です。ポイントは、ほとんど同じ問題(比較:x[n+1]=SUM{w[i]*x[n-i]}, where i=0...P-1) を解決していることです。唯一の違いは、和記号下の重みが深さPで適応的に決定され、古典形式では(相関係数計算時に統計セット用)より大規模で統合的であるという点です。結果が出ないからこそ、非線形手法による解析、特にNSを使った解析に移行したいという思いが強まるばかりです。
ということであれば、私は反対です。ポイントは、ほとんど同じ問題(比較:x[n+1]=SUM{w[i]*x[n-i]}, where i=0...P-1) を解決していることです。唯一の違いは、和記号下の重みが深さPで適応的に決定され、古典形式では(相関係数計算時に統計セット用)より大規模で統合的であるという点です。結果が出ないからこそ、非線形手法による解析、特にNSを使った解析に移行したいという思いが強まるばかりです。
加算器の入力ディップが、遅れのあるマッシュアップではなく、それ自身、つまり理想的なMAの1回微分である場合、そうなるのです。
あとは、理想のMAを見つけるだけです。本物のジュルリッチに挑戦してください。理想的とは言えないが、それでもそれに近い。しかも、かなりスムーズです。
ああ、なんて面白いんだろう。
加算器の入力を、遅行するマッシュではなく、自分自身にディップすれば、そうなります :-) つまり、理想的なMAの一次導関数になります。
また、なぜ誰も指定を求めないのか?:)皆さん、お分かりになりますか?
現在のバーには、完璧なマッシュアップは存在しない。本当に彼らの予言があるかもしれない。彼らのことを話しているのでしょうか?
からヴィン
感想をどうぞ - 続編があります!
私は残念ながら、ずっと読者だった。だから、何も申し上げられないのです。 でも、このテーマは本当に面白いんです。失礼しました。
ああ、なんて面白いんだろう。
加算器の入力を、遅れのあるマッシュではなく、それ自身、つまり理想的なMAの一次導関数に浸すと、このようになります。
また、なぜ誰も指定を求めないのか?:)皆さん、お分かりになりますか?
現在のバーには、理想的なマがない。確かに彼らの予言はあるかもしれない。彼らのことを話しているのでしょうか?
いや、パーフェクトウェーブの平滑化窓の幅の予想の話です。BPの右端には、ちょうどそのウィンドウの幅だけ典型的なスムージングゾーンがあり、本当にふらふらしていることを思い出してください。
インデックスを修正しないまま一行抜けてしまい、その結果、後ろ向きのウィンドウでカウントされたウェイトに理想的なマの現在 値を掛けたものを使って予測が行われていました。これが補正後の結果です(図参照)。ウェイトには、1ウィンドウ前のМАWA(その微分のことです)を掛けています。
5小節先までの予報です。予想通り、スタート時点ですでに予測曲線は見事に崩れている。方程式の数を2以上(100まで確認)増やしても、大きな改善は得られません。
P.S. 安心しました!
からヴィン
私は、残念ながら、とっくに読者になってしまいました。だから、何も申し上げられないのです。そして、そのテーマは実に興味深いものです。失礼しました。
さて、この場合の神経回路をどう積むか。弱くないですか?
突然、少なくとも2つの隠れ層で生まれたNSのアプリオリな非線形性が奇跡を起こす...。
をVininへ。
私は残念ながら、ずっと読者でした。だから、何も申し上げられないのです。でも、このテーマは本当に面白い。失礼しました。
さて、この場合の神経回路をどう積むか。弱くないですか?
少なくとも2つの隠れ層で生まれたNSのアプリオリな非線形性が奇跡を起こすとしたら......。
もちろん、神経細胞を作ることは可能です。しかし、それはニューロニクスだけの問題ではありません。入力の定義が必要であり、まだ見えていない。
エントリーは何も問題ありません。主に、取引の信頼区間を 決定することです。
半年間取引して、突然損をすることもありますが、もっと早い場合も...。
私はコードに間違いを見つけました - 指標を修正することなく行を逃した、その結果、予測は理想的なMAの現在の 値を乗算し、逆方向のウィンドウのために計算された重みに基づいていました。これが補正後の結果です(図参照)。ウェイトには、1ウィンドウ前のМАWA(その微分を意味します)が掛けられます。
5小節先までの予報です。予想通り、スタート時点ですでに予測曲線は見事に崩れている。方程式の数を2以上(100まで確認した)増やしても、大きな改善は見られない。
瀬里ヶ谷 これは非常に悪い予想で、autocorr-iメソッドは少し良い予想をしています。BPに行くと大きな失敗をする。
瀬里ヶ谷 これは非常に悪い予想で、autocorr-iメソッドは少し良い予想をしています。BPに行くと膨大なエラーが発生します。
形式の線形自己回帰モデルを指している場合。
ということであれば、私は反対です。ポイントは、ほとんど同じ問題(比較:x[n+1]=SUM{w[i]*x[n-i]}, where i=0...P-1) を解決していることです。唯一の違いは、和記号下の重みが深さPで適応的に決定され、古典形式では(相関係数計算時に統計セット用)より大規模で統合的であるという点です。結果が出ないからこそ、非線形手法による解析、特にNSを使った解析に移行したいという思いが強まるばかりです。
完全マッハ外挿の場合(グラフを引用されましたが)、LPFからn次微分保存することで予測地平を大幅に広げることができると思います(nは2以上)。私の場合、一次導関数しか保存されていなかったので、水平線が2-3本以上になると、系列が崩れ始めたのです。
瀬里ヶ谷 これは非常に悪い予想で、autocorr-iメソッドは少し良い予想をしています。BPに行くと膨大なエラーが発生します。
形式の線形自己回帰モデルを指している場合。
ということであれば、私は反対です。ポイントは、ほとんど同じ問題(比較:x[n+1]=SUM{w[i]*x[n-i]}, where i=0...P-1) を解決していることです。唯一の違いは、和記号下の重みが深さPで適応的に決定され、古典形式では(相関係数計算時に統計セット用)より大規模で統合的であるという点です。結果が出ないからこそ、非線形手法による解析、特にNSを使った解析に移行したいという思いが強まるばかりです。
完全マッハ外挿の場合(グラフを引用されましたが)、LPFからn次微分保存することで予測地平を大幅に広げることができると思います(nは2以上)。私の場合、一次導関数だけが保存されているので、水平線が2-3本より高くなると、系列がばらばらになり始めます。
セレガで、係数のある加算器だけが使われていないところ。つまり、小さいながらもニューラルネットワークを 構築していると言えるでしょう。あなたのモデルと私のモデルを比べてみよう、基準を考えるだけでいいんだ。私はMatCADの predict()を使い、あなたはあなたのシステムを使ってください。開発環境は同じなので、データファイル(気配値、テスト中のプロセス-終値、平均値、その他・・・、テストエリア)を定義してみましょう。MA 予測のみをテストし、MA 自体は適応的に選択されます。すべてのサンプルでテストすることで、統計的な妥当性を高めている(十分なデータがあるようだ)。
しかし、私の予測の水平線は適応的に選択され、あらかじめ指定された範囲内の値をとります。4つ先の読みのMA 予想の例です。
[エラーはありません]。
比較してみましょうか。また、その場合、基準はどのようにしたらよいでしょうか。できれば、1つのカウントに対応する1つの数値にすると、比較しやすくなると思います。
PS:テストの時間はあまり堅くならないように設定しましょう、あなたもいろいろとやることがあると思いますので。
PS2: テストは、メールでファイルを交換してもいいし、私の言葉を信じてもらってもいい :o)
OK!
二人でスムースカーブ(MA)に相対して1つのファイルを印刷し、N個先の読みを予測するということでよかったでしょうか。その場合、例えば10個先の予測値(1000件)の統計を取り、横軸にMA真値、縦軸に予測値をとって直交座標で予測フィールドを構築する、という方法で評価することができます。
最小二乗法で得られた雲に直線を引き、この直線の傾きの正接でその方法は1に近くなる - 急に!
P.S. そして、小さな神経細胞については、いつも通り正鵠を射ていますね :-)