マシュカには関係ない!? - ページ 8

 
Neutron:

当然です!

結局、1本先が予測できれば、再帰を使って2本先も予測できるわけで、そこは帰納的に。しかし、予測誤差は水平軸が大きくなるにつれて指数関数的に増大します。そのため、(1本の棒に対する)基本予測の精度と信頼区間の幅の関係を予測水平軸のfiとして探索することに興味がないのです。それはアマチュアにやらせればいい。あなたと私は、予測根拠そのものの質を研究します - 1 BARが進むと、それだけで!?そうですね、毎回1小節ずつ予測して1歩進めるというのを1万回繰り返して、統計をとっていきます。念のため。


はい、できます。手始めに 。モデルの見え方の境界を設定することに興味はないのですか?


PS:また、1小節の最大予測では、あなたは非常に間違っています。これは、研究対象のモデル(あなたとBurgのモデル)だけの限界です。そして、ここでは概ね正しい、私が持っている水平線の大きさを統計的に証明するものです。

- しかし一方で、誤差のグラフを見ると、1ポイント程度の誤差で、決して悪くない。

しかし、哲学的な話に戻ると、自分を限定してはいけない。自分を限定するのは自分であって、自然は限定しないのだから。だから、人間は決して 、空中に飛び出したり、海底に沈んだりすることはないのです。ところで、予知についてですが、かなり先の予知が可能であることの決定的な証拠を、比較的近いうちにお見せできると思いますが、焦らないでくださいね。間に合いますよ:o)

 
grasn:

でも、哲学的な話に戻ると、自分を制限してはいけないんです。自然ではなく、自分で自分を制限してしまうからです。だから、人間は決して、空中に飛び出したり、海底に沈んだりすることはないのです。ちなみに、予測の件ですが、比較的近いうちにかなり先のことまで予測できる決定的な証拠をお見せできると思いますが、焦らずにいきましょうね。みんなで作ろうよ:o)

信じられませんが、私の勘違いだったということで、よろしくお願いします :-)

 
Neutron:
グラサン

でも、哲学的な話に戻ると、自分を制限してはいけないんです。自然ではなく、自分で自分を制限してしまうからです。だから、人間は決して、空中に飛び出したり、海底に沈んだりすることはないのです。ところで、予測の件ですが、比較的近いうちにかなり先のことまで予測できる決定的な証拠をお見せできると思いますが、焦らずにいきましょう。みんなで作ろうよ:o)

信じられませんが、私の勘違いだったということで、よろしくお願いします :-)


それは信仰ではなく知識 です :o)

 
セルゲイ、このバーグは誰だ?
 
Neutron:
セルゲイ、このバーグは誰だ?

真面目な男、別の予測方法を考案。MathCAD では、このアルゴリズムはpredict() とburg() 関数として実装されています。ヘルプで調べてみてください。Bergが正しいのでしょうが、burgと呼ばれることの方が多いようです。この方法で、何かの賞をもらったこともあります。


見ての通り、かなり良い予測をしてくれるのですが、パラメータを定義する必要がありますね。それではセリョーガ、まずは弟を扱ってください :o))))))。もちろん冗談です :o))))


PS:それは見つけるために、このメソッドの説明でしょう...多分北風は どこを見て知っていますか?:о)))

 

と思えるほど重要な ことなので、別記事で書いています。セリョーガさんはNSを扱っているので、ニューラルネットワークを 学習させてMAを 予測させ(可能です)、その予測MAを使って 将来の価格系列を簡単に復元できるかもしれません。同じ添加物 :o)

 

私が今まで何をしてきたと思う?そうなんです!基礎となるNSの予測特性を研究しているんです。行き詰まりましたね。MAを構築することは、基本的にそこに新しいものを加えることなく、最初のBPを統合することだということです。NSによるMAの解析は、あるいは悪魔によるものであっても、初期BPにある新しいものは何も与えてくれないことは明らかである。したがって、予言シリーズは、事象の地平線が近づくにつれ、確実に崩れていく。それはもう医学的な事実です。MAにn倍微分可能性を求めれば、顕著に改善されますよ。そうすると、破片を引っ張るような形になりますが、事象の地平線を突破することができるのです。もっと簡単な方法で同じ効果を得ることができます。

Burgのアルゴリズムについては、それが何であれ、d次元立方体上の微分可能な関数の最適近似に関するコルモゴロフの定理に基づくNSには、間違いなく負けるだろう。だから、もう1つのほうも気にならないんです。

 
Neutron:

私が今まで何をしてきたと思う?そうなんです!基礎となるNSの予測特性を研究しているんです。行き詰まりましたね。MAを構築することは、基本的にそこに新しいものを加えることなく、最初のBPを統合することだということです。NSによるMAの解析は、あるいは悪魔によるものであっても、初期BPにある新しいものは何も与えてくれないことは明らかである。したがって、予言シリーズは、事象の地平線が近づくにつれ、確実に崩れていく。それはもう医学的な事実です。MAにn倍微分可能性を求めれば、顕著に改善されますよ。そうすると、事象の地平線を突破することは可能ですが、それはスプリンターを引っ張り出すようなものです。もっと簡単な方法で同じ効果を得ることができます。

Burgのアルゴリズムについては、それがどんなものであれ、d次元立方体上の微分可能な関数の最適近似に関するコルモゴロフの定理に基づくNSには、定義上負けることになる。だから、もう1つのほうも気にならないんです。


待てよ、順を追って説明しよう。選択された方法(NS、Burg、その他)に関係なく、MA 予測の最大水平線 は、何カウント(またはバー)だと思いますか?一つなのか、違いがあるのか?

 

マシュカは1小節以上の予測地平を持つ!この値はLPFで構成される系列の滑らかさに依存し、さらに平均化ウィンドウと平均化アルゴリズム における微分の多重度に依存する。従来のMAでは微分の1倍をかけることができますが、EMAの場合は2階微分が連続的なので、より遠くまで視野に入れることができるのです。

さらに、1本先を予想してくださいというときは、1本分+MAの群遅延の値を予想することを意識してください。

 
Neutron:

さらに、1本先の予測をお願いした場合、あなたにとっては、1本先の予測+MAのグループラグの値になることを認識しておく必要があります。


ラグと関係あるのか?Burgの手法もNSもあなたの手法もMA ラグについて何も知らない。これらの方法については、単なるBPであり、それ以上のものではありません。そして、MAの 将来価値を正確に計算すれば、将来の価格価値も正確に計算できるようになるのです。ラグがどうのこうのって......。