引用における依存性統計(情報理論、相関などの特徴選択法) - ページ 31

 
Avals: 常に 予測する必要はないのです :)その時だけ。

そして、もっと頻繁にシステムが言うべきことは、「私は宇宙のモデルに危機感を持っているので、フェンスに座りましょう」です。これは、市場の混沌とした現実を反映した、知的なトレーディングシステムの有用な特性であると思います。

Candid: 一般的に、書き込みが宙ぶらりんになっていることから判断して、このスレッドでの私の時間は過ぎ去ったか、まだ来ていないかのどちらかです :).噴水はそろそろお休みでしょうか :) 。

おそらくまだです :)

そして、正直まだこの話題を活性化させるつもりはなかったのですが、この話題が出た後、この展開についてあるだろうと想定していました。しかし、議論によって明らかになったこともあるので、後悔はしていない。

キャンディド:私は 最初から、この方法論は予測に役立つことも役に立たないことも、あらゆる依存性を感知していると考えていました。ボラティリティについては、そのような仮定を裏付ける明確な根拠がここにあります。

ボラティリティは、このインフォメーション・ゲームでは重要なプレーヤーですが、まだ王様や神様にはなれないと思います。

 

テーマは続けます、むしろ美意識のために。もしかしたら、この話題はこれで終わりかもしれませんね。あるいは、別のものが開くかもしれません。

実験結果を掲載します。

 

EURUSD D1のゼロバー(正確には価格の増分p[0]-p[1])について、1~250のラグで相互情報量を示したグラフです。




次に、増分の符号を混ぜながら、系列の元の揮発性を維持する(増分のモジュレーションを維持する)ことに挑戦してみよう。得ることができる。



似たようなチャートで、相互の情報の和がよく似ている。勾配の符号を削除しても、相互情報量に影響がなかったということです。この記号の無意味さを確認するために、次のことを試してみよう。増分の符号の並びは元の形式のままにして、揮発性の構造を壊した増分のモジュリーを混ぜることにしよう。今、私たちは




チャートの表情が変わっています。和が大幅に減少しました。つまり、ボラティリティを取り除いたことで、増分記号の元のシーケンスが存在するため、ゼロバーに関する情報はかなり少なくなっています。


ここで、増分符号と増分モジュラスシーケンスの両方を混ぜてみましょう。つまり、元の系列で行われるボラティリティと符号の並びをなくしてみましょう。




ほぼ同じ結果が得られ、合計が大きくなっても大丈夫です。ボラティリティ・フリーの系列は、完全にランダムな系列(ただし、分布法則は保存されている)とほぼ同じであると仮定する。


各実験で複数回の実写を行わないようにするため、異なる系列で得られた相互情報量の値の差に関する仮説の統計的検定を実施しよう。

元の系列とボラティリティを保存した系列の相互情報量に対するKolmogorov-Smirnov検定。p > 0,1.差の仮説は棄却される。

元のシリーズと増分の符号を保持したシリーズについて:p<0.01。差があるという仮説が確認された。

符号を保持した系列とランダムな系列について検定する。p < 0,1.曖昧な結果ですが、ランダム系列の相互情報量の総和はさらに大きいので、差がある、あるいは少なくともランダム系列より優劣がないという仮説を受け入れたいと思います。

結論:この方法は、終値の増分で作業することで、価格変動の依存性を検出することができるが、増分の兆候の依存性は、いかなる意味でも検出することができない。この手法では、値動きの方向を予測することは不可能である。

 

この1ヶ月間、この話題から遠ざかっていました。他のことがとても忙しく、時間がなかったのです。

判決には原則的に賛成です。ただし、日数についてだけ。短い時間軸よりも日数の方がはるかにカオスが大きいことは、すでに以前から疑っていたし、言っていた(私だけでなく)。

また、過剰な情報を持つバーがスクリーニングされていないことも考慮する必要がある。結果に大きく影響するのではないでしょうか。

つまり、ニューラルネットワークの入力となり得るデータの選定を、もっと真剣に考える必要がある。つまり、ニューラルネットの恩恵を受けるには、極めて汚れのない上澄みを食べさせなければならないことがわかったのです。そして今はまだ珍味ではなく、捕獲していない星付きチョウザメです。

 
Mathemat:

この1ヶ月間、この話題から遠ざかっていました。他のことがとても忙しく、時間がなかったのです。

評決には原則的に賛成です。ただし、日数についてだけ。短い時間軸よりも日数の方がはるかにカオスが大きいことは、すでに以前から疑っていたし、言っていた(私だけでなく)。

また、過剰な情報を持つバーがスクリーニングされていないことも考慮する必要がある。結果に大きく影響するのではないでしょうか。

つまり、ニューラルネットワークの入力となり得るデータの選定を、もっと真剣に考える必要がある。つまり、ニューラルネットの恩恵を受けるには、極めて汚れのない上澄みを食べさせなければならないことがわかったのです。そして今はまだ珍味ではなく、捕獲されていない星付きチョウザメです。

Alexeiさん、まず、このスレッドでお目にかかれてうれしいです。あなたの意見に賛成です。また、日記に大量のカオスがあることも聞き、考えたことがあります。時系列 関数は1分足や5分足ほど滑らかではなく、ティックではさらに滑らかでない、というのが私の考えです。小さなTFで数バー先まで予測できるようになれば、力が発揮されるでしょう。もちろん、分単位でも相互情報を計算すれば、もっと面白いことになりますよ。ティックにもやるかもしれません、ゲインキャピタルさんのサイトからパクります。ただ、バーのアンサンブルの情報を使うという問題が解決されていないのが、引っかかるところです。すみません。

ムクドリ」が捕まっていないのは全く同感です。そして、この点で重要なのが、冗長情報の問題です。特定のバーの情報を取るということは、根本的に、取ったそれぞれのラグの重要性を問題にしているのです。

すべてにおいてですが、また放送でお会いしましょう。

 
alexeymosc: もちろん、分単位の相互情報も計算できますから、面白ささえありますね。ダニにもできるので、ゲインキャピタルのホームページから持っていきます。

分単位、ましてやティックでは、時間的にもPCのリソースを使う 意味でも無駄が多すぎるのではないでしょうか。時計をとって数えています。見てみよう。

ここで最も深刻な問題は、表面ではなく内部にある。過去の歴史がDCの定数になっていないことだ。バーは常に現れては消えていく。そして、過去の歴史の局所的な変化が、結果(というかマトリックス)に重大な影響を与えることがあります。私はこのことを非常に不愉快に思っています。履歴の永続性の問題を解決すると同時に、計算回数を一桁減らす方法を探しています。

 
alexeymosc:

Alexeiさん、まず、このスレッドでお会いできたことを嬉しく思います。あなたの意見に賛成です。また、日頃から大量のカオスを耳にし、考えていました。私の意見は以下の通りです。大きなTFでは、時系列関数は分や5分ほど滑らかではなく、ティックではさらに滑らかではありません。小さなTFで数バー先まで予測できるようになれば、力が発揮されるでしょう。もちろん、分単位でも相互情報を計算すれば、もっと面白いことになりますよ。ティックにもやるかもしれません、ゲインキャピタルさんのサイトからパクります。ただ、バーのアンサンブルの情報を使うという問題が解決されていないので、そこがネックになっていますね。すみません。

ムクドリ」が捕まっていないのは全く同感です。そして、この点で重要なのが、冗長情報の問題です。特定のバーの情報を取るということは、根本的に、取ったそれぞれのラグの重要性を問題にしているのです。

すべてにおいてですが、また放送でお会いしましょう。

分足や5分足、ティック足ほどスムーズではありませんが、より予測しやすくなっています。 分足などの小さなTFでは、私の理解では、数百本から数千本の間に時系列 関数がパターンを明らかにしますが、10(-数)本の間には、考えられる一般的パターンのランダム要素の割合が非常に高くなります。
 
yosuf:
大きな時間軸では、1分足や5分足、ティック足ほど滑らかではありませんが、予測可能です。 小さな時間軸、特に1分足では、時系列関数は数百から数千本で規則性を示しますが、数十本(-s)単位では、考えられる一般的パターンのランダム要素の比率が非常に高くなります。

そうですね、Yusufさん。そういう意見もあるんですね。ちなみに私がデイリーバーを飲んだ理由はそれです。しかし、興味深いことに、同じラグ数の相互情報量の和は、昼間のバーよりも時間足の方が大きい。たとえそれがほとんどボラティリティであっても、事実は事実です。だから、特定の予測モデルには、より小さな時間枠の方が適しているのかもしれません。

 
Mathemat:

分単位、ましてやティックでは、時間的にもPCのリソースを使う意味でも無駄が多すぎるのではないでしょうか。時計をとって数えています。見てみよう。

ここで最も深刻な問題は、表面ではなく内部にある。過去の歴史がDCの定数になっていないことだ。バーは常に現れては消えていく。そして、過去の歴史の局所的な変化が、結果(というかマトリックス)に重大な影響を与えることがあります。私はこのことを非常に不愉快に思っています。履歴の不変性の問題を解決すると同時に、計算回数を一桁減らす方法を探しているのです。

これは非常に良い指摘です。私自身、歴史の中で揮発性バーの問題を掘ったことはないのですが、アレクセイさんの指摘は明快です。時系列そのものではなく、時系列から 派生した信号で測定するべきだと思います。多分、時間枠内の加重平均価格を取ることに意味があるのでしょう、スパイクは平滑化されるでしょう。ちなみに、私は一度そうしました。1時間足の終値で計算した日中足の加重平均を取りました(実際は周期24のMAですが、計算にはこの波の値を24ステップ間隔で取っています)。そして、相互情報を計算しました。驚きました。ラグ#1が最大の情報を示し、他のラグでは10倍以上の少ない情報を示した。元の日次価格シリーズとの急激な差...
 
あなたは、低い時間枠でのボラティリティのクラスタリングの影響を知っていながら、より高い時間枠がよりノイズが多いと言われる結論を出しているのです。その根拠は、あなたの信念だけです。もし、本当に異なる時間スケールを比較したいのであれば、直接比較するのではなく、ボラティリティの影響を除いた残差で比較すればよいのです。