市場モデル:スループット一定 - ページ 3

 

アイデア自体は不思議なものですが、その根底にあるメッセージは実に不思議です。個人的には好きではありません。情報量が常にほぼ一定であれば、市場で起きていることはあまりない。でも、そんなことはないんです。市場では、情報量が正確に変化する(別の位相状態への遷移のような)カタストロフが定期的に発生します。

 

男は、ストリーム内の新しい "フレーム "を予測するために、圧縮情報のビットを分析することを提案し、どのような良い、例えば、MPG4フレームは、次のフレームを予測するためにMPG1フレームと比較して?

映画のプロットを追う方が簡単かもしれませんね :)

 
hrenfx:

情報はビットの集合体であり、伝送するためにどのように圧縮することもできない。

市場は比較的閉じたシステムとして、単位時間あたり一定の(あるいは緩やかに変化する)情報量を生み出すと仮定している。

これはどういうことでしょうか?

マーケットデータとは、市場から得られるあらゆるものを指します。一番シンプルなのは価格です。

時間の単位をTimeと する。Timeにおいて常に市場の情報量がN であると仮定する。よりシンプルになりました。

私たちは、この間、市場からのデータを収集してきました。これを最大まで圧縮し(これ以上の圧縮は不可能)、非圧縮ビットの集合を得る。これは、時間単位Timeに対して その量が一定(N)である情報である。

できるだけ圧縮するのがセオリーです。圧縮のアルゴリズムはたくさんあります。圧縮アルゴリズムが強力であればあるほど、利用可能なデータに含まれる情報量をより正確に推定することができる。つまり、情報量を正確に判断することはできないが、推定することはできる。

このモデルをどのように取引に利用するかは、こちらで 解説しています。

モデルの妥当性の検証はそれほど難しくはない。過去の市場データを大量に保有していれば十分です。時間 サイズのスライディングウィンドウを取る。そして、ウィンドウの各位置で圧縮を行い(アルゴリズムは異なる場合があります)、ビット数を求めます。その結果、情報量の見積もりのBPを得ることができる。あとは、このBPを分析し、適切な結論を出すだけである。



ちなみに、科学者としてのキャリアを捨て、現在は株式市場に従事していると噂されるクロード・シャノンは、情報の尺度という概念を導入した。

M個の可能な結果Xiを持ち、i番目の結果の発生確率を表す確率P[Xi]を持つある事象が含まれる。

情報であり、その値は式で定義される。

I[Xi] = ln(1/P[Xi]) = - ln P[Xi] です。

この情報Iの 期待値または平均値がエントロピー Hに 等しい。

つまり、エントロピーは不確実性の尺度なのです。病院の平均温度を覚えていますか?:))) これです。

それが不確実性であり、エントロピーです。)

「情報とは、圧縮して送信することができないビットの集合体である」 Sounds!

しかし、私には、集合が「どのような方法でも圧縮する ことができない」のは

1ビットだけからなる集合、すなわち冗長性がない場合、そこに

圧縮するものがない!つまり、このビットが2つの値 "0 "または "1 "のいずれかを取るとき、しかし!

は完全確実です!という希望的観測を述べているわけですね。

外為市場に含まれるランダム性をもたらすために、完全な手順があることを

は、そのランダム性をこれ以上ないくらいに排除する?外為市場はクローズドループシステムではないので、なおさら不可能なのです

これは、強い非定常性、すなわち、統計パラメータのボラティリティ、通貨ペアの相場、および、為替レートの変動によって証明されています。

テクニカル分析とファンダメンタルズ分析の組み合わせという経験則に基づく相場観は、ご存知の通り

は、それぞれ市場の内部ムードと市場外の状況分析に関わるものである。

だから、あなたのその仮説が、私には完全に逆さまに思えたので、ここまで書いたのです。

 
TheVilkas:

情報理論の基本は知っている。情報の定義を曖昧にしたようだ。言い換えてみましょう。

データに含まれる情報量とは、データを復元するために必要な最小限のビット数のことです。

つまり、最大圧縮された(復元可能な)データのビット数が、そのデータの情報量となる。データに含まれる、いわゆる純粋な情報。

 
hrenfx:

情報はビットの集合体であり、伝送するためにどのように圧縮することもできない。

市場は比較的閉じたシステムとして、単位時間あたり一定の(あるいは緩やかに変化する)情報量を生み出すと仮定している。

これはどういうことでしょうか?

マーケットデータとは、市場から得られるあらゆるものを指します。一番シンプルなのは価格です。

時間の単位をTimeと する。Timeにおいて常に市場の情報量がN であると仮定する。よりシンプルになりました。

私たちは、この間、市場からのデータを収集してきました。これを最大まで圧縮し(これ以上の圧縮は不可能)、非圧縮ビットの集合を得る。これは、時間単位Timeに対して その量が一定(N)である情報である。

できるだけ圧縮するのがセオリーです。圧縮のアルゴリズムはたくさんあります。圧縮アルゴリズムが強力であればあるほど、利用可能なデータに含まれる情報量をより正確に推定することができる。つまり、情報量を正確に判断することはできないが、推定することはできる。

このモデルをどのように取引に利用するかは、こちらで 解説しています。

モデルの妥当性の検証はそれほど難しくはない。過去の市場データを大量に保有していれば十分です。時間 サイズのスライディングウィンドウを取る。そして、ウィンドウの各位置で圧縮を行い(アルゴリズムは異なる場合があります)、ビット数を求めます。その結果、情報量の見積もりのBPを得ることができる。あとは、このBPを分析し、適切な結論を出すだけである。


ロスレスアーカイビングは、アーカイブされる情報の記述と符号化が、情報そのものよりも小さなサイズになるような新しいアルファベットをコンパイルすることを意味する。大雑把に言うと、いくつかのパターンの割り当てです。しかし、これは正則文法のように、厳密で曖昧さのないルールが存在する、あるいはルールからの逸脱が頻繁に起こらないモデルに有効である。例えばノイズがあると、アーカイブの効率は一気に落ちます。もし、あるテキストに100回ある単語が、その都度間違えたり、2文字ほど入れ替わったりしていたら、可逆圧縮アルゴリズムでは、それを別々のパターンで保持することはできない。ここでは、画像、映像、音声などの非可逆圧縮アルゴリズムが効率的である。しかし、いずれも、大文字と小文字の違いによって語尾を変えるなど、文脈上のルールを考慮することはまだできない。例えば、本文中で最も頻繁に使用される文字の組み合わせをハイライトして、それでおしまい。市場についても同様で、最も一般的な素朴なパターンを切り出すが、その利用によって確率的な予測が可能になるということはない。さらに正確には、儲かる予想かもしれません。そうでなければ、90%の確率で、このようなシナリオが続くと予測されることになる。しかし、残りの10%のシナリオによる経済的損失は、その90分の1を使用した利益と同じになります。

要するに、すべてはアーカイバに依存するのです。深度ルールの割り当ては、人工知能(あるいは自然界)の仕事であり、rarの仕事ではない :)そしてもちろん、そのグローバル性ではなく、収益性の高い利用が可能であることが大きなポイントです。

 

トピックの最初の投稿が数式になったのは理解できないが、イミフあなたはエントロピーについて 話をしようとしている

ZS: 情報伝達の理論が大嫌いで、たった一度のタイプミス(bpsとbaudを間違えた)で、成績表が「A」ではなく「O」になってしまったんですよ。

 
Mathemat:

アイデア自体は不思議なのですが、その大前提が実に不思議なのです。個人的には好きではありません。情報量が常にほぼ一定であれば、市場では何も起こりません。でも、そんなことはないんです。市場では、情報量が正確に変化する(別の位相状態への遷移のような)カタストロフが定期的に発生します。


フォーラムのメンバーがこのスレッドを覚えていることを望みます。https://www.mql5.com/ru/forum/105740。

一枚目

のうち、流れの理論で特別な役割を果たすのは、フローインテンシティ(FTI)と呼ばれる一次モーメント関数である。

は、IPとは単位時間あたりの情報量のことであると言い換えることもできる。これのある種のアナログは、ニュースも分析しないのであれば、単位時間当たりのティックの数と考えることができます。ちなみに、私見ですが、圧縮はできない、圧縮しても(圧縮しない)情報量は変わりません

Z.U.さん、ティックフレームがないと大変ですよ。履歴でのチェックもうまくいきませんhttps://www.mql5.com/ru/forum/1031/page1#comment_6372 履歴が分単位だとこの情報が死んでしまいます......。

 
hrenfx:

モデルの妥当性を検証することは、それほど難しいことではありません。過去の市場データを大量に保有していれば十分です。大きさTimeの スライディングウィンドウを取る。そして、各窓の位置に対して圧縮を行い(異なるアルゴリズムを使用することも可能)、ビット数を求めます。その結果、情報量の見積もりのBPを得ることができる。あとは、このBPを解析して、適切な結論を導き出すだけである。

テスト済みです。私は一日あたりのサイズ(288 M5)のスライドウィンドウを取り、5分間、毎回それをシフトして、2010年の初めから2010年10月まで、 RARと 7Z LZMA 圧縮を適用 - ほとんど60 000スライドウィンドウは、各アーキバによって圧縮されます。為替市場(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD)のチャートをウィンドウサイズで圧縮するとこのような感じになります。

意外なことに、RARは 極めて不安定な結果を示した。圧縮されたウィンドウの大きさは千差万別です。7Z LZMAは 安定した結果を示し、圧縮ウィンドウサイズも小さくなりました。そこで、7Z LZMAを 選択し、さらに研究を進めることにした。

最初は1つのシンボル(AUDUSD)を追加し、次に1つ、さらに1つと追加していき、9つの シンボル(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD)を追加していきました。課題は、新しいシンボルの導入に伴い、アーカイバーがどのように相関性を見出すかであった。相関がある場合、新しいシンボルが追加されると、圧縮されたウィンドウの平均サイズは非線形に成長するはずである。このような結果になりました。

すでに8つの ツールで、少なくとも20%の データが余分(情報を含んでいない)であることがわかります。つまり、相関があり、その相関は小さくないということです。興味深いことに、9番目の 金融商品(GOLD)を加えても、相互関係は明らかにならなかった(MIは減少していない)。金融商品を加えたRMSは、当初(1 商品)に比べ50% 以上増加(9 商品)しました。

圧縮ウィンドウサイズ(MOが1つになる)の変化のグラフは、金融商品のセットごとに以下のようになります。

これらのグラフの分布。

どのような結論が導き出されるのでしょうか。

反論も確認もできないモデルだった。圧縮アルゴリズムは、金融商品間の初歩的な(アルゴリズムが非常に単純な)関係の存在を非常によく示している(8つの 金融商品で20% 以上の冗長データが排除されている)。ソリッドコンバージョンが 使われているので、当然という方も多いでしょう。しかし、正確にはそうではありません。例えば、ゴールドの 場合、アーカイバーは他の8つの シンボルとの関連性を見出すことができない。

追記:十字はメジャーと完全に相関があることが分かっているため、意図的に解析しておらず、付加的な情報は含まれていない。したがって、メジャーのみ。

P.P.S ウィンドウサイズに関する全データを添付します。

P.P.P.S. 問題を解くのがおもしろかったです。新しい手法も必要でした。特に、様々なウィンドウを50万回以上圧縮するために、RAM-diskを使用しなければなりませんでした。結局、比較的早く終わりました。

ファイル:
4analyse.rar  497 kb
 
hrenfx:

...

もし差し支えなければ、同じようにRMSを使って人工的にBPを生成したものを使ってみてください。どうなるのか非常に興味深い。
 
hrenfx:

まず1つの金融商品(AUDUSD)を追加し、さらに1つ追加して9つの 金融商品(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD)を追加しました。

そして、具体的にどのように加筆されたのでしょうか。