引用における依存性統計(情報理論、相関などの特徴選択法) - ページ 71

 
faa1947:
左の数字が意味するもの

これらはビットです。例えば、0.05ビット。

さらに質問をすれば、対話を続けることができます。

 
alexeymosc:

これらはビットです。例えば、0.05ビット。

さらに質問することで、対話を続けることができます。

測定される物理量は何か? 変化の限界は何か?最大1?

 
IgorM:

任意の長さのアルファベット(このスクリーンショットでは24ビット)を用いて、以下のように符号化します。

赤は安値更新=1、青は高値更新=0を意味します。

で、それぞれのTFについて、上位のTFのトレンドが「より重要」という記述を確認したところ、部分的にはそうなのですが、まだ明確な法則が見えてきませんね


ありがとうございます、わかりました。

下位のTFが上位のTFに従属することは紛れもない事実である。

http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74

http://forum.fxtde.com/index.php?showtopic=2635&st=1820

http://forum.alpari.ru/showthread.php?p=2984861#post2984861

ここでは、ヴァディムのモデルについての議論があり、彼はその質問に答えている。ここにすべての情報とすべての証拠と明確なルールがあります。

 
VNG:


ありがとうございます、わかりました。

年少者が年長者に従属することは紛れもない事実である。

http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74

http://forum.fxtde.com/index.php?showtopic=2635&st=1820

http://forum.alpari.ru/showthread.php?p=2984861#post2984861

ここにVadimのモデルについての議論があり、彼はその質問に答えています。ここにすべての情報とすべての証拠と明確なルールがあります。

ありがとうございます、調べてみます。

ZS: リンクが貼られるとは思ってもいなくて、一日中聞いていたら、googleに飛ばされて.)))

 
faa1947:

計量経済学は、数理統計学を経済学に応用したものである。

それが聞きたかったんです。

あなたや他の皆さん、有益な議論をありがとうございました。頑張ってください!;)

 
faa1947:

測定される物理量は何か? 変化の限界は何か?最大1?

最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に決定する場合、その相互情報は2.098ビットとなる。

どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。つまり、ビットは、ある特定の値の固有情報式に従って、データソース値のランダム性の尺度を反映するものである

I(X) = - log(P(x))*P(x) です。

もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私が論文で訳した公式によって、相互情報量I(X;Y)=0が得られるのです。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1に等しくなる-これが「公平なコイン」データソースの平均的な情報である。

 
alexeymosc:

最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に判定した場合、その相互情報量は2.098ビットとなる。

どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。簡単に説明すると、ビットは、ある特定の値の固有情報式を用いて、データソース値のランダム性の尺度を反映します。

I(X) = - log(P(x))*P(x) です。

もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私の記事で訳した式で、相互情報量I(X;Y)=0となる。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1になります - これが「公平なコイン」データソースの平均情報です。

統計学では、有意性という概念が非常に重要である。グラフ中の0.05と0.01の値は、その有意性において同じ値であり、いかなる結論の根拠にもなりえない。 間違っているかもしれませんが。
 
faa1947:
統計学では、有意性という概念が非常に重要である。グラフ上の0.05と0.01の値は、そのznAvalueから見て同じ値であり、何らかの結論の根拠にはなり得ない。間違っているかもしれませんが。

この場合、あなたは間違っています。

あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。

この比較は、ACFの信頼区間と ほぼ同じである。

 
alexeymosc:

この場合、あなたは間違っています。

あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。

この比較は、ACFの信頼区間とほぼ同じである。

そうかもしれませんね。

どんな信頼区間も、5%水準で(例えば)帰無仮説が確認される(確認されない)、というように聞こえます。

帰無仮説はどうなんだ?信頼区間はどこにあるのか、など。ACFが私にとって理解できるものであるなら、あなたのグラフは理解できないものです。最大値が2.098ビットの場合、0.05/2.098は議論すべきではないでしょう。そして、冒頭の問題は取り除かれていない。

ところで、ACFは何を基準に計算したのでしょうか?

 
faa1947:

開幕戦はいつもの小刻みで。

ずっと面白い。統計情報

ACF

可能性としては、相関がないことです。そもそも、ある程度の相関はあるが、意味はない。

その通り、まさにその通りです。ACFは全く役に立ちません。

そして、相互情報から、ゼロは何百小節の距離でも、そこでは匂いもしないのだから、あるはずだ。