引用における依存性統計(情報理論、相関などの特徴選択法) - ページ 71 1...6465666768697071727374 新しいコメント Alexey Burnakov 2012.10.14 08:53 #701 faa1947: 左の数字が意味するものこれらはビットです。例えば、0.05ビット。 さらに質問をすれば、対話を続けることができます。 СанСаныч Фоменко 2012.10.14 09:00 #702 alexeymosc: これらはビットです。例えば、0.05ビット。 さらに質問することで、対話を続けることができます。 測定される物理量は何か? 変化の限界は何か?最大1? 削除済み 2012.10.14 09:08 #703 IgorM: 任意の長さのアルファベット(このスクリーンショットでは24ビット)を用いて、以下のように符号化します。 赤は安値更新=1、青は高値更新=0を意味します。 で、それぞれのTFについて、上位のTFのトレンドが「より重要」という記述を確認したところ、部分的にはそうなのですが、まだ明確な法則が見えてきませんね ありがとうございます、わかりました。 下位のTFが上位のTFに従属することは紛れもない事実である。 http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74 http://forum.fxtde.com/index.php?showtopic=2635&st=1820 http://forum.alpari.ru/showthread.php?p=2984861#post2984861 ここでは、ヴァディムのモデルについての議論があり、彼はその質問に答えている。ここにすべての情報とすべての証拠と明確なルールがあります。 Igor Makanu 2012.10.14 09:14 #704 VNG: ありがとうございます、わかりました。 年少者が年長者に従属することは紛れもない事実である。 http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74 http://forum.fxtde.com/index.php?showtopic=2635&st=1820 http://forum.alpari.ru/showthread.php?p=2984861#post2984861 ここにVadimのモデルについての議論があり、彼はその質問に答えています。ここにすべての情報とすべての証拠と明確なルールがあります。 ありがとうございます、調べてみます。 ZS: リンクが貼られるとは思ってもいなくて、一日中聞いていたら、googleに飛ばされて.))) 削除済み 2012.10.14 09:14 #705 faa1947: 計量経済学は、数理統計学を経済学に応用したものである。 それが聞きたかったんです。 あなたや他の皆さん、有益な議論をありがとうございました。頑張ってください!;) Alexey Burnakov 2012.10.14 09:26 #706 faa1947: 測定される物理量は何か? 変化の限界は何か?最大1? 最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に決定する場合、その相互情報は2.098ビットとなる。 どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。つまり、ビットは、ある特定の値の固有情報式に従って、データソース値のランダム性の尺度を反映するものである I(X) = - log(P(x))*P(x) です。 もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私が論文で訳した公式によって、相互情報量I(X;Y)=0が得られるのです。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1に等しくなる-これが「公平なコイン」データソースの平均的な情報である。 СанСаныч Фоменко 2012.10.14 10:59 #707 alexeymosc: 最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に判定した場合、その相互情報量は2.098ビットとなる。 どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。簡単に説明すると、ビットは、ある特定の値の固有情報式を用いて、データソース値のランダム性の尺度を反映します。 I(X) = - log(P(x))*P(x) です。 もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私の記事で訳した式で、相互情報量I(X;Y)=0となる。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1になります - これが「公平なコイン」データソースの平均情報です。 統計学では、有意性という概念が非常に重要である。グラフ中の0.05と0.01の値は、その有意性において同じ値であり、いかなる結論の根拠にもなりえない。 間違っているかもしれませんが。 Alexey Burnakov 2012.10.14 11:04 #708 faa1947: 統計学では、有意性という概念が非常に重要である。グラフ上の0.05と0.01の値は、そのznAvalueから見て同じ値であり、何らかの結論の根拠にはなり得ない。間違っているかもしれませんが。 この場合、あなたは間違っています。 あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。 この比較は、ACFの信頼区間と ほぼ同じである。 СанСаныч Фоменко 2012.10.14 11:21 #709 alexeymosc:この場合、あなたは間違っています。あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。この比較は、ACFの信頼区間とほぼ同じである。 そうかもしれませんね。 どんな信頼区間も、5%水準で(例えば)帰無仮説が確認される(確認されない)、というように聞こえます。 帰無仮説はどうなんだ?信頼区間はどこにあるのか、など。ACFが私にとって理解できるものであるなら、あなたのグラフは理解できないものです。最大値が2.098ビットの場合、0.05/2.098は議論すべきではないでしょう。そして、冒頭の問題は取り除かれていない。 ところで、ACFは何を基準に計算したのでしょうか? Sceptic Philozoff 2012.10.14 12:04 #710 faa1947: 開幕戦はいつもの小刻みで。 ずっと面白い。統計情報 ACF 可能性としては、相関がないことです。そもそも、ある程度の相関はあるが、意味はない。その通り、まさにその通りです。ACFは全く役に立ちません。 そして、相互情報から、ゼロは何百小節の距離でも、そこでは匂いもしないのだから、あるはずだ。 1...6465666768697071727374 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
左の数字が意味するもの
これらはビットです。例えば、0.05ビット。
さらに質問をすれば、対話を続けることができます。
これらはビットです。例えば、0.05ビット。
さらに質問することで、対話を続けることができます。
測定される物理量は何か? 変化の限界は何か?最大1?
任意の長さのアルファベット(このスクリーンショットでは24ビット)を用いて、以下のように符号化します。
赤は安値更新=1、青は高値更新=0を意味します。
で、それぞれのTFについて、上位のTFのトレンドが「より重要」という記述を確認したところ、部分的にはそうなのですが、まだ明確な法則が見えてきませんね
ありがとうございます、わかりました。
下位のTFが上位のTFに従属することは紛れもない事実である。
http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74
http://forum.fxtde.com/index.php?showtopic=2635&st=1820
http://forum.alpari.ru/showthread.php?p=2984861#post2984861
ここでは、ヴァディムのモデルについての議論があり、彼はその質問に答えている。ここにすべての情報とすべての証拠と明確なルールがあります。
ありがとうございます、わかりました。
年少者が年長者に従属することは紛れもない事実である。
http://www.onix-trade.net/forum/index.php?s=2b118a5435ec895351a317ca24d55206&showforum=74
http://forum.fxtde.com/index.php?showtopic=2635&st=1820
http://forum.alpari.ru/showthread.php?p=2984861#post2984861
ここにVadimのモデルについての議論があり、彼はその質問に答えています。ここにすべての情報とすべての証拠と明確なルールがあります。
ありがとうございます、調べてみます。
ZS: リンクが貼られるとは思ってもいなくて、一日中聞いていたら、googleに飛ばされて.)))
計量経済学は、数理統計学を経済学に応用したものである。
それが聞きたかったんです。
あなたや他の皆さん、有益な議論をありがとうございました。頑張ってください!;)
測定される物理量は何か? 変化の限界は何か?最大1?
最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に決定する場合、その相互情報は2.098ビットとなる。
どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。つまり、ビットは、ある特定の値の固有情報式に従って、データソース値のランダム性の尺度を反映するものである
I(X) = - log(P(x))*P(x) です。
もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私が論文で訳した公式によって、相互情報量I(X;Y)=0が得られるのです。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1に等しくなる-これが「公平なコイン」データソースの平均的な情報である。
最大で2.098ビットと することができる。この特定のデータシリーズの平均情報です。例えば、ラグ1のバーがゼロのバーを完全に判定した場合、その相互情報量は2.098ビットとなる。
どんな数字なんだ?情報の尺度である)TIに関する記事を読む必要がある。簡単に説明すると、ビットは、ある特定の値の固有情報式を用いて、データソース値のランダム性の尺度を反映します。
I(X) = - log(P(x))*P(x) です。
もう一つの例。コインをはじき、連続する2つの事象の相互情報を数える。私の記事で訳した式で、相互情報量I(X;Y)=0となる。そして、もし裏投げがその後の裏(または表)投げを正確に示すとしたら、I(X;Y)は1になります - これが「公平なコイン」データソースの平均情報です。
統計学では、有意性という概念が非常に重要である。グラフ上の0.05と0.01の値は、そのznAvalueから見て同じ値であり、何らかの結論の根拠にはなり得ない。間違っているかもしれませんが。
この場合、あなたは間違っています。
あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。
この比較は、ACFの信頼区間と ほぼ同じである。
この場合、あなたは間違っています。
あえて同じ分布のランダムなデータの相互情報量の統計と比較してみました。その差は相当なもので、テストでも確認されています。
この比較は、ACFの信頼区間とほぼ同じである。
そうかもしれませんね。
どんな信頼区間も、5%水準で(例えば)帰無仮説が確認される(確認されない)、というように聞こえます。
帰無仮説はどうなんだ?信頼区間はどこにあるのか、など。ACFが私にとって理解できるものであるなら、あなたのグラフは理解できないものです。最大値が2.098ビットの場合、0.05/2.098は議論すべきではないでしょう。そして、冒頭の問題は取り除かれていない。
ところで、ACFは何を基準に計算したのでしょうか?
開幕戦はいつもの小刻みで。
ずっと面白い。統計情報
ACF
可能性としては、相関がないことです。そもそも、ある程度の相関はあるが、意味はない。その通り、まさにその通りです。ACFは全く役に立ちません。
そして、相互情報から、ゼロは何百小節の距離でも、そこでは匂いもしないのだから、あるはずだ。