引用における依存性統計(情報理論、相関などの特徴選択法) - ページ 73 1...666768697071727374 新しいコメント СанСаныч Фоменко 2012.10.14 16:39 #721 alexeymosc: よくぞ言ってくれました。私たちアレクセイは、市場の非効率性を肯定しています。そして、それを示す実用的な結果がすでに出ているのですが、古典的な統計-計量的アプローチのプリズムを通しては 見えません。 あなたの結果について、あなたは私の投稿を無視しました。 ありのままでいい。でも。 古典的なACFはどこに刺さるかわかっていて、私一人ではなく、何百万人もいるのです。デトレンド後のACFでは、10以上の依存度が得られることはほとんどなく、もしそうであれば、質の高いトレンドではない可能性が高くなります。しかし、依存関係が残っていて、ラグ数が40を超える場合(写真では135)、分数積分モデル(FARIMA)を意味します。そして、その非古典的な アプローチから何が生まれるのでしょうか?情報依存性が検出された場合、どのようなモデルが続くのか? Alexey Burnakov 2012.10.14 16:45 #722 faa1947:かもしれない。どんな信頼区間も、5%水準で(例えば)帰無仮説が確認される(されない)、というように聞こえます。 帰無仮説はどうなんだ?信頼区間はどこにあるのか、など。ACFが私にとって理解できるものであるなら、あなたのグラフは理解できないものです。最大値が2.098ビットの場合、0.05/2.098は議論すべきではないでしょう。そして、冒頭の問題は取り除かれていない。ところで、ACFは何を基準に計算したのでしょうか? ACFを数えたことについて-と書きました。添付ファイルのデータでは、あなたのように100ポイントではなく、行全体のデータを取るだけです。ところで、なぜ100点のデータを取らなければならないのか、その理由がわかりません。IMHOでは、十分とは言えません。 信頼区間について。私の結果は次のようになります:0.01水準で、ランダム系列とソース系列でヌルバーとラグの間の相互情報統計量が 異ならないという 帰無仮説が確認されない。 すぐには答えられず申し訳ありません。ただ、ちょっと忙しくて気が抜けました。 削除済み 2012.10.14 16:48 #723 ここでは、acfは直列に並んだものに対して考えるという理解でよいでしょうか?また、系列長の増加に伴う分布図の相関という概念に移行することは可能なのでしょうか? СанСаныч Фоменко 2012.10.14 16:49 #724 alexeymosc: ACFを計算するのに使ったもの......書き出しました。添付ファイルのデータでは、あなたのように100ポイントではなく、行全体のデータを取るだけです。ところで、なぜ100点のデータを取らなければならないのか、その理由がわかりません。IMHOでは、十分とは言えません。 信頼区間について。私の結果は次のようになります:0.01水準で、ヌルバーとラグの間の相互情報統計量がランダム系列とソース系列で 異ならないという 帰無仮説は確認されない。 ありがとうございます、完全に明瞭になりました。 Alexey Burnakov 2012.10.14 16:51 #725 faa1947: ありがとうございます、完全にクリアになりました。 どういたしまして。それが私の記事のメインメッセージでした。具体的には、最後にコルモゴロフ・スミルノフ検定とマン・ホイットニーのU検定-分布の種類を指定しないサンプルに対する検定を実施しました。どちらの検定も帰無仮説が確認されないことを示した。これをどう解釈するかは、もっと広いテーマがある。 СанСаныч Фоменко 2012.10.14 16:54 #726 alexeymosc: お願いします。それが私の記事のメインメッセージでした。具体的には、分布の種類がわからないサンプルについて、最後にコルモゴロフ・スミルノフ検定とマン・ホイットニーU検定を行いました。どちらの検定も帰無仮説が確認されないことを示した。これをどう解釈するかは、もっと広いテーマがある。 では、そもそもテストやACFはどこから来たのでしょうか? Alexey Burnakov 2012.10.14 17:02 #727 faa1947: では、そもそもテストやACFはどこから来たのでしょうか? あ、質問の意味がわかりました。スタティスティカ СанСаныч Фоменко 2012.10.14 17:03 #728 alexeymosc: あ、質問の意味がわかりました。スタティスティカ 次の次点がEViews、そして最後の次点がRです。 Alexey Burnakov 2012.10.14 17:10 #729 faa1947: 次の次点がEViews、そして最後がRです。EViwesについては、すでに皆さんからいろいろと聞いています。R - も聞いたことがあるし、見たこともある。私も時間があるときに試してみます。ある医療フォーラムで読んだのですが、残念ながらプログラムによって検査の計算結果が異なることがあるそうです。 そして、Excel全般 - PRNGの品質まで、Statisticaとは違っています。私自身、正規分布のベルの滑らかさに違いがあることを確認しました。 Alexey Burnakov 2012.11.05 11:52 #730 時間があれば、このトピックでやりたいと思います。私的自己相関(中間ラグの影響をカットする)と類似して、相互情報量を計算する際に中間ラグの影響をカットするようにします。以下はその一例です。EURUSD H1のボラティリティ(モジュロ)の自己相関を480ラグまで深堀りしたもの。そして、部分自己相関のチャートはこのようになります。つまり、中間ラグ(偽相関)の影響が取り除かれているのです。多くの相関が一度に切り取られているのがわかると思います。ここでは、符号付きの一連の戻り値に対してのみ、同様のことを行いたいと思います。少なくとも、どのバーまでが本当にメモリがあるのかが見えるようになります。 1...666768697071727374 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
よくぞ言ってくれました。私たちアレクセイは、市場の非効率性を肯定しています。そして、それを示す実用的な結果がすでに出ているのですが、古典的な統計-計量的アプローチのプリズムを通しては 見えません。
あなたの結果について、あなたは私の投稿を無視しました。
ありのままでいい。でも。
古典的なACFはどこに刺さるかわかっていて、私一人ではなく、何百万人もいるのです。デトレンド後のACFでは、10以上の依存度が得られることはほとんどなく、もしそうであれば、質の高いトレンドではない可能性が高くなります。しかし、依存関係が残っていて、ラグ数が40を超える場合(写真では135)、分数積分モデル(FARIMA)を意味します。そして、その非古典的な アプローチから何が生まれるのでしょうか?情報依存性が検出された場合、どのようなモデルが続くのか?
かもしれない。
どんな信頼区間も、5%水準で(例えば)帰無仮説が確認される(されない)、というように聞こえます。
帰無仮説はどうなんだ?信頼区間はどこにあるのか、など。ACFが私にとって理解できるものであるなら、あなたのグラフは理解できないものです。最大値が2.098ビットの場合、0.05/2.098は議論すべきではないでしょう。そして、冒頭の問題は取り除かれていない。
ところで、ACFは何を基準に計算したのでしょうか?
ACFを数えたことについて-と書きました。添付ファイルのデータでは、あなたのように100ポイントではなく、行全体のデータを取るだけです。ところで、なぜ100点のデータを取らなければならないのか、その理由がわかりません。IMHOでは、十分とは言えません。
信頼区間について。私の結果は次のようになります:0.01水準で、ランダム系列とソース系列でヌルバーとラグの間の相互情報統計量が 異ならないという 帰無仮説が確認されない。
すぐには答えられず申し訳ありません。ただ、ちょっと忙しくて気が抜けました。
ACFを計算するのに使ったもの......書き出しました。添付ファイルのデータでは、あなたのように100ポイントではなく、行全体のデータを取るだけです。ところで、なぜ100点のデータを取らなければならないのか、その理由がわかりません。IMHOでは、十分とは言えません。
信頼区間について。私の結果は次のようになります:0.01水準で、ヌルバーとラグの間の相互情報統計量がランダム系列とソース系列で 異ならないという 帰無仮説は確認されない。
ありがとうございます、完全にクリアになりました。
お願いします。それが私の記事のメインメッセージでした。具体的には、分布の種類がわからないサンプルについて、最後にコルモゴロフ・スミルノフ検定とマン・ホイットニーU検定を行いました。どちらの検定も帰無仮説が確認されないことを示した。これをどう解釈するかは、もっと広いテーマがある。
では、そもそもテストやACFはどこから来たのでしょうか?
あ、質問の意味がわかりました。スタティスティカ
次の次点がEViews、そして最後がRです。
EViwesについては、すでに皆さんからいろいろと聞いています。R - も聞いたことがあるし、見たこともある。私も時間があるときに試してみます。ある医療フォーラムで読んだのですが、残念ながらプログラムによって検査の計算結果が異なることがあるそうです。
そして、Excel全般 - PRNGの品質まで、Statisticaとは違っています。私自身、正規分布のベルの滑らかさに違いがあることを確認しました。
時間があれば、このトピックでやりたいと思います。私的自己相関(中間ラグの影響をカットする)と類似して、相互情報量を計算する際に中間ラグの影響をカットするようにします。
以下はその一例です。EURUSD H1のボラティリティ(モジュロ)の自己相関を480ラグまで深堀りしたもの。
そして、部分自己相関のチャートはこのようになります。つまり、中間ラグ(偽相関)の影響が取り除かれているのです。
多くの相関が一度に切り取られているのがわかると思います。
ここでは、符号付きの一連の戻り値に対してのみ、同様のことを行いたいと思います。少なくとも、どのバーまでが本当にメモリがあるのかが見えるようになります。