トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 295

 

変数の相関性の問題は、これまで何度も議論されてきた。

もちろん、相関関係が一番怪しいのですが、あっという間に土星の輪やコーヒーのカスなどとの相関関係が見えてきます。

いつの間にか忘れ去られている。

グレンジャー因果検定は時系列 間の因果性(「グレンジャー因果性」)を検定するための手続きである。このテストの考え方は、時系列{displaystyle x_{t}}の 値(変化)は、時系列{displaystyle y_{t}}の 変化を引き起こすが、この時系列の変化に先行しなければならず、さらにその予測値に大きく貢献しなければならないということである。それぞれの変数が他方の予測に有意に寄与している場合、両者に影響を与える他の変数が存在する可能性があります。

グレンジャー検定は一貫して2つの帰無仮説を検定して いる。"x is not cause of y according to Granger" と "y is not cause of x according to Granger" です。これらの仮説を検証するために、2つの回帰を構築した。それぞれの回帰において、従属変数は因果関係を検証した変数のうちの1つであり、回帰変数は両変数のラグである( 実際には、ベクトル自己回帰 ある

そして、この場合のコードをここから 紹介します。

# READ QUARTERLY DATA FROM CSV
library(zoo)
ts1 <- read.zoo('Documents/data/macros.csv', header = T, sep = ",", 
FUN = as.yearqtr)
 
# CONVERT THE DATA TO STATIONARY TIME SERIES
ts1$hpi_rate <- log(ts1$hpi / lag(ts1$hpi))
ts1$unemp_rate <- log(ts1$unemp / lag(ts1$unemp))
ts2 <- ts1[1:nrow(ts1) - 1, c(3, 4)]
 
# METHOD 1: LMTEST PACKAGE
library(lmtest)
grangertest(unemp_rate ~ hpi_rate, order = 1, data = ts2)
# Granger causality test
#
# Model 1: unemp_rate ~ Lags(unemp_rate, 1:1) + Lags(hpi_rate, 1:1)
# Model 2: unemp_rate ~ Lags(unemp_rate, 1:1)
#   Res.Df Df      F  Pr(>F)
# 1     55
# 2     56 -1 4.5419 0.03756 *
# ---
# Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 
# METHOD 2: VARS PACKAGE
library(vars)
var <- VAR(ts2, p = 1, type = "const")
causality(var, cause = "hpi_rate")$Granger
#         Granger causality H0: hpi_rate do not Granger-cause unemp_rate
#
# data:  VAR object var
# F-Test = 4.5419, df1 = 1, df2 = 110, p-value = 0.0353
 
# AUTOMATICALLY SEARCH FOR THE MOST SIGNIFICANT RESULT
for (i in 1:4)
  {
  cat("LAG =", i)
  print(causality(VAR(ts2, p = i, type = "const"), cause = "hpi_rate")$Granger)
Английский язык — Википедия
Английский язык — Википедия
  • ru.wikipedia.org
Самоназвание: Регулирующая организация: Общее число говорящих: Статус: Классификация Категория: Письменность: Языковые коды ГОСТ 7.75–97: ISO 639-1: ISO 639-2: ISO 639-3: Распространение английского языка[3]: Английский язык возник в раннем Средневековье как язык части германских племён, вторгшихся в Британию. Он стал родным для...
 
サンサニッチ・フォメンコ

もちろん、相関関係が一番怪しいのですが、あっという間に土星の輪、コーヒーのカス...といった相関関係が出てくるんです。

いつの間にか忘れ去られている。

誰も何も忘れていない...。

この時、google correlateは、「 どのように相関を測定 したいのですか?ググっても今更聞けないし、やらないだろう。6年前のサービスだし、やろうと思えばもうやってるはずだ.

そしてもうひとつ...

Googleのデータベースには何十億ものBPが登録されています。データベースが巨大なだけに、偶然に近いBPは必ず100ほど存在しますし、近さを測る方法が単純な相関か複雑でややこしいものかは 関係 ありません。

問題は、ランダムなものとそうでないものをどうふるいにかけるかだ。

 
mytarmailS:

問題は、ランダムなものとそうでないものをどのようにふるいにかけるかである。

私たちは

1) euraシリーズを "1 "と "2 "に分ける。

2) Googleに「1」と入力すると、近い行がすべて表示されます。

3)近い列の名前を全て記憶する。

4) "2 "の行をgoogle wayに放り込むと、それに近い行をすべて見つけることができます。

5)近い列の名前をすべて覚える

6) 3)と5)の行の名前を比較し、3)と5)の両方に存在するような行を探します。

このように、偶然にユーロと相関のない系列を見つけることができる。これは、最も原始的な形のクロスバリデーションの一種である。

しかし、これらの名前をどのように取得するのか、私にはわかりません。

 
mytarmailS:

誰も何も忘れていない...。

google correlateが「 どの方法で接続を測定 しますか?ググっても今更聞けないし、6年前のサービスだし、やろうと思えばとっくにやってるはず。

そしてもうひとつ...

Googleのデータベースには何十億ものBPが登録されています。データベースが巨大なだけに、偶然に近いBPは必ず100ほど存在しますし、近さを測る方法が単純な相関か複雑でややこしいものかは 関係 ありません。

問題は、ランダムと非ランダムをどのように振り分けるかである。


だから、googleが集めたゴミの中からテストによってふるいにかける--そういうことです。
 
サンサニッチ・フォメンコ
だから、googleが集めたゴミの中からテストでふるいにかける、--そういうことです。

という感じです(笑)。

ユーロと完全に相関 する100のシリーズをグーグル検索しても、どんなに高度なテストでも、すべて優れた相関を示すので、この状況では役に立たない。

 
mytarmailS:

どんなに巧妙なテストを適用しても、すべて完璧な接続を示すのだ。

それには疑問があります。トレンドの相関性が高いということは、一般的にほぼ同じ割合で上下することを意味しているに過ぎない。まず、トレンドではなく、上昇の相関を調べるのがよいでしょう。例えば、類似のトレンドをcsvに保存して、Googleがラグを表示して相関を再計算すれば、より客観的なものになるでしょう。

また、相関関係は、ある変数が他の変数を予測できることを全く保証するものではありません。一般に、相関が高いという原理で予測対象を選択することは不幸なことである。SanSanychが提案したものは試したことがないのですが、より信頼できそうです。

 
mytarmailS:

が可能です。

1) エウラ列を2つの部分 "1" と "2" に分割する。

2) Googleに行「1」を入力すると、密接に関連するすべての行が検索されます。

3)近い列の名前をすべて覚える

4) "2 "の行をgoogle wayに放り込むと、それに近い行をすべて見つけることができます。

5)近い列の名前をすべて覚える

6) 3)と5)の行の名前を比較する。 で、3)と5)の両方に存在するような系列を探します。

このように、ユーロと偶然に相関しない系列を見つけることができる。これは、最も原始的な形の相互評価である。

しかし、これらの名前をどのように取得するのか分からないので、おそらくページを解析する必要があります


PSEテストと呼ばれるものです。

実際には、回帰モデルの文脈でサンプルの不均一性をチェックします。

 
Dr.トレーダー

それはどうでしょう。トレンドの相関が高いということは、一般的に同じように増えたり減ったりすることだけを意味します。例えば、似たような傾向をcsvで保存しておき、自分でラグを見つけて相関を再計算すれば、より客観的なものになります。

そうですね、でも、googleはデータベース全体を提供しているわけではなく、「トレンドによって」相関があるものだけを提供しています。トレンドによって相関があるものを取り出して、それを使って増分して相関を測るというのも、客観的ではない、たぶん......。:)データベース全体を見る必要がある

ディミトリ


PSEテストと呼ばれるものです。

実際に回帰モデルの文脈で標本の不均質性をチェックします。

まあ...このCHOUは適用できるが、Googleから行を取得する必要があり、少なくともその名前は必要である
 

このパンフレット http://www.mirkin.ru/_docs/dissert065.pdf を読んで、 NeuroShell Day Trader Pro を使ってみたいと思いました。

 
https://www.tensorflow.org/get_started/get_started - このようなタスクに適しています。
Getting Started With TensorFlow  |  TensorFlow
Getting Started With TensorFlow  |  TensorFlow
  • www.tensorflow.org
This guide gets you started programming in TensorFlow. Before using this guide, install TensorFlow. To get the most out of this guide, you should know the following: How to program in Python. At least a little bit about arrays. Ideally, something about machine learning. However, if you know little or nothing about machine learning, then this...
理由: