트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 295

 

변수의 관계에 대한 질문은 여러 번 논의되었습니다.

물론 상관관계가 가장 의심스러운데, 토성의 고리와 상관관계가 있고, 커피 찌꺼기가 아주 빨리 보이기 시작하는데...

어떻게 든 이것을 잊어 버렸습니다.

Granger 인과관계 검정 시계열 간의 인과관계(" Granger 인과관계 ")를 검정 하는 절차입니다. 테스트의 아이디어는 시계열 {\displaystyle y_{t}} 의 변경 원인인 시계열 {\displaystyle x_{t}} 의 값(변경)이 반드시 이 시계열의 변화에 앞서야 하며 또한 해당 값의 예측에 상당한 기여를 해야 합니다. 각 변수가 다른 변수의 예측에 상당한 기여를 했다면 아마도 둘 다에 영향을 미치는 다른 변수가 있을 것입니다.

시험에서   농군   "x는 Granger에 따른 y의 원인이 아닙니다" 및 "y는 Granger에 따른 x의 원인이 아닙니다"라는 두 개의 귀무 가설이 순차적으로 테스트됩니다. 이러한 가설을 테스트하기 위해 두 개의 회귀가 구축됩니다. 각 회귀에서 종속 변수는 인과 관계에 대해 테스트된 변수 중 하나이고 두 변수의 시차는 회귀 변수로 작동합니다(사실   벡터 자기회귀 ).

아‌ 여기에서 이 경우의 코드 가 있습니다.

# READ QUARTERLY DATA FROM CSV
library(zoo)
ts1 <- read.zoo( 'Documents/data/macros.csv' , header = T, sep = "," , 
FUN = as .yearqtr)
 
# CONVERT THE DATA TO STATIONARY TIME SERIES
ts1$hpi_rate <- log(ts1$hpi / lag(ts1$hpi))
ts1$unemp_rate <- log(ts1$unemp / lag(ts1$unemp))
ts2 <- ts1[ 1 :nrow(ts1) - 1 , c( 3 , 4 )]
 
# METHOD 1 : LMTEST PACKAGE
library(lmtest)
grangertest(unemp_rate ~ hpi_rate, order = 1 , data = ts2)
# Granger causality test
#
# Model 1 : unemp_rate ~ Lags(unemp_rate, 1 : 1 ) + Lags(hpi_rate, 1 : 1 )
# Model 2 : unemp_rate ~ Lags(unemp_rate, 1 : 1 )
#   Res.Df Df      F  Pr(>F)
# 1      55
# 2      56 - 1 4.5419 0.03756 *
# ---
# Signif. codes:   0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
 
# METHOD 2 : VARS PACKAGE
library(vars)
var <- VAR(ts2, p = 1 , type = "const" )
causality( var , cause = "hpi_rate" )$Granger
#         Granger causality H0: hpi_rate do not Granger-cause unemp_rate
#
# data:  VAR object var
# F-Test = 4.5419 , df1 = 1 , df2 = 110 , p- value = 0.0353
 
# AUTOMATICALLY SEARCH FOR THE MOST SIGNIFICANT RESULT
for (i in 1 : 4 )
  {
  cat( "LAG =" , i)
  print(causality(VAR(ts2, p = i, type = "const" ), cause = "hpi_rate" )$Granger)

Английский язык — Википедия
Английский язык — Википедия
  • ru.wikipedia.org
Самоназвание: Регулирующая организация: Общее число говорящих: Статус: Классификация Категория: Письменность: Языковые коды ГОСТ 7.75–97: ISO 639-1: ISO 639-2: ISO 639-3: Распространение английского языка[3]: Английский язык возник в раннем Средневековье как язык части германских племён, вторгшихся в Британию. Он стал родным для...
 
산산이치 포멘코 :

물론 상관관계가 가장 의심스러운데, 토성의 고리와 상관관계가 있고, 커피 찌꺼기가 아주 빨리 보이기 시작하는데...

어떻게 든 이것을 잊어 버렸습니다.

아무도 잊지 않았다...

그 때 Google Correlation이 묻습니다 . 친애하는 사용자 여러분, 어떤 방법으로 연결을 측정하시겠습니까 ?? 그러면 귀하의 이 게시물은 관련이 있을 것이지만 지금은 Google에 묻지 않고 묻지 않습니다. 서비스는 이미 6년이 되었습니다. 그들이 원했다면 이미 했을 것입니다.

그리고 더...

Google은 데이터베이스에 수십억 개의 VR을 가지고 있습니다. 순전히 우연에 가까운 것으로 판명된 다른 수백 개의 VR이 있을 것입니다. 순전히 데이터베이스가 거대하고 근접성을 측정한 방법, 원시적 상관 관계 또는 난해하고 무언가가 중요하지 않기 때문입니다. 복잡한.

또 다른 질문에서 무작위가 아닌 것에서 무작위를 제거하는 방법

 
mytarmailS :

또 다른 질문에서 무작위가 아닌 것에서 무작위를 제거하는 방법

할 수 있다

1) 유로 행을 "1"과 "2"의 두 부분으로 나눕니다.

2‌) 행 "1"을 Google 경로에 던지면 모든 가까운 행을 찾습니다.

3‌) 모든 가까운 행의 이름을 기억하십시오

4‌) 행 "2"를 Google에 던지면 경로가 모든 가까운 행을 찾습니다.

5‌) 모든 가까운 행의 이름을 기억하십시오

6) 단락 3)과 5)의 행 이름을 비교하고 3)과 5)에 있는 행을 찾습니다.

따라서 실수로 유로와 상관 관계가 없는 행이 있습니다. 이것은 가장 원시적인 형태의 교차 검증과 같은 것입니다.

‌하지만 이 제목을 어떻게 꺼내야 할지 모르겠어, 아마도 페이지를 구문 분석해야 할 것입니다

 
mytarmailS :

아무도 잊지 않았다...

그 때 Google Correlation이 묻습니다 . 친애하는 사용자 여러분, 어떤 방법으로 연결을 측정하시겠습니까 ?? 그러면 귀하의 이 게시물은 관련이 있을 것이지만 지금은 Google에 묻지 않고 묻지 않습니다. 서비스는 이미 6년이 되었습니다. 그들이 원했다면 이미 했을 것입니다.

그리고 더...

Google은 데이터베이스에 수십억 개의 VR을 보유하고 있습니다. 순전히 우연에 가까운 것으로 판명된 다른 100개의 다른 VR이 있을 것입니다. 순전히 데이터베이스가 거대하고 근접성을 측정한 방법은 중요하지 않기 때문 입니다. 원시 상관 관계 또는 난해하고 복잡한 것.

또 다른 질문에서 무작위가 아닌 것에서 무작위를 제거하는 방법


따라서 Google이 수집한 모든 쓰레기에서 테스트를 걸러냅니다. 이것이 제가 의미하는 바입니다.
 
산산이치 포멘코 :
따라서 Google이 수집한 모든 쓰레기에서 테스트를 걸러냅니다. 이것이 제가 의미하는 바입니다.

젠장 Sanych, 하나가 zapad라면 함께 생각합시다 :)

검색 후 r‌angle 은 유로와 완벽하게 상관 되는 100개의 행을 던질 것입니다. 어떤 종류의 난해한 테스트가 모두를 사용하지 않으면 우수한 연결을 보여줄 것이므로 이 상황에서 이러한 테스트는 의미가 없습니다.

 
mytarmailS :

어떤 테스트가 난해한지 모두 사용하지 마십시오. 우수한 연결성을 보여줄 것입니다.

나는 그것을 의심한다. 추세의 높은 상관 관계는 일반적으로 거의 같은 방식으로 상승 및 하락한다는 것을 의미합니다. 우선, 추세가 아니라 성장의 상관 관계를 찾는 것이 좋을 것입니다. 예를 들어 Google이 csv로 제공하는 유사한 추세를 저장한 다음 시차를 직접 찾아 상관 관계를 다시 계산할 수 있습니다. 더 객관적.

그리고 상관관계는 한 변수가 다른 변수를 예측할 수 있다는 것을 보장하지 않습니다. 일반적으로 고상관성의 원칙에 따라 예측을 위한 예측변수를 선택하는 것은 성공하지 못합니다. SanSanych가 이전에 제안한 것을 시도하지 않았지만 더 안정적으로 보입니다.

 
mytarmailS :

할 수 있다

1) 유로 행을 "1"과 "2"의 두 부분으로 나눕니다.

2‌) 행 "1"을 Google 경로에 던지면 모든 가까운 행을 찾습니다.

3‌) 모든 가까운 행의 이름을 기억하십시오

4‌) 행 "2"를 Google에 던지면 경로가 모든 가까운 행을 찾습니다.

5‌) 모든 가까운 행의 이름을 기억하십시오

6) 단락 3)과 5)의 행 이름을 비교하고 3)과 5) 에 있는 행을 찾습니다.

따라서 실수로 유로와 상관 관계가 없는 행이 있습니다. 이것은 가장 원시적인 형태의 교차 검증과 같은 것입니다.

‌하지만 이 제목을 어떻게 꺼내야 할지 모르겠어, 아마도 페이지를 구문 분석해야 할 것입니다


이것을 차우 테스트라고 합니다.

실제로 회귀 모델의 컨텍스트에서 샘플 이질성을 확인합니다.

 
트레이더 박사 :

나는 그것을 의심한다. 추세의 높은 상관 관계는 일반적으로 거의 같은 방식으로 상승 및 하락한다는 것을 의미합니다. 우선, 추세가 아니라 성장의 상관 관계를 찾는 것이 좋을 것입니다. 예를 들어 Google이 csv로 제공하는 유사한 추세를 저장한 다음 시차를 직접 찾아 상관 관계를 다시 계산할 수 있습니다. 더 객관적.

예, 동의합니다. 하지만 Google은 전체 데이터베이스를 제공하지 않고 "추세별로" 상관 관계가 있는 항목만 제공하고, 추세에 따라 상관 관계가 있는 항목을 가져와서 이를 증분하여 오류를 측정합니다. 또한 객관적으로, 아마도 ... :) 전체 데이터베이스를 볼 필요가 있습니다.

드미트리 :


이것을 차우 테스트라고 합니다.

실제로 회귀 모델의 컨텍스트에서 샘플 이질성을 확인합니다.

음 .. 이 Chow를 적용할 수 있지만 Google에서 행을 가져오거나 최소한 해당 이름을 가져와야 합니다.

 

나는 이 폐지 http://www.mirkin.ru/_docs/dissert065.pdf 를 읽고 NeuroShell Day Trader Pro를 사용하고 싶었습니다.

 
Getting Started With TensorFlow  |  TensorFlow
Getting Started With TensorFlow  |  TensorFlow
  • www.tensorflow.org
This guide gets you started programming in TensorFlow. Before using this guide, install TensorFlow. To get the most out of this guide, you should know the following: How to program in Python. At least a little bit about arrays. Ideally, something about machine learning. However, if you know little or nothing about machine learning, then this...
사유: