트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1508

 
mytarmails :

고문 Ilya는 어떻습니까?

성배는 나를 실망시켰다. 내 이론적 계산 및 가정에서 크게 벗어나 있습니다. Maxim의 같은 이름의 기사는 소위 장기 기억 또는 장기 의존 현상을 연구하는 데 영감을 주었습니다. ARFIMA 를 기반으로 지표 를 작성했습니다. 저자에 따르면 ARIMA 보다 예측력이 더 좋습니다.

Autoregressive fractionally integrated moving average - Wikipedia
Autoregressive fractionally integrated moving average - Wikipedia
  • en.wikipedia.org
In statistics, autoregressive fractionally integrated moving average models are time series models that generalize ARIMA (autoregressive integrated moving average) models by allowing non-integer values of the differencing parameter. These models are useful in modeling time series with long memory—that is, in which deviations from the long-run...
파일:
R_ARFIMA.zip  20 kb
 
일리야 안티핀 :

실망한. 내 이론적 계산 및 가정에서 크게 벗어나 있습니다. Maxim의 같은 이름의 기사는 소위 장기 기억 또는 장기 의존 현상을 연구하는 데 영감을 주었습니다...

그녀는 그렇지 않습니다. 당신은 트위치 할 수 없습니다.
 
일리야 안티핀 :

성배는 나를 실망시켰다. 내 이론적 계산 및 가정에서 크게 벗어나 있습니다. Maxim의 같은 이름의 기사는 소위 장기 기억 또는 장기 의존 현상을 연구하는 데 영감을 주었습니다. ARFIMA 를 기반으로 지표 를 작성했습니다. 저자에 따르면 ARIMA 보다 예측력이 더 좋습니다.

LRD는 파도에 떠다니고 에너지가 높은 영역을 걸러내는 것이 합리적입니다. 그런 다음 짧은 관점에서 예측에서 의미가 있습니다. 그리고 창문을 들어

체인이 잘 클러스터되지 않습니까? 나는 거의 그것을 알아 냈습니다. 곧 재미를 위해 mql로 다시 작성하겠습니다. 무기고에 두십시오.
 
일리야 안티핀 :

성배는 나를 실망시켰다.

그래서 내가 던진 지표는 체인으로 시도 ?? 아니면 그냥 가격에 휘둘리나요?

 

인상적인 응석을 부리는 심리학자들은 보지 않는 것이 좋습니다.


 
막심 드미트리예프스키 :

인상적인 응석을 부리는 심리학자들은 보지 않는 것이 좋습니다.


오 어떻게! Drobyshevsky는 유인원의 두개골을 체계화하는 것에서 이들의 내용(해골을 의미함)에 대한 주제에 대한 철학화로 넘어갔습니다. 갑자기! 즐겁게 시청했습니다. 감사합니다.

PySy: Chernihiv에서 Anokhin의 월계관이 그를 쉬게 하지 않는 것 같습니다.
 
시비르크 :

오 어떻게! Drobyshevsky는 유인원의 두개골을 체계화하는 것에서 이들의 내용(해골을 의미함)에 대한 주제에 대한 철학화로 넘어갔습니다. 갑자기! 즐겁게 시청했습니다. 감사합니다.

PySy: Chernihiv에서 Anokhin의 월계관이 그를 쉬게 하지 않는 것 같습니다.

이해가 안 되면 무조건 하나님께 나아가는 사람이나 믿는 자의 마음 앞에서 투덜거리는 사람을 저는 진지하게 받아들일 수 없습니다. Anokhin은 지능적인 유형인 것 같지만 그가 생각하기 시작하자마자 ... 쓰기 낭비, 나는 일반적으로 두 번째에 대해 침묵합니다 :))

 
막심 드미트리예프스키 :

인상적인 응석을 부리는 심리학자들은 보지 않는 것이 좋습니다.


글쎄, 나는 놀랐다. 나는 이제 유인원의 고대 유인원 / 사람들이 현대 유인원의 조상으로 간주된다는 것을 몰랐다(58:18).

자료에 따르면 - 역사에 맞는 느낌 :) 불행히도 정당화는 약하고 모순되지만 관점에서 보자면 - 그렇게하십시오.

내 생각에, 그러한 연구는 종의 발달에 기여한 새로운 돌연변이의 분리와 함께 아종의 DNA 변화 분석에 의해 뒷받침되어야하며, 그러면 나에게 더 흥미로울 것입니다.

그러나 중요한 문제를 포함하여 일상 생활에서 종종 생각 없이 결정을 내리는 "조건 반사"에 관해서는 Robert Cialdini의 "The Psychology of Influence"라는 책이 흥미 롭습니다. 주제도 거기에서 완전히 공개되지는 않았지만 수집된 방법은 흥미롭고 지식이 풍부하고 관심이 있는 사람들이 자신의 목적을 위해 사용합니다.

 
글쎄, 내가 말했잖아 :( 심리학자들은 공룡처럼 고대의 화석화된 유적에서 DNA를 추출할 것을 요구합니다.
 
막심 드미트리예프스키 :
그리고 사슬은 어떻습니까? 쇼는 끝났습니까?

사슬을 사용하면 모든 것이 모호합니다. EURUSD/M20 logreturn을 "lambertW"로 "가우시안화"했습니다(이미지 는 여기 ). 두 가지 상태로 모델을 훈련했습니다(물론 큰 상태일 때 더 좋습니다. 저자는 5라고 말합니다). 아래는 코드와 사진입니다.

require(LambertW)
set.seed( 12358 )
y1 <- diff( log (pr$close), 3 )* 100
out <- Gaussianize(y1, return .tau.mat = TRUE)
x1 <- get_input(y1, c(out$tau.mat[, 1 ]))   # same as out$ input
#---
States <- 2 L
#set.seed( 12358 )
param0 <- matrix(c( 0.1 , 0.05 , - 1 , - 0.1 , - 0.05 , 1 ), States, 3 L, byrow = TRUE)
gamma0 <- ldhmm.gamma_init(m = States)
h <- ldhmm(m = States, param = param0, gamma = gamma0, stationary = TRUE)

mod <- ldhmm.mle(h, x1)
dc <- ldhmm.decoding(mod, x1)
post <- t( as .matrix(dc@states.prob))
#predStates <- cbind(post[, 1 :States])
prStat <- apply(post, 1 , function(x) which.max(x))
Stat <- dc@states.global

mod@param
mod@delta
floor (mod@gamma* 10000 )/ 100
ldhmm.ld_stats(mod)


> mod@param
               mu      sigma    lambda
[ 1 ,] - 0.001182310 0.09119015 0.4625385
[ 2 ,]   0.001808756 0.04114724 0.6977260
> mod@delta
[ 1 ] 0.4189323 0.5810677
> floor (mod@gamma* 10000 )/ 100
      [, 1 ]  [, 2 ]
[ 1 ,] 93.79    6.20
[ 2 ,]   4.47 95.52
> ldhmm.ld_stats(mod)
             mean         sd kurtosis
[ 1 ,] - 0.001182310 0.05256228 2.142325
[ 2 ,]   0.001808756 0.02542165 2.465665

신호 및 인용문 그리기

par(mfrow = c( 2 , 1 ))
matplot(tail(post, 300 ), t = "l" , col = c( 1 , 2 , 4 , 5 ))
abline(h = 0.5 , col = 2 )
plot(tail(pr$close, 300 ), t = "l" )
par(mfrow = c( 1 , 1 ))

신호

사유: