트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1605

 
mytarmailS :

GMDH (그룹 인수 방법) 측면에서 수행 중인 작업( "세 번째" 샘플에 대한 테스트 )을 "예측 능력 기준"이라고 합니다.

나는 당신이 좋은 전문가를 참조하십시오. 수학자가 아닌 사람들을 위해 MGUA의 본질을 몇 마디로 말씀해 주시겠습니까?

 
비밀 :

나는 당신이 좋은 전문가를 참조하십시오. 수학자가 아닌 사람들을 위해 MGUA의 본질을 몇 마디로 말씀해 주시겠습니까?

다른 커널(다항식, 스플라인, 중요하지 않음)에 의해 변환된 기능의 열거가 있는 회귀 모델 . 가장 작은 오류가 있는 가장 단순한 모델이 선호됩니다. 시장에서 재교육을 받지 않아도 됩니다.

대략적으로 말하자면 이것은 외부 기준에 따라 가장 단순한 것이 선택되는 무차별 모델입니다.

머신 러닝의 기초와 같습니다)

 
mytarmailS :

예를 들어, MGUA 회귀는 현대 랜덤 포레스트 알고리즘의 회귀와 모든 종류의 부스팅을 조롱하는 것입니다.

부스팅은 모든면에서 낫습니다 MGUA와 같은 기능을 준비하면 더 좋을 것입니다

따라서 일반적으로 무엇을 가르쳐야 할지 모르더라도 상관하지 마십시오.

 
비밀 :

나는 당신이 좋은 전문가를 참조하십시오. 수학자가 아닌 사람들을 위해 MGUA의 본질을 몇 마디로 말씀해 주시겠습니까?

저는 전문가가 아니라 불행히도...

매우 간단하고 거칠고 부정확하면 자체 조직에서 MGUA의 원칙 ...


예를 들어 기능 세트가 있습니다.

x1, x2, x3..... x20...

이러한 기능에서 후보 모델 세트가 생성됩니다.

m1,m2,m3.....m10...

이 모델들 중에서 가장 좋은 것이 선택되고, 가장 좋은 것에서 새 모델이 생성되고, 다시 선택 .... 등 ... 새 데이터의 오류(이전에는 알고리즘에 알려지지 않음)가 감소할 때까지 계속됩니다.

그 알고리즘은 스스로 변화하고, 복잡해지고, 스스로 조직화합니다... 유전 알고리즘 과 유사한 것

 
막심 드미트리예프스키 :

다른 커널(다항식, 스플라인, 중요하지 않음)에 의해 변환된 기능의 열거가 있는 회귀 모델. 가장 작은 오류가 있는 가장 단순한 모델이 선호됩니다. 시장에서 재교육을 받지 않아도 됩니다.

대략적으로 말하자면 이것은 외부 기준에 따라 가장 단순한 것이 선택되는 무차별 모델입니다.

그런 다음이 기술에서 새롭고 독창적 인 것을 볼 수 없습니다.

 
mytarmailS :

이 모델들 중에서 가장 좋은 것이 선택되고, 가장 좋은 것에서 새 모델이 생성되고, 다시 선택 .... 등 ... 새 데이터의 오류(이전에는 알고리즘에 알려지지 않음)가 감소할 때까지 계속됩니다.

그 알고리즘은 스스로 변화하고, 복잡해지고, 스스로 조직화합니다... 유전 알고리즘 과 유사한 것

그렇다면 나는 여기서 수학을 보지 않습니다. 그것은 더 많은 두뇌, 음, 코딩의 작업입니다. GA는 사소한 것입니다.

그렇다면 왜 모든 사람들이이 MGUA로 소란을 피우고 논문을 작성하여 유치원부터 직관적으로 이해할 수있는 일종의 원시적 인 경우 이해하는 것이 불가능합니까?

 
막심 드미트리예프스키 :

부스팅은 모든면에서 낫습니다 MGUA와 같은 기능을 준비하면 더 좋을 것입니다

따라서 일반적으로 무엇을 가르쳐야 할지 모르더라도 상관하지 마십시오.

동의하지 않는다...

눈으로 빠르게 약간의 테스트를 해보자)


각각 1000개의 요소가 있는 4개의 변수(보통 랜덤) 생성

z1 <- 표준(1000)

z2 <- 정상(1000)

z3 <- 표준(1000)

z4 <- 표준(1000)

4개의 합계로 대상 변수 y 를 생성합니다.

y <- z1+z2+z3+z4


우리는 부스팅과 mgua 가르칠 것입니다. 그리고 우리는 예측에 대해서도 가르치지 않을 것입니다.

나는 샘플을 세 조각으로 나눴습니다. 하나는 테스트를 위해 두 개는 훈련했습니다.


녹색 MGUA

빨간색으로 부스팅 (GBM(Generalized Boosted Regression Modeling))

회색으로 표시된 원본 데이터

목표는 모든 예측 변수의 기본 합계입니다.

http://prntscr.com/rawx14

보시다시피 두 알고리즘 모두 훌륭하게 수행되었습니다.


이제 문제를 조금 더 어렵게 만들자

데이터에 누적 합계 또는 추세 추가

z1 <- cumsum (rnorm(1000))

z2 <- cumsum (rnorm(1000))

z3 <- 표준(1000)

z4 <- 표준(1000)

또한 대상을 형식으로 변경하십시오.

y <- z1 + z2 + z3

경향이 있는 예측 변수 2개와 일반 예측 변수 1개를 추가하고 z4는 대상 전혀 참여하지 않기 때문에 노이즈를 얻습니다.

그리고 우리는 이 결과를 얻습니다

http://prntscr.com/rax81b

우리의 부스팅은 nafig로 떨어졌지만 MGUA는 얼마가 아닙니다.


나는 그런 야생 대상으로 만 MGUA를 "죽일"수있었습니다.

y <- ((z1*z2)/3)+((z3*2)/z4)

그런 다음에도 완전히는 아니지만 부스팅은 어떻습니까? )))

http://prntscr.com/raxdnz


게임 코드

set.seed( 123 )
z1 <- cumsum(rnorm( 1000 ))
z2 <- cumsum(rnorm( 1000 ))
z3 <- rnorm( 1000 )
z4 <- rnorm( 1000 )

y <- ((z1*z2)/ 3 )+((z3* 2 )/z4)

x <- cbind.data.frame(z1,z2,z3,z4) ; colnames(x) <- paste0( "z" , 1 :ncol(x))

tr <- 1 : 500
ts <- 501 : 800
ts2<- 801 : 1000

library (gbm)
rf <- gbm(y[tr] ~ ., data = x[tr,],
          distribution = "gaussian" , n.trees = 1000 ,
           cv.folds = 5 )
best.iter.max <- gbm.perf(rf, method = "cv" )
prg <- predict(rf,x[c(tr,ts,ts2),],n.trees = best.iter.max)

library (GMDHreg)
gmd <- gmdh.gia(X = as .matrix(x[tr,]),y = y[tr],prune = 5 ,
                    criteria = "PRESS" )
prh <- predict(gmd, as .matrix(x[c(tr,ts,ts2),]))

par(mfrow=c( 1 , 3 ))
plot(head(y[tr], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "train " )
lines(head(prg[tr], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[tr], 30 ),col= 3 ,lwd= 2 )
plot(head(y[ts], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "test " )
lines(head(prg[ts], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[ts], 30 ),col= 3 ,lwd= 2 )
plot(head(y[ts2], 30 ),t= "l" ,col= 8 ,lwd= 10 ,main = "test2 " )
lines(head(prg[ts2], 30 ),col= 2 ,lwd= 2 )
lines(head(prh[ts2], 30 ),col= 3 ,lwd= 2 )


Скриншот
Скриншот
  • prnt.sc
Снято с помощью Lightshot
 
비밀 :

그렇다면 나는 여기서 수학을 보지 않습니다. 그것은 더 많은 두뇌, 음, 코딩의 작업입니다. GA는 사소한 것입니다.

그렇다면 왜 모든 사람들이이 MGUA로 소란을 피우고 논문을 작성하여 유치원부터 직관적으로 이해할 수있는 일종의 원시적 인 경우 이해하는 것이 불가능합니까?

잘 모르겠지만 데이터를 훨씬 잘 설명하고 게시물을 작성하고 코드를 게시했습니다.

 
mytarmailS :

동의하지 않는다...

눈으로 빠르게 약간의 테스트를 해보자)

R에서는 주변을 찌르고 싶은 욕구가 없습니다(저는 파이썬을 사용합니다). 아마도 그 이유는 MGUA가 요정 회귀자를 생성하기 때문일 것입니다. 부스팅을 위해 동일한 선택을 하면 차이가 없습니다.

여기에서 나는 숲에 대한 MGUA에서 검색을 했습니다.

https://www.mql5.com/ru/code/22915

RL algorithms
RL algorithms
  • www.mql5.com
Данная библиотека имеет расширенный функционал, позволяющий создавать неограниченное количество "Агентов". Использование библиотеки: Пример заполнения входных значений нормированными ценами закрытия: Обучение происходит в тестере...
 
막심 드미트리예프스키 :

R에서는 주변을 찌르고 싶은 욕구가 없습니다(저는 파이썬을 사용합니다). 아마도 그 이유는 MGUA가 요정 회귀자를 생성하기 때문일 것입니다. 부스팅을 위해 동일한 선택을 하면 차이가 없습니다.

여기에서 나는 숲에 대한 MGUA에서 검색을 했습니다.

https://www.mql5.com/ru/code/22915

우선, 다른 실패 회귀자는 무엇입니까? 허허허허허허 그럼 작업이 복잡해지면 MGUA도 나가나요??

둘째, 내 예에서는 MGUA와 부스트에 대해 동일한 데이터가 있습니다.

셋째, 아무데나 찔러볼 필요가 없습니다. 파이썬에서 4개의 임의 값으로 행렬을 만든 다음 누적 합을 만들 수 없는 이유는 무엇입니까? 집에서 부스트를 확인하려면?

2줄의 코드))


도대체 뭐가 들어있는지 궁금하다

사유: