트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 839

 

처음에는 몇백 명만이 예측을 내놓았을 때 모든 것이 괜찮았고 심지어 장소에 대한 대가까지 받았습니다. 여기 포럼에서 2명 이상의 분들도 우수한 결과를 보여주셨습니다.

numerai 관리자가 최상의 결과를 선택하고 이를 거래하는 것은 매우 쉬웠습니다. 그런 다음 수천 명의 참가자가 있었고 모델이 아닌 모든 종류의 쓰레기를 보내기 시작했습니다. 모든 종류의 사기꾼이 예측을 어리석게 강제하는 수백 개의 계정과 함께 나타났습니다. 관리자들은 이 전체 서커스에 지쳤고 매우 간단하게 해냈습니다. "상금을 원하면 보증금을 남겨두세요." 모델이 헛소리라면 서약은 사라지고 이익도 없을 것입니다.
제 생각에는 관리자가 가장 쉬운 길을 택했습니다. 그들은 스스로 잠재적으로 좋은 모델을 식별하는 방법이나 기능을 준비하는 방법을 배우지 않았고 모든 것을 복권으로 돌렸습니다. Yab은 대신 모든 것을 다르게 수행했습니다.

 
박사 상인 :

처음에는 몇백 명만이 예측을 내놓았을 때 모든 것이 괜찮았고 심지어 장소에 대한 대가까지 받았습니다. 여기 포럼에서 2명 이상의 분들도 우수한 결과를 보여주셨습니다.

numerai 관리자가 최상의 결과를 선택하고 이를 거래하는 것은 매우 쉬웠습니다. 그런 다음 수천 명의 참가자가 있었고 모델이 아닌 모든 종류의 쓰레기를 보내기 시작했습니다. 모든 종류의 사기꾼이 예측을 어리석게 강제하는 수백 개의 계정과 함께 나타났습니다. 관리자들은 이 전체 서커스에 지쳤고 매우 간단하게 해냈습니다. "상금을 원하면 보증금을 남겨두세요." 모델이 헛소리라면 서약은 사라지고 이익도 없을 것입니다.
제 생각에는 관리자가 가장 쉬운 길을 택했습니다. 그들은 스스로 잠재적으로 좋은 모델을 식별하는 방법이나 기능을 준비하는 방법을 배우지 않았고 모든 것을 복권으로 돌렸습니다. Yab은 대신 모든 것을 다르게 수행했습니다.

어쩌면 당신이 맞을 수도 있지만 지금 IMHO는 너무 임의적입니다. 로고는 어떻게 든 이상하게 변경됩니다. 인생에서 절반 이상 (더 나은) 무작위 (0.96315) 미만이었습니다. 이제 갑자기 거의 모든 사람이 당신의 (더 나쁜) 무작위가되었습니다 ... 짧은 임의성 IMHO, 아무것도 확인할 수 없고 아이디어 자체가 어리석고 분류 자체가 전혀 문제가 되지 않을 때 "위험"을 감수할 것이라고 믿지 않습니다. 위임할 의미가 없습니다. 다른 문제입니다. 원시 데이터에서 기능과 대상을 구성하기 위해 ...

 

이 분기가 최상위 수준에서 떨어지지 않도록 하겠습니다.

신경망의 여러분 - 평범한 사람들이 당신의 성배 를 기다리고 있습니다. 잃지 마세요.

 

randomUniformForest로 실험 - 마음에 들지 않았습니다.

예측 변수의 중요성은 끊임없이 목록을 오르내리고 있습니다.

다음은 https://www.mql5.com/ru/articles/4227 기사의 데이터를 기반으로 한 재현 가능한 예입니다.
RStudio를 시작하고 터미널에서 받은 견적이 포함 GitHub/Part_ICotir.RData 파일과 GitHub/Part_IV 의 데이터 준비 기능이 포함된 FunPrepareData.R 파일을 로드합니다.
그 다음에:

evalq({
  dt <- PrepareData(Data, Open , High , Low , Close , Volume )
}, env)

 prep <- caret::preProcess(x = env$dt[, -c(1,ncol(env$dt))], method = c("spatialSign"))
 x.train <- predict(prep, env$dt[, -c(1,ncol(env$dt))])#удалить время и класс
 x.train <- as.matrix(x.train,ncol=(ncol(env$dt)-1))
 
 y.train <- as.matrix(env$dt[, ncol(env$dt)],ncol=1)
 require(randomUniformForest)

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

ruf <- randomUniformForest( X = x.train,Y = y.train,mtry = 1, ntree = 300,threads = 2, nodesize = 2,  regression = FALSE)
ruf$forest$variableImportance

여기에서 예측 변수의 전역 중요도는 동일한 데이터에 대해 4번 계산됩니다. 결과는 거의 무작위입니다.

-------------------------------------------------- --------------------------------------------------
1피트 9204 2 0.52 100.00 8
2 rbci 9197 2 0.52 99.92 8
3 stlm 9150 2 0.52 99.41 8
4 v.fatl 9147 2 0.51 99.38 8
5 v.rftl 9122 2 0.52 99.11 8
6v.satl 9110 2 0.51 98.98 8
7 v.stlm 9096 2 0.51 98.82 8
8 v.rbci 9084 2 0.51 98.69 8
9 pcci 9082 2 0.52 98.68 8
10 v.rstl 9049 2 0.52 98.31 8
11 v.pcci 8980 2 0.51 97.57 8
12 v.ftlm 8953 2 0.52 97.28 8
-------------------------------------------------- --------------------------------------------------

1 v.fatl 9130 2 0.51 100.00 8
2피트 9079 2 0.52 99.45 8
3 v.rbci 9071 2 0.52 99.35 8
4 v.rftl 9066 2 0.52 99.30 8
5 stlm 9058 2 0.51 99.21 8
6v.satl 9033 2 0.51 98.94 8
7 pcci 9033 2 0.51 98.94 8
8 v.stlm 9019 2 0.51 98.78 8
9 v.rstl 8977 2 0.51 98.33 8
10 rbci 8915 2 0.52 97.64 8
11 v.pcci 8898 2 0.51 97.46 8
12 v.ftlm 8860 2 0.51 97.04 8
-------------------------------------------------- --------------------------------------------------

1 v.fatl 9287 2 0.51 100.00 9
2 stlm 9191 2 0.52 98.96 8
3 v.rbci 9172 2 0.52 98.76 8
4 v.rftl 9134 2 0.51 98.35 8
5 v.satl 9115 2 0.51 98.14 8
6피트 9109 2 0.51 98.08 8
7 v.stlm 9072 2 0.51 97.69 8
8 v.rstl 9072 2 0.51 97.68 8
9 v.ftlm 9036 2 0.51 97.30 8
10 pcci 9014 2 0.52 97.05 8
11 rbci 9002 2 0.52 96.93 8
12 v.pcci 8914 2 0.51 95.98 8
-------------------------------------------------- --------------------------------------------------

1 v.satl 9413 2 0.51 100.00 8
2피트 9389 2 0.52 99.75 8
3 v.stlm 9371 2 0.51 99.55 8
4 v.rftl 9370 2 0.51 99.54 8
5 v.rbci 9337 2 0.51 99.19 8
6 v.pcci 9314 2 0.51 98.95 8
7 v.fatl 9311 2 0.52 98.91 8
8 stlm 9295 2 0.52 98.75 8
9 pcci 9281 2 0.51 98.60 8
10 v.rstl 9261 2 0.51 98.39 8
11 v.ftlm 9257 2 0.51 98.35 8
12 rbci 9238 2 0.52 98.14 8

2개의 다른 테스트된 패키지의 경우 예측 변수의 중요도는 사전 실행 중에 동일한 방식으로 결정됩니다.

Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
Глубокие нейросети (Часть VI). Ансамбль нейросетевых классификаторов: bagging
  • 2018.03.01
  • Vladimir Perervenko
  • www.mql5.com
В предыдущей статье этой серии мы оптимизировали гиперпараметры модели DNN, обучили ее несколькими вариантами и протестировали. Качество полученной модели оказалось довольно высоким. Также мы обсудили возможности того, как можно улучшить качество классификации. Одна из них — использовать ансамбль нейросетей. Этот вариант усиления мы и...
 
도서관 :

randomUniformForest로 실험 - 마음에 들지 않았습니다.

예측 변수의 중요성은 끊임없이 목록을 오르내리고 있습니다.

씨앗이 보이지 않습니다.

그러나 이것이 요점이 아니라 요점은 원칙에 있습니다.

이 모델과 다른 모델에서 결정되는 예측 변수의 중요성은 특정 모델에서 특정 예측 변수를 사용하는 일부 특성입니다.

그리고 특정 모델이 아니라 목표 변수에 대한 예측 변수의 중요성으로 문제를 제기할 수 있습니다.

이것들은 캐럿의 기능입니다. 도움을 받아 대상 변수에 "유용한" 특정 공통 예측 변수 집합을 구성할 수 있습니다. 동시에 매우 흥미로운 뉘앙스가 있습니다. 예를 들어 특정 알고리즘과 관련된 창을 이동하고 이미 선택된 예측 변수에서 다시 선택하면 이 세트가 지속적으로 변경됩니다.

일반적으로 질문에 대한 답변이 필요합니다. 예측 변수의 중요성이 왜 필요한가요? 특정 알고리즘에서 선택을 위해? 따라서 알고리즘은 이미 이 문제에 대한 의견을 표명했으며 이에 대해 알려 드렸습니다. 따라서 귀하가 표시한 수치는 변경 여부에 관계없이 일반적으로 아무 것도 아닙니다. 중요하지 않습니다. 샘플 외 모델 예측 및 샘플 외 예측 성공 문제와 예측자 목록의 연관

 
도서관 :

randomUniformForest로 실험 - 마음에 들지 않았습니다.

여기에 예측 변수를 업로드해 보세요.

https://www.mql5.com/ru/articles/3856

그런 다음 에이전트를 교육한 후 이미 자동으로 생성된 매트릭스에서 중요도 를 확인합니다.

나는 여전히 내 OOS에 대한 +- 결과를 가지고 있지만 여전히 개선의 여지가 있습니다.

비정상 시장에서 목표 예측 변수를 스스로 선택하는 것은 내 생각에 쓸모가 없으며 중요성도 확률적으로 변합니다.

Random Decision Forest в обучении с подкреплением
Random Decision Forest в обучении с подкреплением
  • 2018.04.12
  • Maxim Dmitrievsky
  • www.mql5.com
Random Forest (RF) с применением бэггинга — один из самых сильных методов машинного обучения, который немного уступает градиентному бустингу.  Случайный лес состоит из комитета деревьев решений (которые также называются деревьями классификации или регрессионными деревьями "CART" и решают одноименные задачи). Они применяются в статистике...
 
산산이치 포멘코 :

씨앗이 보이지 않습니다.

그러나 이것이 요점이 아니라 요점은 원칙에 있습니다.

이 모델과 다른 모델에서 결정되는 예측 변수의 중요성은 특정 모델에서 특정 예측 변수를 사용하는 일부 특성입니다.

그리고 특정 모델이 아니라 목표 변수에 대한 예측 변수의 중요성으로 문제를 제기할 수 있습니다.

이것들은 caret의 함수입니다. 도움을 받아 대상 변수에 "유용한" 특정 공통 예측 변수 집합을 구성할 수 있습니다. 동시에 매우 흥미로운 뉘앙스가 있습니다. 예를 들어 특정 알고리즘과 연결된 창을 이동하고 이미 선택된 예측 변수에서 다시 선택하면 이 세트가 계속 변경됩니다.

일반적으로 질문에 대한 답변이 필요합니다. 예측 변수의 중요성이 왜 필요한가요? 특정 알고리즘에서 선택을 위해? 따라서 알고리즘은 이미 이 문제에 대한 의견을 표명했으며 이에 대해 알려 드렸습니다. 따라서 귀하가 표시한 수치는 변경 여부에 관계없이 일반적으로 아무 것도 아닙니다. 중요하지 않습니다. 샘플 외 모델 예측 및 샘플 외 예측 성공 문제와 예측자 목록의 연관

seed - 무작위 세트 중 하나를 캡처합니다. 그러나 재현 가능하긴 하지만 여전히 무작위로 유지됩니다. 요점은 중요도(세 번째 열)의 가중치가 최소값과 최대값 사이에 3%만 차이가 나기 때문에 포리스트의 작은 변화로 쉽게 목록을 뛰어 넘을 수 있다는 것입니다. 다른 패키지에서는 이러한 무게가 몇 배 또는 몇 배 차이가 납니다.

중요하지 않고 잡음이 있는 것을 걸러내고 NN 또는 앙상블에서 사용하려면 예측 변수의 중요성이 필요합니다.

이 데이터 세트에서 stlm은 학습 결과를 크게 악화시키고 이를 마커로 사용합니다. 제거되지 않으면 예측 변수 선택 패키지가 실패한 것입니다.

 
막심 드미트리예프스키 :

여기에 예측자를 업로드해 보세요.

https://www.mql5.com/ru/articles/3856

그런 다음 에이전트를 교육한 후 이미 자동으로 생성된 매트릭스에서 중요도를 확인합니다.

나는 여전히 내 OOS에 대한 +- 결과를 가지고 있지만 여전히 개선의 여지가 있습니다.

비정상 시장에서 목표 예측 변수를 스스로 선택하는 것은 내 생각에 쓸모가 없으며 중요성도 확률적으로 변합니다.

오, 새로운 기사. 흥미로운...
 
도서관 :
오, 새로운 기사. 흥미로운...

네, 이 접근 방식을 사용하면 대상을 선택하는 문제가 사라지지만 에이전트에게 의미 있는 보상을 제공하는 방법을 배워야 합니다.

모든 예측 변수에 잘 맞지만 OOS에서 작업하려면 선택한 항목과 함께 증기 목욕을 해야 합니다.

 
Alexander_K2 :

이 분기가 최상위 수준에서 떨어지지 않도록 하겠습니다.

신경망의 여러분 - 평범한 사람들이 당신의 성배를 기다리고 있습니다. 잃지 마세요.

네, 잃어버렸을 때 제 자신도 걱정되기 시작했어요 :-)

사유: