트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 645

 
산산이치 포멘코 :

시리즈가 고정되어 있지 않다는 것이 육안으로 명확하기 때문에 초기 인용에 대해 yf를 테스트하는 것은 의미가 없습니다.

그리고 흥미로운(저에게는 그렇지 않습니다. 저는 항상 그것을 사용합니다) 로그(p/p-1) 시계열에 대한 그래프입니다.

거기 뭐가 있어? 물론 y축을 따라 눈금이 필요합니다.

공간을 절약하기 위해 두 개의 그래프를 한 프레임에 맞추는 척도를 사용하지 않았지만 처음에는 Y 좌표가 다릅니다.

결과는 지난번과 완전히 다릅니다. 여기에 가장 흥미로운 그래픽이 있고 나머지는 여기에 10개의 사진을 조각하지 않도록 아카이브에 있습니다. 그러나 엔트로피 그래프에서는 완전히 흥미롭지 않은 것으로 판명되었습니다.

스크립트 공격에서 R-Studio에서 모든 플롯 그래프의 기록을 앞뒤로 스크롤할 수 있습니다.

죄송합니다. 코드에 오타가 있어서 .txt 파일을 다시 첨부했습니다.

 
산산이치 포멘코 :


주요 구성 요소에 대해 논의했고 알고리즘이 감독되지 않는다는 단점을 보았습니다.

여기 선생님과 함께:

spl 패키지

감사합니다. 크랜의 설명에서 추측조차 하지 않았을 것입니다(SPLS(Sparse Partial Least Squares) 회귀 및 분류)

 
박사 상인 :

공간을 절약하기 위해 두 개의 그래프를 한 프레임에 맞추는 척도를 사용하지 않았지만 처음에는 Y 좌표가 다릅니다.

결과는 지난번과 완전히 다릅니다. 여기에 가장 흥미로운 그래픽이 있고 나머지는 여기에 10개의 사진을 조각하지 않도록 아카이브에 있습니다. 그러나 엔트로피 그래프에서는 완전히 흥미롭지 않은 것으로 판명되었습니다.

스크립트 공격에서 R-Studio에서 모든 플롯 그래프의 기록을 앞뒤로 스크롤할 수 있습니다.

죄송합니다. 코드에 오타가 있어서 .txt 파일을 다시 첨부했습니다.

멋진 그림!

아치 테스트에서 아리마 모델이 작동하는 영역이 있다고 판단할 수 있습니다. 그러나 문제는 항상 동일합니다. 우리는 모두 역사에 대해 매우 똑똑하며 통과한 후에야 Arima를 사용할 수 있다는 것을 알게 되었습니다! 우리의 모든 이론도 마찬가지입니다.

 
박사 상인 :

이를 위해 - https://www.mql5.com/ru/forum/86386/page643#comment_6472393


예측기 드롭아웃 함수 random.forest.importance()는 일부 테스트에서 꽤 괜찮은 결과를 보여주었습니다. 그녀의 의견으로는 일반적으로 모든 예측 변수가 최소한 약간 중요하다는 것이 불편하지만, 예를 들어 평균 중요도를 계산하고 평균보다 중요한 예측 변수만 취하면 매우 좋은 결과를 얻습니다. 결과.

중요성이 무엇입니까? 지니 또는 순열(MDA)

추신. 다른 방법이 있습니다. http://blog.datadive.net/selecting-good-features-part-iv-stability-selection-rfe-and-everything-side-by-side/도 비교하려고 합니다.

Selecting good features – Part IV: stability selection, RFE and everything side by side
  • 2014.12.20
  • blog.datadive.net
In this post, I’ll look at two other methods: stability selection and recursive feature elimination (RFE), which can both considered wrapper methods. They both build on top of other (model based) selection methods such as regression or SVM, building models on different subsets of data and extracting the ranking from the aggregates. As a wrap-up...
 
박사 상인 :

예측 변수를 선별하기 위한 또 다른 흥미로운 패키지를 찾았습니다. FSelector라고 합니다. 엔트로피 사용을 포함하여 예측 변수를 제거하기 위한 약 12가지 방법을 제공합니다.

예측자와 대상이 포함된 파일은 여기에서 가져왔습니다 - https://www.mql5.com/en/forum/86386/page6#comment_2534058


마지막으로 각 방법에 따른 예측변수의 추정치를 그래프로 보여주었어요~

파란색은 좋음, 빨간색은 나쁨(정확한 평가를 위해 결과가 [-1:1]로 조정되었습니다. 정확한 평가를 위해 함수 자체를 호출한 결과를 참조하십시오. cfs(targetFormula, trainTable), chi.squared(targetFormula, trainTable ), 등.)
X3, X4, X5, X19, X20은 거의 모든 방법으로 잘 평가되고 있음을 알 수 있습니다. 처음에는 해당 방법을 사용한 다음 더 추가/제거를 시도할 수 있습니다.

그러나 래틀 모델은 Rat_DF2에 대한 5개의 예측 변수로 테스트를 통과하지 못했고 다시 기적이 일어나지 않았습니다. 저것들. 나머지 예측 변수가 있더라도 모델 매개변수를 선택하고 교차 검증을 수행하고 예측 변수를 직접 추가/제거해야 합니다.

FSelector는 WEKA에서 가져온 것으로 Java를 사용합니다. 메모리는 측정되지 않습니다. FSelectorRcpp를 사용하는 것이 좋습니다.

행운을 빕니다

 

다음은 entropy(price)와 archTest(log(p/p-1)) 입니다. 그것들은 눈으로 상관관계가 없는 것 같으며 어떤 신호도 보지 못합니다. 지표를 보는 눈을 가진 사람은 무언가를 알아차릴 수 있습니다.


 
막심 드미트리예프스키 :

중요성이 무엇입니까? 지니 또는 순열(MDA)

선택할 수 있는 2가지 유형이 있습니다 -
1=정확도의 평균 감소(아마도 이것은 mda, 첫 글자에 수렴)
2 = 노드 불순물의 평균 감소

 
박사 상인 :

선택할 수 있는 2가지 유형이 있습니다 -
1=정확도의 평균 감소(아마도 이것은 mda, 첫 글자에 수렴)
2 = 노드 불순물의 평균 감소

예, 그, 감사합니다, 두 번째 mdi

 
박사 상인 :

다음은 entropy(price)와 archTest(log(p/p-1)) 입니다. 그것들은 눈으로 상관관계가 없는 것 같으며 어떤 신호도 보지 못합니다. 지표를 보는 눈을 가진 사람은 무언가를 알아차릴 수 있습니다.


예, 변동성의 일반적인 지표를 얻습니다)

아치 테스트는 그것이 무엇을 보여주는지 명확하지 않습니다.

 

예측 변수의 중요성을 평가하는 데 의심의 여지가 없는 관심을 보입니다.

가장 다양한 시스템은 CORElearn 패키지에 있습니다(한 번에 Vladimir Perervenko 가 나에게 강력히 추천했습니다)

평가를 위한 여러 기능이 있습니다.

첫 번째 단계는 기능입니다.

ordEval(formula, data, file= NULL , rndFile= NULL ,
variant=c( "allNear" , "attrDist1" , "classDist1" ), ...)

ordEval вычисляет результирующие вероятностные факторы, соответствующие эффекту увеличение/уменьшение значимости атрибута для класса.
Алгоритм оценивает строго зависимые упорядоченные атрибуты, в которых значения отдельных атрибутов зависят от других атрибутов в разной манере.

두 번째 단계에서 기능

attrEval(formula, data, estimator, costMatrix = NULL , ...)

estimator       Имя метода оценки. Ниже 37 имен.

[ 1 ]     "ReliefFequalK"        "  ReliefFexpRank" "ReliefFbestK"    "Relief"
[ 5 ]     "InfGain"              "GainRatio"          "MDL"              "Gini"
[ 9 ]     "MyopicReliefF"        "Accuracy"          "ReliefFmerit"    "ReliefFdistance"
[ 13 ]     "ReliefFsqrDistance"      "DKM"            "ReliefFexpC"    "ReliefFavgC"
[ 17 ]     "ReliefFpe"            "ReliefFpa"          "ReliefFsmp"      "GainRatioCost"
[ 21 ]     "DKMcost"              "ReliefKukar"        "MDLsmp"          "ImpurityEuclid"
[ 25 ]     "ImpurityHellinger"      "UniformDKM"      "UniformGini"    "UniformInf"
[ 29 ]     "UniformAccuracy"        "EqualDKM"        "EqualGini"      "EqualInf"
[ 33 ]     "EqualHellinger"          "DistHellinger" "DistAUC"        "DistAngle"
[ 37 ]     "DistEuclid"                      


Дополнительный параметр costMatrix может включить неоднородную матрицу стоимости для классификаций, чувствительных к стоимости мер 
(ReliefFexpC, ReliefFavgC, ReliefFpe, ReliefFpa, ReliefFsmp, GainRatioCost, DKMcost, ReliefKukar и MDLsmp). 



보시다시피 바다는 예측 변수의 중요성을 결정하는 분야의 연습으로 가득합니다.

사유: