트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1288

 
막심 드미트리예프스키 :

저것들. 모든 종류의 쓰레기에 의해 비정상성이 사라지지 않으며 패턴이 더 잘 발견되지 않습니다.

non-stationarity를 죽일 필요는 없습니다.) 그것을 죽이는 것은 불가능하기 때문에 정의에 따라 VR에서 어떤 것도 절대적으로 정확하게 선택하거나 VR에서 일반적으로 움직이는 모든 것을 선택할 수는 없지만 그 중 일부만 기준에 따라 상당한 부분이 항상 VR에 남아 있고 비 생성 -정체성.

일반적으로 정상-비정상이 기준입니다.

 
유리 아사울렌코 :

non-stationarity를 죽일 필요는 없습니다.) 그것을 죽이는 것은 불가능하기 때문에 정의에 따라 VR에서 어떤 것도 절대적으로 정확하게 선택하거나 VR에서 일반적으로 움직이는 모든 것을 선택할 수는 없지만 그 중 일부만 기준에 따라 상당한 부분이 항상 VR에 남아 있고 비 생성 -정체성.

일반적으로 정상-비정상이 기준입니다.

네이키드 VR에서 규칙성은 순환성에만 있습니다. 이것은 공리입니다. 주기를 선택할 수 없는 경우 정의에 따라 아무 것도 작동하지 않습니다.

정상화하려는 동일한 시도는 Alexander가 말했듯이 존재하지 않는 상수 신호를 분리하려는 시도입니다.
 
막심 드미트리예프스키 :

네이키드 VR에서 패턴은 주기성에만 있습니다. 이것은 공리입니다. 사이클을 선택하는 것이 불가능하면 정의에 따라 아무 것도 작동하지 않습니다.

나는 그 공리를 그렇게 생각한다.) 소리, 음악을 예로 들어보자. 주기성은 없고 단기만 있을 뿐 나머지는 예측할 수 없습니다. 그리고 당신은 단기 순환성을 정말로 이해할 수 없습니다. 전체 오케스트라가 연주하고 모든 사람이 자신의 역할을 가지고 있습니다.)

 
유리 아사울렌코 :

나는 그 공리를 그렇게 생각한다.) 소리, 음악을 예로 들어보자. 주기성은 없고 단기만 있을 뿐 나머지는 예측할 수 없습니다. 그리고 당신은 단기 순환성을 정말로 이해할 수 없습니다. 전체 오케스트라가 연주하고 모든 사람이 자신의 역할을 가지고 있습니다.)

음, 아무도 음악이나 사운드를 거래하려고 시도하지 않았고 시도하지 않은 것 같습니다. 같은 방식으로 순환이 있고, 일부 비트, 예측할 수 없는 비순환이 있습니다.

예측 가능한 VR이 있고 예측할 수 없는 VR이 있습니다.
 

순열이 계산되었고 유효한 섹션에서 예측 변수가 1만큼 제거되었습니다. 훈련 영역에서와 같이 완전 무작위.

열거에 의한 예측 변수의 중요성(1만큼 제거) 유효
, 특성, 절대값, 관련값 * 100
1) 23 0.05544194501249716 100
2) 53 0.04867290288234849 87
3) 32 0.03782135076252724 68
4) 37 0.03541102077687447 63
5) 26 0.03532324097876799 63
6) 33 0.03362697736099274 60
7) 40 0.03278533635676495 59
8) 13 0.03230890464933017 58
9) 60 0.03111487121639406 56
10) 24 0.03067918054294078 55
11) 8 0.02900490852298082 52
12) 10 0.02877257422711971 51
13) 49 0.02715383847459318 48
14) 64 0.02681691125087354 48
15) 38 0.02662037037037041 48
16) 35 0.02532532532532533 45
17) 1 0.02212475633528266 39
18) 57 0.02151192288178594 38
19) 28 0.02077687443541104 37
20) 12 0.01949317738791423 35
21) 11 0.01935357107770902 34
22) 56 0.01921172509407804 34
23) 19 0.01870370370370372 33
24) 27 0.01806684733514002 32
25) 46 0.01805450097021855 32
26) 3 0.0175925925925926 31
27) 42 0.01603966170895305 28
28) 44 0.01603966170895305 28
29) 4 0.01568141958114105 28
30) 54 0.01553166069295103 28
31) 36 0.01553166069295103 28
32) 25 0.01440866453921286 25
33) 63 0.01370370370370372 24
34) 41 0.01329274479959414 23
35) 55 0.01322751322751325 23
36) 15 0.01322751322751325 23
37) 17 0.01289590426080678 23
38) 39 0.01284348864994028 23
39) 7 0.01260422726391314 22
40) 9 0.012243648607285 22
41) 43 0.01221434200157606 22
42) 50 0.01074595722483046 19
43) 62 0.0106090745476935 19
44) 52 0.01058201058201058 19
45) 21 0.009986426216792743 18
46) 59 0.009936766034327027 17
47) 47 0.009652712202287306 17
48) 14 0.009616300104732023 17
49) 58 0.009333730513355176 16
50) 0 0.009109109109109115 16
51) 22 0.008516537928302648 15
52) 5 0.008285913946291301 14
53) 51 0.008285913946291301 14
54) 16 0.007571107018620848 13
55) 6 0.007467144563918782 13
56) 18 0.00722673893405601 13
57) 20 0.006734006734006759 12
58) 45 0.005037037037037062 9
59) 30 0.004840067340067367 8
60) 48 0.003703703703703709 6
61) 29 0.002872678772955772 5
62) 31 0.002849002849002857 5
63) 61 0.001154128632882168 2
64) 34 0.0003138731952291307 0
65) 2 -0.0009033423667569873 -1
순열 방법에 따른 예측 변수의 중요성
, 특성, 절대값, 관련값 * 100
1) 14 0.04838455476753351 99
2) 28 0.04332634521313766 89
3) 40 0.03703703703703703 76
4) 48 0.0356709168184578 73
5) 37 0.03461279461279465 71
6) 26 0.03151827324012757 65
7) 3 0.02880658436213995 59
8) 39 0.02445842068483578 50
9) 34 0.02417848115177496 49
10) 51 0.0228526398739165 47
11) 6 0.02062678062678064 42
12) 52 0.01807496118873364 37
13) 19 0.01765719207579675 36
14) 17 0.01600654282042296 33
15) 50 0.01582491582491585 32
16) 25 0.01527640400043961 31
17) 36 0.01527640400043961 31
18) 44 0.01488195143784271 30
19) 1 0.01475021533161069 30
20) 47 0.01404853128991063 29
21) 33 0.01257220523275571 25
22) 22 0.01227513227513227 25
23) 41 0.01095008051529794 22
24) 7 0.0109137350516661 22
25) 16 0.01020525169131981 21
26) 43 0.009586056644880214 19
27) 4 0.009417989417989436 19
28) 49 0.008301404853129024 17
29) 35 0.007797270955165692 16
30) 27 0.007680976430976427 15
31) 29 0.00753851196329075 15
32) 23 0.00753851196329075 15
33) 59 0.006652765365902091 13
34) 24 0.006644880174291934 13
35) 15 0.006374326849104328 13
36) 13 0.006297363646066811 13
37) 38 0.006224712107065045 12
38) 55 0.005901505901505899 12
39) 10 0.005698005698005715 11
40) 61 0.005642761875448876 11
41) 9 0.005427841634738195 11
42) 42 0.005152979066022578 10
43) 0 0.00490852298081218 10
44) 2 0.003703703703703709 7
45) 30 0.003406967798659233 7
46) 62 0.003122308354866488 6
47) 31 0.003122308354866488 6
48) 64 0.002295252999478359 4
49) 21 0.0008465608465608732 1
50) 11 0.0006224712107065211 1
51) 53 0.0005336748852599049 1
52) 12 0.0005336748852599049 1
53) 58 0.0002916302128900816 0
54) 5 0.0002153316106804914 0
55) 8 -0.0001086130118387874 0
56) 18 -0.0007739082365947891 -1
57) 20 -0.0008417508417508102 -1
58) 54 -0.0009746588693956837 -2 (30)
59) 46 -0.002010582010582018 -4 (25)
60) 32 -0.002348169495143548 -4 (3)
61) 57 -0.003145611364789413 -6 (18)
62) 56 -0.004743162781309929 -9 (22)
63) 45 -0.00597371565113497 -12 (58)
64) 60 -0.007107107107107102 -14 (9)
65) 63 -0.008547008547008517 -17 (33)
() 안의 7개 하위 항목 - 1 삭제 시 이 선행 작업의 위치 - 위치가 임의임이 분명합니다.


그리고이 방법에 대한 기사에서 모든 것이 매우 아름답습니다.

왜 그럴 수 있습니까?

이 기사에서는 모든 예측 변수(총 6개)가 중요하며 이 방법은 하나의 노이즈 예측 변수를 제거합니다. 내 예측 변수 65개 중 절반 또는 대부분이 잡음이 있을 수 있습니다.

또한 포레스트는 여전히 무작위이며 1만큼 삭제하여 오류를 계산할 때 무작위 편차도 도입될 수 있으며, 이는 중요도 척도에 따라 예측자의 중요도를 이동할 수 있습니다.

게다가, 순열 방법의 불안정성은 실제로 트리가 거의 동일한 양호한 분리가 있는 다른 예측자를 항상 찾을 것이고, 순열은 말하자면 이 노드를 제거한다는 것입니다(작업 결과를 무작위로 만듭니다).

일반적으로 순열은 내 데이터에서 작동하지 않습니다.

Maxim, 당신은 그것을 다르게 구현했습니다(정규 분포를 가진 것). 1씩 삭제하는 것과 비교하셨나요? 아니면 믿음에 관한 기사의 결과를 취했습니까?

 
막심 드미트리예프스키 :

음, 아무도 음악이나 사운드를 거래하려고 시도하지 않았고 시도하지 않은 것 같습니다. 같은 방식으로 순환이 있고, 일부 비트, 예측할 수 없는 비순환이 있습니다.

사운드, 음악, 순환성은 시장에 있는 것보다 훨씬 더 많습니다. 음악을 거래하자! 결과는 시장에서보다 나을 것이라고 확신합니다.)

 
도서관 :

순열이 계산되었고 유효한 섹션에서 예측 변수가 1만큼 제거되었습니다. 훈련 영역에서와 같이 완전 무작위.
그리고이 방법에 대한 기사에서 모든 것이 매우 아름답습니다.

왜 그럴 수 있습니까?

이 기사에서는 모든 예측 변수(총 6개)가 중요하며 이 방법은 하나의 노이즈 예측 변수를 제거합니다. 내 예측 변수 65개 중 절반 또는 대부분이 잡음이 있을 수 있습니다.

또한 포레스트는 여전히 무작위이며 1만큼 삭제하여 오류를 계산할 때 무작위 편차도 도입될 수 있으며, 이는 중요도 척도에 따라 예측자의 중요도를 이동할 수 있습니다.

게다가, 순열 방법의 불안정성은 실제로 트리가 거의 동일한 양호한 분리가 있는 다른 예측자를 항상 찾을 것이고, 순열은 말하자면 이 노드를 제거한다는 것입니다(작업 결과를 무작위로 만듭니다).

일반적으로 순열은 내 데이터에서 작동하지 않습니다.

Maxim, 당신은 그것을 다르게 구현했습니다(정규 분포를 가진 것). 1씩 삭제하는 것과 비교하셨나요? 아니면 믿음에 관한 기사의 결과를 취했습니까?

먼저, 상관관계를 해제해야 합니다(아직 수행하지 않은 경우). 즉, 적어도 0.9 이상인 모든 상관 관계를 제거하십시오. 그렇지 않으면 순열이 작동하지 않습니다.

비교는 많이 하지 않았지만 이번에는 오류를 줄이고 초과분을 버리고 모델을 더 가볍게(거의 무손실) 만드는 것을 보았습니다.

어떻게든 파이썬에서 다른 모델에 대한 몇 가지 예를 찾고 alglib를 통해 발생한 것과 비교할 수 있지만 그것은 같습니다.

 
막심 드미트리예프스키 :

먼저, 상관관계를 해제해야 합니다(아직 수행하지 않은 경우). 즉, 적어도 0.9 이상인 모든 상관 관계를 제거하십시오. 그렇지 않으면 순열이 작동하지 않습니다.

비교는 많이 하지 않았지만 이번에는 오류를 줄이고 초과분을 버리고 모델을 더 가볍게(거의 무손실) 만드는 것을 보았습니다.
Spearman 0.9를 제거하여 시도했지만 개선 사항이 없습니다.
 
도서관 :
Spearman 0.9를 제거하여 시도했지만 개선 사항이 없습니다.

음, 최종 오류는 무엇입니까? 해당 모델과 새 데이터에서 작동하는 방식

젠장, 수행해야 할 매우 깊은 분석이 있습니다

 
유리 아사울렌코 :

사운드, 음악, 순환성은 시장에 있는 것보다 훨씬 더 많습니다. 음악을 거래하자! 결과는 시장에서보다 나을 것이라고 확신합니다.)

팔을 흔들면서 원을 그리며 달릴 수 있습니다. 결과는 거의 같습니다)

사유: