트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1839

 
mytarmailS :

아하하하))) 태워!!!

Stsuko는 마술사의 말입니다. 토끼 플로가티트!!!! 무지무지 기대됩니다....
 

모두와 상의하고 싶습니다.
Darch 패키지에서 모델 평가를 위한 다음 옵션을 찾았습니다.
우리는 기차와 구간의 오류를 고려합니다.
그런 다음 최종 오류를 다음과 같이 계산합니다.
err = oob_error * 빗_err_tr + 기차_err * (1 - 빗_err_tr);

여기서 Combine_err_tr=0.62. 기차 및 oob 세그먼트 오류의 기여도를 제어하는 승수입니다. 0으로 설정하면 점수는 기차에만 해당됩니다. 1로 설정하면 oob로만 점수를 매깁니다.

0.62는 oob 오류가 전체 모델 점수에서 약간 더 높은 가중치를 가짐을 의미합니다.

한동안 이 공식을 사용했지만 지금은 의심이 듭니다.

oob의 오류는 일반적으로 한계가 있으며 기차에서 재교육이 시작되면 0에 도달할 수 있습니다.
다음과 같습니다. (녹색은 공식에 따른 추정 오차입니다.)




이 공식에 따르면 오류 trn이 감소함에 따라 오류가 계속 감소합니다. 그리고 trn이 감소를 멈출 때만 감소를 멈출 것입니다. 동시에 재훈련이 시작되면 oob의 오류가 커지기 시작합니다.
제 생각에는 err이 공식에 따라 성장하기 시작할 때 훈련을 중단하는 것은 너무 늦습니다.
oob 오류가 최소인 지점에서도 최적이 아닙니다. 운이 좋은 무작위화로 인해 최소 oob가 우연히 발견되었지만 이것은 oob에 대한 조정일 수 있습니다.
아마도 우리는 oob당 최소 오차를 취해야 하고 그것을 열차당 오차의 한계로 고려해야 할까요? 저것들. trn의 오류가 oob의 가장 좋은 오류(내가 수직선 을 그린 곳)와 같을 때 모델 훈련을 중단하시겠습니까? oob의 오류는 더 나빠지지만 train이나 oob에는 맞지 않습니다.

 
도서관 :

모두와 상의하고 싶습니다.
Darch 패키지에서 모델 평가를 위한 다음 옵션을 찾았습니다.
우리는 기차와 구간의 오류를 고려합니다.
그런 다음 최종 오류를 다음과 같이 계산합니다.
err = oob_error * 빗_err_tr + 기차_err * (1 - 빗_err_tr);

여기서 Combine_err_tr=0.62. 기차 및 oob 세그먼트 오류의 기여도를 제어하는 승수입니다. 0으로 설정하면 점수는 기차에만 해당됩니다. 1로 설정하면 oob로만 점수를 매깁니다.

0.62는 oob 오류가 전체 모델 점수에서 약간 더 높은 가중치를 가짐을 의미합니다.

한동안 이 공식을 사용했지만 지금은 의심이 듭니다.

oob의 오류는 일반적으로 한계가 있으며 기차에서 재교육이 시작되면 0에 도달할 수 있습니다.
다음과 같습니다. (녹색은 공식에 따른 추정 오차입니다.)




이 공식에 따르면 오류 trn이 감소함에 따라 오류가 계속 감소합니다. 그리고 trn이 감소를 멈출 때만 감소를 멈출 것입니다. 동시에 재훈련이 시작되면 oob의 오류가 커지기 시작합니다.
제 생각에는 err이 공식에 따라 성장하기 시작할 때 훈련을 중단하는 것은 너무 늦습니다.
oob 오류가 최소인 지점에서도 최적이 아닙니다. 운이 좋은 무작위화로 인해 최소 oob가 우연히 발견되었지만 이것은 oob에 대한 조정일 수 있습니다.
아마도 우리는 oob당 최소 오류를 취해야 하고 그것을 열차당 오류의 한계로 고려해야 할까요? 저것들. trn의 오류가 oob의 가장 좋은 오류(내가 수직선 을 그린 곳)와 같을 때 모델 훈련을 중단하시겠습니까? oob의 오류는 더 나빠지지만 train이나 oob에는 맞지 않습니다.

여기에는 논리가 있습니다. 오차 한계는 확률 모델에 의해 결정되며 합리적인 표본 크기와 재학습 횟수 모두 최적의 크기를 가지며 증가해도 결과가 향상되지 않습니다.

 
mytarmailS :

알고리즘 트레이더의 눈으로 본 트레이딩 시스템

R - 당신은 그냥 apuenenen입니다! :)

음 거기 디지털 필터 또는 레벨 chenit이 흥미로운 것을 보여줍니까? :디

 
막심 드미트리예프스키 :

음 거기 디지털 필터 또는 레벨 chenit이 흥미로운 것을 보여줍니까? :디

그가 마지막으로 한 것은 일종의 패턴 중첩을 찾는 것이었습니다 ...

우리는 수준을 가지고 있습니다 - 가격이 그것을 교차할 때, 우리는 이 패턴을 수정하고 그것을 훈련 샘플로 수정합니다

패턴이 다릅니다

게다가 한 순간에 동시에 많은 패턴이 동시에 나타날 수 있습니다. 이것이 본질적으로 요점입니다. 나는 순간에 나타난 패턴의 집합에서 무언가를 결정하는 일종의 명확한 집합을 찾고 있습니다.


패턴별 마이닝 규칙의 경우 " 연관 규칙 "을 사용합니다. 이 접근 방식은 각 훈련 예제가 임의의 수의 요소를 가질 수 있고 기능의 순서가 고려되지 않는다는 점에서 일반적인 접근 방식과 유리하게 비교됩니다. 나


target - 10포인트 더 증가할 극값을 찾습니다.

 x[i]==min(x[(i- 1 ):(i+ 10 )])

최선의 해결책은 아니지만 내가 그것에 대해 무엇을 하고 썼는지, 지금까지는 구매만


"arules" 패키지의 마이닝 알고리즘 "apriori"


이것은 규칙이 어떻게 생겼는지

inspect(head(rules.sorted, 20 )) 
     lhs                              rhs   support     confidence lift     count
[ 1 ]  {( 28 )( 28 )(- 1 ); 1 ,( 44 )( 45 )(- 1 )} => {BUY} 0.001017018 0.5769231    3.046559 15    
[ 2 ]  {( 25 )( 23 )(- 1 ); 1 ,( 5 )( 3 )(- 1 )}   => {BUY} 0.001084819 0.5517241    2.913491 16    
[ 3 ]  {( 31 )( 33 )(- 1 ),( 8 )( 6 )(- 1 )}     => {BUY} 0.001084819 0.5000000    2.640351 16    
[ 4 ]  {( 49 )( 45 )(- 1 ),( 54 )( 52 )(- 1 )}   => {BUY} 0.001017018 0.5000000    2.640351 15    
[ 5 ]  {( 25 )( 23 )(- 1 ),( 82 )( 84 )(- 1 )}   => {BUY} 0.001017018 0.4838710    2.555178 15    
[ 6 ]  {( 46 )( 48 )(- 1 ),( 56 )( 56 )(- 1 )}   => {BUY} 0.001017018 0.4838710    2.555178 15    
[ 7 ]  {( 25 )( 23 )(- 1 ); 1 ,( 40 )( 41 )(- 1 )} => {BUY} 0.001017018 0.4838710    2.555178 15    
[ 8 ]  {( 29 )( 30 )(- 1 ),( 37 )( 39 )(- 1 )}   => {BUY} 0.001017018 0.4838710    2.555178 15    
[ 9 ]  {( 34 )( 32 )(- 1 ),( 76 )( 74 )(- 1 )}   => {BUY} 0.001898434 0.4745763    2.506096 28    
[ 10 ] {( 25 )( 22 )(- 1 ),( 7 )( 6 )(- 1 ); 3 }   => {BUY} 0.001152621 0.4722222    2.493665 17    
[ 11 ] {( 17 )( 16 )(- 1 ); 1 ,( 49 )( 45 )(- 1 )} => {BUY} 0.001017018 0.4687500    2.475329 15    
[ 12 ] {( 46 )( 48 )(- 1 ),( 62 )( 60 )(- 1 )}   => {BUY} 0.001017018 0.4687500    2.475329 15    
[ 13 ] {( 20 )( 21 )(- 1 ),( 45 )( 46 )(- 1 )}   => {BUY} 0.001017018 0.4687500    2.475329 15    
[ 14 ] {( 19 )( 18 )(- 1 ); 1 ,( 60 )( 57 )(- 1 )} => {BUY} 0.001220422 0.4615385    2.437247 18    
[ 15 ] {( 25 )( 23 )(- 1 ); 1 ,( 47 )( 45 )(- 1 )} => {BUY} 0.001152621 0.4594595    2.426268 17    
[ 16 ] {( 40 )( 41 )(- 1 ),( 71 )( 71 )(- 1 )}   => {BUY} 0.001152621 0.4594595    2.426268 17    
[ 17 ] {( 2 )( 1 )(- 1 ); 4 ,( 6 )( 6 )(- 1 )}     => {BUY} 0.001084819 0.4571429    2.414035 16 


새 데이터에 대한 규칙 "1"(최상)이 있습니다.

저글링 없이 있는 그대로 있는 그대로..

이 주제가 흥미로운지 아닌지 스스로 결정하십시오.

같은 것의 연속


그런 다음 "위에서"이 입력으로 AMO를 던져 입력 / 입력하지 않음 을 필터링 할 수 있습니다.

또한 패턴의 수와 품질을 높일 수 있는 무한한 가능성이 있습니다.

멋져 보일지 모르지만 나는 이미 힘도 없고 퓨즈도 없고, 창조적인 폭식에 빠졌다((



레벨이 차량 제작에 가장 유망한 도구라고 생각합니다...

내가 이해하기로는 이 수준은 Williams를 이길 수 있는 어리석은 프랙탈이 아니라 특정 가격의 일종의 이벤트, 아마도 "많은 달리기"일 가능성이 큽니다.

 
mytarmailS :

그런 다음 "위에서"이 입력으로 AMO를 던져 입력 / 입력하지 않음 을 필터링 할 수 있습니다.

또한 패턴의 수와 품질을 높일 수 있는 무한한 가능성이 있습니다.

멋져 보일지 모르지만 나는 이미 힘도 없고 퓨즈도 없고, 창조적인 폭식에 빠졌다((

퓨즈가 나타나면 읽을 것입니다))

 
막심 드미트리예프스키 :

퓨즈가 나타나면 읽을 것입니다))

예, Google에서 더 짧은 것을 찾으십시오. 본질적으로 읽을 것이 없습니다.

 
오, 도대체... 사람들은 술을 마시지 않고, 절대 마시지 않고, 절대, 절대....
 
mytarmailS :
오, 도대체... 사람들은 술을 마시지 않고, 절대 마시지 않고, 절대, 절대....
무슨 말인지 알아. 둘째날 출발합니다 :-)
 

나는 당신이 템플릿을 찾으려고하는 것을 봅니다. 3페니만큼 간단하다) 이것이 파동론이다. 그러나 현재 공개적으로 사용할 수 없습니다.

당신이 22년 동안 결혼 생활을 했다고 상상해 보십시오. 오늘이나 내일 이혼할 확률은 얼마나 됩니까? 머신 러닝에 이러한 이해를 가르치고 그런 다음에만 금융 시장과 같은 더 간단한 문제로 넘어갑니다.

주제에 접근하기 어렵다는 것을 이해합니다.

그는 Yusuf의 말을 존중했습니다. 그는 항상 역사의 연속성과 현재 순간에 대해 정확하게 말했습니다. 그리고 미래에 대한 중요성.