트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1854

 
그렇다면 거래소에 OI 아카이브가 없거나 무엇입니까? 판매하는 유료 서비스가 있습니다.
 
막심 드미트리예프스키 :
그렇다면 거래소에 OI 아카이브가 없거나 무엇입니까? 판매하는 유료 서비스가 있습니다.
아카이브가 없다는 점입니다. OI를 역사에서 가져올 수 있도록 사본에 OI를 포함하는 것이 오랫동안 개발자에게 제안되었습니다. 그러나 몇 가지 제한 사항이 있는 것 같습니다. 옵션으로 나에게 조언자를 만든 친구에게 물어볼 수 있습니다. 그는 항상 그것을 쓰지만 모든 악기에 쓰는 것은 아닙니다. 지표의 곡선 때문에 쓰기를 멈췄습니다 :-(
 

다른 오류 감지 방법의 동작에서 이상한 기능을 발견했습니다. 회귀 모델. 지도 학습 y = 0 또는 1 . 타이타닉 데이터.

   oob  RMSEr     AvgEr     AvgRelEr    Train RMSEr     AvgEr     AvgRelEr

        0.409762  0.333394  0.431368          0.406325  0.330199  0.430042
        0.384805  0.293965  0.377680          0.380747  0.289936  0.377605
        0.383891  0.286546  0.356373          0.370912  0.275152  0.358349
        0.370671  0.261466  0.321370          0.353781  0.250322  0.326013
        0.380332  0.259588  0.299060          0.337633  0.227993  0.296931
        0.388428  0.248587  0.245976          0.309293  0.191325  0.249176
        0.401764  0.237416  0.195562          0.273932  0.150077  0.195456

Train 에 따르면 모든 것이 원래대로이며 더 많이 배울수록 모든 방법에 대해 오류가 더 적습니다.

OOB에 따르면 RMSE 오류는 0.370671 에 도달한 다음 증가하기 시작하여 재교육이 시작되었음을 나타냅니다. 그러나 AvgEr 및 AvgRelEr는 계속해서 더 하락하고 있습니다. 모든 오류는 동기식으로 동작해야 합니다. RMSE와 함께 성장하기 시작했어야 합니다.
계산 공식:

 for (r= 0 ;r<rows;r++){
  RMSEr += Sqr (pred[r] - y[r]);
  AvgEr += fabs (pred[r] - y[r]);
}
//После суммирования:
RMSEr= sqrt (RMSEr / rows);
AvgEr = AvgEr / rows;

계산은 매우 유사하지만(제곱(Sqr) 및 절대값(팹)은 부호를 제거함) 곡선의 동작이 다릅니다...
분류 모델로 훈련을 반복했는데 RMSE가 0.370671에 도달하는 지점에서도 최소값을 갖습니다.
누구든지 이런 종류의 오류 동작이 발생했습니까? 이것을 어떻게 설명할 수 있습니까?

 
도서관 :

다른 오류 감지 방법의 동작에서 이상한 기능을 발견했습니다. 회귀 모델. 지도 학습 y = 0 또는 1 . 타이타닉 데이터.

Train 에 따르면 모든 것이 원래대로이며 더 많이 배울수록 모든 방법에 대해 오류가 더 적습니다.

OOB에 따르면 RMSE 오류는 0.370671 에 도달한 다음 증가하기 시작하여 재교육이 시작되었음을 나타냅니다. 그러나 AvgEr 및 AvgRelEr는 계속해서 더 하락하고 있습니다. 모든 오류는 동기식으로 동작해야 합니다. RMSE와 함께 성장하기 시작했어야 합니다.
계산 공식:

계산은 매우 유사하지만(제곱(Sqr) 및 절대값(팹)은 부호를 제거함) 곡선의 동작이 다릅니다...
분류 모델로 훈련을 반복했는데 RMSE가 0.370671에 도달하는 지점에서도 최소값을 갖습니다.
누구든지 이런 종류의 오류 동작이 발생했습니까? 이것을 어떻게 설명할 수 있습니까?

그러나 이것은 실제로 최적화 중에 오류가 먼저 감소하여 증가하기 시작할 때의 주제입니다. 순전히 이론상, 재훈련이 오류 증가의 시작과 함께 시작된다고 가정하면 실제로 오류가 증가하기 시작하는 순간 또는 그 직전에 훈련을 중단해야 합니다. 정의 자체에 관한 것입니다. 이를 어떤 평가 방법으로 구현할지는 또 다른 문제지만, 재훈련 시작의 신호로 오차가 커지기 시작했다는 점은 기발하다. 나는 기립박수를 보냅니다... 비꼬는 말 없이 :-) 이제 이것을 구현할 수 있는 것에 대해 생각하겠습니다...
 
마이클 마르쿠카이테스 :
그러나 이것은 실제로 최적화 중에 오류가 먼저 감소하여 증가하기 시작할 때의 주제입니다. 순전히 이론상으로 재훈련이 오류 증가의 시작과 함께 시작 된다고 가정하면 실제로 오류가 증가하기 시작하는 순간 또는 그 직전에 훈련을 중단해야 합니다. 정의 자체에 관한 것입니다. 이를 어떤 평가 방법으로 구현할지는 또 다른 문제지만 , 재훈련 시작을 알리는 신호로 오차가 커지기 시작했다는 점은 기발 하다. 나는 기립박수를 보냅니다... 비꼬는 말 없이 :-) 이제 나는 이것을 구현할 수 있는 것에 대해 생각할 것입니다...

이것은 오버트레이닝을 결정하는 잘 알려진 방법입니다. 제 생각에는 대략 50년, 즉 신경망과 나무의 출현 초기부터. 예를 들어 V. Perervenko의 기사를 참조하십시오.
이 상황에서 오류의 다른 동작이 명확하지 않습니다. 재교육의 시작은 RMSE에 의해 결정될 수 있지만 다른 사람은 결정할 수 없습니다.

 
도서관 :

이것은 오버트레이닝을 결정하는 잘 알려진 방법입니다. 제 생각에는 대략 50년, 즉 신경망과 나무의 출현 초기부터. 예를 들어 V. Perervenko의 기사를 참조하십시오.
이 상황에서 오류의 다른 동작이 명확하지 않습니다. 재교육의 시작은 RMSE에 의해 결정될 수 있지만 다른 사람은 결정할 수 없습니다.

음야??? 여기 저는 로샤라입니다 :-)
 
도서관 :

다른 오류 감지 방법의 동작에서 이상한 기능을 발견했습니다. 회귀 모델. 지도 학습 y = 0 또는 1 . 타이타닉 데이터.

Train 에 따르면 모든 것이 원래대로이며 더 많이 배울수록 모든 방법에 대해 오류가 더 적습니다.

OOB에 따르면 RMSE 오류는 0.370671 에 도달한 다음 증가하기 시작하여 재교육이 시작되었음을 나타냅니다. 그러나 AvgEr 및 AvgRelEr는 계속해서 더 하락하고 있습니다. 모든 오류는 동기식으로 동작해야 합니다. RMSE와 함께 성장하기 시작했어야 합니다.
계산 공식:

계산은 매우 유사하지만(제곱(Sqr) 및 절대값(팹)은 부호를 제거함) 곡선의 동작이 다릅니다...
분류 모델로 훈련을 반복했는데 RMSE가 0.370671에 도달하는 지점에서도 최소값을 갖습니다.
누구든지 이런 종류의 오류 동작이 발생했습니까? 이것을 어떻게 설명할 수 있습니까?

SMA 및 EMA와 마찬가지로 AvrEr는 더 늦습니다. 제가 이해하는 바는 숫자 게임입니다.

 
Keras를 사용하는 사람이 LSTM용 데이터를 준비하는 방법을 알아냈습니까?
 
마이클 마르쿠카이테스 :
아카이브가 없다는 점입니다. OI를 역사에서 가져올 수 있도록 사본에 OI를 포함하는 것이 오랫동안 개발자에게 제안되었습니다. 그러나 몇 가지 제한 사항이 있는 것 같습니다. 옵션으로 나에게 조언자를 만든 친구에게 물어볼 수 있습니다. 그는 항상 그것을 쓰지만 모든 악기에 쓰는 것은 아닙니다. 지표의 곡선 때문에 쓰기를 멈췄습니다 :-(

미샤, 내가 널 위해 영상을 찍었어, 곧 올려줄게

 
막심 드미트리예프스키 :

미샤, 내가 널 위해 영상을 찍었어, 곧 올려줄게

하자. 어떤 동물인지 함께 보시죠 :-)