트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 596

 
알렉세이 테렌테프 :
교차 검증(K-fold)을 시도합니다.
새로운 데이터의 영향을 증폭하는 데 어떻게 도움이 될까요?
 
도서관 :
새로운 데이터의 영향을 증폭하는 데 어떻게 도움이 될까요?
음, 스스로 생각해 보십시오. 별도의 데이터 블록을 제공하여 모델을 훈련하면 시계열 시퀀스에서 모델에 약간의 독립성을 부여하여 새 데이터가 "편향" 없이 평가된다는 사실로 이어집니다.
 
알렉세이 테렌테프 :
음, 스스로 생각해 보십시오. 별도의 데이터 블록을 제공하여 모델을 훈련하면 시계열 시퀀스에서 모델에 약간의 독립성을 부여하여 새 데이터가 "편향" 없이 평가된다는 사실로 이어집니다.

"시계열 시퀀스 독립성"은 혼합에 의해 제공됩니다. 그것 없이는 모델이 전혀 나오지 않습니다.

그리고 문제는 혼합할 때 모델이 새로운 시장 동향을 신속하게 포착할 수 있도록 최신 데이터의 중요성을 높이는 방법입니다.

 
도서관 :

"시계열 시퀀스 독립성"은 혼합에 의해 제공됩니다. 그것 없이는 모델이 전혀 나오지 않습니다.

그리고 문제는 혼합할 때 모델이 새로운 시장 동향을 신속하게 포착할 수 있도록 최신 데이터의 중요성을 높이는 방법입니다.

예비 교육은 오래된 데이터에 대해 수행됩니다. 훈련의 마지막 단계는 새로운 데이터에 대해 수행됩니다.
 

즉, 2단계로 훈련?
많은 양의 데이터에 대한 교육 + 새로운 데이터에 대한 결과 모델의 추가 교육.
당신은 또한 시도 할 수 있습니다.


나는 아이디어가 있었는데, 훈련 데이터의 총 배열에 새로운 데이터를 2-3번 추가하기만 하면 됩니다. 믹스아웃해도 그 의미는 더 커질 것이다.

 
도서관 :

그래서 나는 모든 것이 뒤죽박죽이라면 어떻게 새로운 데이터를 만드는 것이 학습에 더 강력한 영향을 미칠까?

가장 최근의 훈련 예제를 여러 번 복제하는 것과 같은 트릭이 있습니다.
그리고 예를 들어 gbm 패키지에서는 각 훈련 예제에 대해 특정 중요도 계수를 설정할 수 있지만 이것은 뉴런이 아니라 그냥 예로 든 것입니다.


도서관 :

"시계열 시퀀스 독립성"은 혼합에 의해 제공됩니다. 그것 없이는 모델이 전혀 나오지 않습니다.

대부분의 모델에서 일련의 예제에 대한 의존성과 같은 것은 전혀 없습니다. 예를 들어 뉴런에서 각 훈련 예제에 대해 오류가 계산되면 모든 오류의 합이 가중치의 변화에 영향을 미칩니다. 합계는 항의 위치를 바꿔도 변하지 않습니다.

그러나 동시에 모델에는 종종 batch.size 매개변수 등이 있으므로 훈련에 사용할 훈련 데이터의 비율에 영향을 줍니다. 훈련을 위해 아주 작은 비율의 데이터를 사용하고 혼합을 끄면 모델은 매번 동일한 작은 세트를 사용하고 모든 것이 나쁘게 끝납니다. darch에 대해 구체적으로 알지 못하지만 믹싱을 비활성화해도 완전한 실패가 발생해서는 안 됩니다. 다른 매개변수에 문제가 있는 것입니다.


알렉세이 테렌테프 :
교차 검증(K-폴드)을 시도합니다.

전적으로 지지합니다. 모델 작성자가 과적합으로부터의 보호에 대해 어떤 큰 말을 하든 이것이 사실인지 여부는 k-fold만이 보여줄 것입니다.

 
정리하고 결론을 내릴 때입니다.
그리고 연습을 보여줍니다.
 
알렉산더 이바노프 :
정리하고 결론을 내릴 때입니다.
그리고 연습을 보여줍니다.

곧 .. "거의 완료"

나는 내 인생에서 그런 제스처를 한 적이 없다

 
막심 드미트리예프스키 :

곧 .. "거의 완료"

나는 내 인생에서 그런 제스처를 한 적이 없다

와우~ 시연을 하려고 손을 비비고 계시네요 😀👍👍👍 신선하고 맛있는 할머니파이 처럼😂😀
 
물론 IMHO이지만 여기 지점의 모든 페이지에서 SanSanych의 슬로건으로 시작해야 합니다. "입구의 쓰레기 - 출구의 쓰레기"입니다. 그리고 모든 인지 및 창조적 재능은 우선 입력에서 쓰레기를 줄이는 것을 목표로 해야 하며, 그런 다음에만 컴퓨터 하드웨어를 극한까지 로드하려고 시도해야 합니다.