트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3287

 
Forester #:


그리고 네-열차 섹션의 크기에 따라 크게 달라집니다. 예를 들어, 20000 라인에서는 앞으로 무언가가 발견되지만 5000 또는 100000에서는 무작위로 발견됩니다.

"무언가"가 발견되면 일반적으로 훈련 이외의 수명은 얼마입니까?

 
Maxim Dmitrievsky #:
😀

사각형이 무슨 뜻인지도 모르겠어요. 아마 사과 남자가 쓴 것일 거예요 :)

 
Aleksey Vyazmikin #:

'무언가'가 발견되면 일반적으로 교육 외의 수명은 얼마나 되나요?

저는 일주일에 한 번 모델을 재교육합니다. 더 오래 살 수도 있지만, 나는 그것을 연구하지 않았습니다.... 그러나 더 적을 수 있으며 모든 바에서 SanSanych처럼 재교육이 필요합니다 (H1의 경우 원칙적으로 가능).
저에게는 일주일에 한 번 속도 측면에서 허용됩니다. 5 년 동안 260 번의 재교육이 대략 통과합니다.
 
Aleksey Vyazmikin #:

실제로 훈련의 성공 여부는 표본 크기에 따라 달라진다는 결론을 잠정적으로 내릴 수 있습니다. 그러나 "-1p1-2" 표본의 결과는 "-1p2-3" 표본과 비슷하고 일부 기준에서는 더 나은 반면, "0p1-2" 표본의 경우 주어진 기준을 충족하는 모델 수 측면에서 결과가 두 배나 나쁘다는 점에 주목할 수 있습니다.

이제 기차 샘플은 초기 시험+테스트+train_p3 샘플로 구성되고, 테스트 샘플은 train_p2, 시험은 train_p1인 반전된 연대순으로 샘플을 실행해 보았습니다. 목표는 10년 전에 효과가 있었던 더 최근의 데이터로 성공적인 모델을 구축할 수 있는지 확인하는 것입니다.

어떤 결과가 나올까요?

오래 기다릴 필요가 없었습니다. 결과는 표의 마지막 열에 있습니다.

편향되지 않은 방식으로 의견을 말씀드리겠습니다. 한편으로는 샘플의 연대기를 변경하면 주요 기준 인 적합한 모델의 수에 따라 결과가 크게 악화되었다고 말할 수 있지만 다른 한편으로는 그러한 모델이 발견되었다는 사실 자체가 데이터에 안정적인 패턴이 있음을 나타냅니다. 아니면 무작위일까요? 예, 물론 다른 샘플을 채취하여 유사한 연구를 수행해야만 더 확신을 가지고 결론을 도출할 수 있습니다. 현재로서는 이것은 단지 생각해 볼 정보일 뿐입니다.

객관적으로 많은 데이터가 있습니다. 저는 일반적으로 연대기 과정과 비슷하지만 더 작은 샘플을 여러 번 훈련에 사용합니다. 모든 실험에서 리콜률이 더 슬퍼 보입니다. 아무도 관심을 기울이지 않았다는 사실에 놀라울 정도입니다. 일반적으로 고정 테이크아웃과 정지를 사용하지 않는 경우 표준 지표는 재무 결과를 제대로 나타내지 못한다고 반복해서 말할 수 있습니다.

여기에 (샘플 플롯) 다른 것을 결합 할 아이디어 / 희망 사항이 있으면 알려주세요 - 어떻게 될지 확인해보겠습니다.

 
Forester #:
일주일에 한 번 모델을 재교육합니다. 더 오래 살 수 있습니다, 나는 그것을 연구하지 않았습니다.... 그러나 아마도 더 적을 수 있으며 각 바에서 SanSanych처럼 재교육이 필요합니다 (H1 인 경우 원칙적으로 가능).
저에게는 일주일에 한 번 속도면에서 허용됩니다. 5 년 동안 260 번의 재교육이 대략 통과합니다.

이러한 재교육의 총체적인 결과는 무엇입니까?

 
Aleksey Vyazmikin #:

이러한 재교육의 총체적인 결과는 무엇인가요?

제가 작년 한 해 동안 보여드린 모든 그래프는 이런 방식으로 얻은 것입니다. 발킹 포워드에 의한 OOS만 있습니다.
 
Andrey Dik #:

맥스, 왜 날 놀리는지 모르겠어요.

가정이 없다면 아무 말도 하지 말고, 가정이 있다면 "결과는 형편없을 거야"처럼 말하세요.

웃기면 웃고, 슬프면 울면 됩니다.

알렉세이 비야즈미킨이 여기서 논의하는 것은 암시를 유발할 수 없으며 "형편없다 - 형편없지 않다"를 평가하는 것은 불가능합니다.

예를 들어, 한 남자가 다가와서 이렇게 말합니다:

- 달에 다리미를 보내자고요.

우리는 놀란 눈으로 바라봅니다.

그리고 남자가 말합니다:

- 다리미의 온도를 바꾸고 물의 양을 다르게 넣겠습니다.

"가정이 없다면 침묵하고, 가정이 있다면 "결과는 형편없을 것"이라고 말하겠습니까?"라고 반응하시겠습니까 ?

렉세이 비야즈미킨이 하는 일은 국방부의 문제와는 아무런 관련이 없습니다. 그는 한 오페라에서 가져와서 다른 오페라에서 답을 얻으려고 하는데, 머릿속이 엉망인 남자의 공허한 수다일 뿐입니다.

 
Forester #:
작년 한 해 동안 제가 보여드린 모든 그래프는 이 방법으로 얻은 것입니다. 발킹 포워드의 OOS 만.

사진으로 판단하면 리콜도 낮습니다. 즉, 모델은 어떤 것에 대한 확신이 거의없고 예측에 매우 신중합니다.

 
Forester #:
일주일에 한 번 모델을 재교육합니다. 더 오래 살 수 있습니다, 나는 그것을 연구하지 않았습니다.... 그러나 아마도 더 적을 수 있으며 각 바에서 SanSanych처럼 재교육이 필요합니다 (H1 인 경우 원칙적으로 가능).
저에게는 일주일에 한 번 속도 측면에서 허용됩니다. 5 년 동안 260 번의 재교육이 대략 통과합니다.

저는 여기서 한 가지 근본적인 문제를 발견했습니다. 그것은 다음과 같은 방식으로 나타납니다. 우리는 하나의 큰 파일 조각을 가져 와서 가르치고 테스트하고 확인합니다. 모든 것이 정상이며 오류는 거의 동일합니다. 그러나 하나의 큰 파일의 일부인 이 세 파일을 벗어나면 결과는 근본적으로 달라지며 일반적으로 치명적인 결과를 초래합니다.

모든 단계에서 재학습을 하면 학습과 동일한 예측값으로 예측을 수행하기 때문에 '앞을 내다보는' 문제가 제거됩니다.

그리고 모든 단계에서 학습하지 않으면 학습 섹션을 포함한 모든 예측자가 일부 값에 대해 학습된 다음 예측됩니다. 그리고 여기에 질문이 있습니다: 예측자의 새로운 값이 학습 플롯의 예측자 값과 일치할까요, 아니면 일치하지 않을까요?

 
СанСаныч Фоменко #:

여기서 저는 한 가지 근본적인 문제를 발견했습니다. 그것은 다음과 같은 방식으로 나타납니다. 하나의 큰 파일 조각을 가져 와서 연구 한 다음 테스트하고 확인합니다. 모든 것이 정상이며 오류는 거의 동일합니다. 그러나 하나의 큰 파일의 일부인 이 세 파일을 외부에서 실행하자마자 결과는 근본적으로 다르며 일반적으로 치명적입니다.

각 단계에서 재학습을 하면 학습과 동일한 예측값으로 예측을 수행하기 때문에 '앞을 내다보는' 문제가 제거됩니다.

그리고 모든 단계에서 학습하지 않으면 학습 섹션을 포함한 모든 예측자가 일부 값에 대해 학습된 다음 예측됩니다. 그리고 여기에 질문이 있습니다: 예측자의 새로운 값이 학습 플롯의 예측자 값과 일치할까요, 아니면 일치하지 않을까요?

이 엿보기는 어디에 있나요?

몇 번 읽었지만 단어 뒤에 숨은 논리를 보지 못했습니다.

그들은 문제를 발명하고 영웅적으로 문제를 해결합니다. 하나는 미래를 내다보고, 다른 하나는 완벽한 마크업을 찾고 있습니다....

사유: