트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3023

 
Maxim Dmitrievsky #:

이는 쉽게 자동화되며 사람의 개입 없이 작동합니다.

지난 글에서 비슷한 알고리즘을 소개한 바 있습니다.

본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다.

그리고 곡물 만 첫 번째 모델에 남아 있습니다.

트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다.

나는 위에서 모델 오류를 버릴 수 없다는 것을 정당화했습니다.

나는 내 의견을 바꾸고 싶습니다.

그러나이 목적을 위해 필요합니다.

훈련 선택 및 외부의 초기 모델 평가

훈련 선택 외부에서 이전 두 모델과 일치하지 않는 "정리된" 모델의 평가

할 수 있을까요?

 
СанСаныч Фоменко #:

모델 오류를 무시할 수 없다는 점을 위에서 정당화했습니다.

의견을 변경하고 싶습니다.

하지만 그렇게 하려면.

훈련 선택 온/오프 시 초기 모델 평가하기

훈련 선택 외부에서 이전 두 모델과 일치하지 않는 '정리된' 모델 추정

할 수 있을까요?

위에 몇 가지 화면을 추가했습니다.

이런 식으로 알곡과 왕겨를 분리하는 알고리즘은 다를 수 있으므로 어떻게 하는지 보여드리겠습니다.

점선 왼쪽은 어떤 식 으로든 훈련에 참여하지 않는 OOS입니다.

증분과 같은 간단한 기호에 대한 학습

노란색 곡선은 따옴표 자체의 차트이므로 보지 마세요. 하지만 어떤 상황에서 모델이 더 잘 작동하는지/더 나빠지는지를 이해하는 데 사용할 수 있습니다.
 

한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오.

그리고 OOS의 오류는 점차적으로 감소하며,이 경우 r^2가 증가합니다.

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
본질적으로 이것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다.
 
Aleksey Vyazmikin #:

모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard의 책입니다.

Fast.ai.

원본 책

러시아어로 책 읽기

무료 버전

 
Maxim Dmitrievsky #:

한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오.

그리고 OOS 오류는 점차적으로 감소하며이 경우 r^2가 증가합니다.

본질적으로 그것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다.

저에게는 견적에 과도하게 맞습니다.

"샘플 부족"은 어디에 있습니까?

 
그런 식으로 나무를 엉망으로 만든 다음 규칙을 꺼내면 더 나아질 수도 있습니다.
 
СанСаныч Фоменко #:

제게는 이 인용문이 아주 잘 어울립니다.

"샘플 부족"은 어디에 있나요?

더 이상 재미없어요.

 
Aleksey Vyazmikin #:

파이썬에서 나뭇잎을 선택할 수 있는 나무로 이 모자를 만들 것을 제안하고, 콜랩에서 데이터 세트를 거기에 넣을 수 있습니다.

더 나은 / 더 나쁜 것이 무엇인지, 최고만을 취하는 규칙 또는 일부 필터를 통해 아이디어가 있으면 제안하십시오.

하나의 데이터 세트를 두 가지 접근 방식을 통해 실행하여 비교하고 싶습니다. 그러면 무엇이 무엇인지 이해할 수 있을 것입니다.)

 
Maxim Dmitrievsky #:

이는 쉽게 자동화되며 사람의 개입 없이 작동합니다.

지난 글에서 비슷한 알고리즘을 소개한 바 있습니다.

본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다.

그리고 곡물 만 첫 번째 모델에 남아 있습니다.

트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다.

예를 들어 왕겨에서 곡물을 선택하는 첫 번째 반복(수직 점선 왼쪽 - OOS)을 예로 들 수 있습니다:

그리고 여기에 10번째가 있습니다:


예, 요점은 동일합니다. 궁극적으로 예측 변수를 더 잘 설명하는 데이터로 작업해야 한다는 것입니다.

이를 가장 효율적으로 수행하는 방법은 여전히 미지의 문제이며, 각 방법에는 장단점이 있습니다.

 
Rorschach #:

모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard가 쓴 책입니다.

Fast.ai.

원본의 책

러시아어로 된 책

무료 버전

고마워요! 러시아어로 된 무료 버전을 찾아야겠어요 - 번역가가 가끔 진주를 만들고 소금물에 대해 알려주는데, 유용할 수 있습니다 :)