트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3023 1...301630173018301930203021302230233024302530263027302830293030...3399 새 코멘트 СанСаныч Фоменко 2023.04.12 08:36 #30221 Maxim Dmitrievsky #:이는 쉽게 자동화되며 사람의 개입 없이 작동합니다. 지난 글에서 비슷한 알고리즘을 소개한 바 있습니다. 본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다. 그리고 곡물 만 첫 번째 모델에 남아 있습니다. 트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다. 나는 위에서 모델 오류를 버릴 수 없다는 것을 정당화했습니다. 나는 내 의견을 바꾸고 싶습니다. 그러나이 목적을 위해 필요합니다. 훈련 선택 및 외부의 초기 모델 평가 훈련 선택 외부에서 이전 두 모델과 일치하지 않는 "정리된" 모델의 평가 할 수 있을까요? Maxim Dmitrievsky 2023.04.12 08:38 #30222 СанСаныч Фоменко #:모델 오류를 무시할 수 없다는 점을 위에서 정당화했습니다. 의견을 변경하고 싶습니다. 하지만 그렇게 하려면. 훈련 선택 온/오프 시 초기 모델 평가하기 훈련 선택 외부에서 이전 두 모델과 일치하지 않는 '정리된' 모델 추정 할 수 있을까요? 위에 몇 가지 화면을 추가했습니다. 이런 식으로 알곡과 왕겨를 분리하는 알고리즘은 다를 수 있으므로 어떻게 하는지 보여드리겠습니다. 점선 왼쪽은 어떤 식 으로든 훈련에 참여하지 않는 OOS입니다. 증분과 같은 간단한 기호에 대한 학습 노란색 곡선은 따옴표 자체의 차트이므로 보지 마세요. 하지만 어떤 상황에서 모델이 더 잘 작동하는지/더 나빠지는지를 이해하는 데 사용할 수 있습니다. Maxim Dmitrievsky 2023.04.12 08:48 #30223 한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오. 그리고 OOS의 오류는 점차적으로 감소하며,이 경우 r^2가 증가합니다. Iteration: 0, R^2: 0.10170503363002426 Iteration: 1, R^2: 0.3786110827222656 Iteration: 2, R^2: 0.36326063198923375 Iteration: 3, R^2: 0.4316690005974817 Iteration: 4, R^2: 0.71390099630815 Iteration: 5, R^2: 0.8178962191209952 본질적으로 이것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다. Rorschach 2023.04.12 09:08 #30224 Aleksey Vyazmikin #: 모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard의 책입니다. Fast.ai. 원본 책 러시아어로 책 읽기 무료 버전 СанСаныч Фоменко 2023.04.12 09:14 #30225 Maxim Dmitrievsky #:한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오. 그리고 OOS 오류는 점차적으로 감소하며이 경우 r^2가 증가합니다. 본질적으로 그것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다. 저에게는 견적에 과도하게 맞습니다. "샘플 부족"은 어디에 있습니까? Maxim Dmitrievsky 2023.04.12 09:20 #30226 그런 식으로 나무를 엉망으로 만든 다음 규칙을 꺼내면 더 나아질 수도 있습니다. Maxim Dmitrievsky 2023.04.12 09:20 #30227 СанСаныч Фоменко #:제게는 이 인용문이 아주 잘 어울립니다. "샘플 부족"은 어디에 있나요? 더 이상 재미없어요. Maxim Dmitrievsky 2023.04.12 09:51 #30228 Aleksey Vyazmikin #: 파이썬에서 나뭇잎을 선택할 수 있는 나무로 이 모자를 만들 것을 제안하고, 콜랩에서 데이터 세트를 거기에 넣을 수 있습니다. 더 나은 / 더 나쁜 것이 무엇인지, 최고만을 취하는 규칙 또는 일부 필터를 통해 아이디어가 있으면 제안하십시오. 하나의 데이터 세트를 두 가지 접근 방식을 통해 실행하여 비교하고 싶습니다. 그러면 무엇이 무엇인지 이해할 수 있을 것입니다.) Aleksey Vyazmikin 2023.04.12 11:01 #30229 Maxim Dmitrievsky #:이는 쉽게 자동화되며 사람의 개입 없이 작동합니다. 지난 글에서 비슷한 알고리즘을 소개한 바 있습니다. 본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다. 그리고 곡물 만 첫 번째 모델에 남아 있습니다. 트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다. 예를 들어 왕겨에서 곡물을 선택하는 첫 번째 반복(수직 점선 왼쪽 - OOS)을 예로 들 수 있습니다: 그리고 여기에 10번째가 있습니다: 예, 요점은 동일합니다. 궁극적으로 예측 변수를 더 잘 설명하는 데이터로 작업해야 한다는 것입니다. 이를 가장 효율적으로 수행하는 방법은 여전히 미지의 문제이며, 각 방법에는 장단점이 있습니다. Aleksey Vyazmikin 2023.04.12 11:07 #30230 Rorschach #:모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard가 쓴 책입니다. Fast.ai. 원본의 책 러시아어로 된 책 무료 버전 고마워요! 러시아어로 된 무료 버전을 찾아야겠어요 - 번역가가 가끔 진주를 만들고 소금물에 대해 알려주는데, 유용할 수 있습니다 :) 1...301630173018301930203021302230233024302530263027302830293030...3399 새 코멘트 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
이는 쉽게 자동화되며 사람의 개입 없이 작동합니다.
지난 글에서 비슷한 알고리즘을 소개한 바 있습니다.
본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다.
그리고 곡물 만 첫 번째 모델에 남아 있습니다.
트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다.
나는 위에서 모델 오류를 버릴 수 없다는 것을 정당화했습니다.
나는 내 의견을 바꾸고 싶습니다.
그러나이 목적을 위해 필요합니다.
훈련 선택 및 외부의 초기 모델 평가
훈련 선택 외부에서 이전 두 모델과 일치하지 않는 "정리된" 모델의 평가
할 수 있을까요?
모델 오류를 무시할 수 없다는 점을 위에서 정당화했습니다.
의견을 변경하고 싶습니다.
하지만 그렇게 하려면.
훈련 선택 온/오프 시 초기 모델 평가하기
훈련 선택 외부에서 이전 두 모델과 일치하지 않는 '정리된' 모델 추정
할 수 있을까요?
위에 몇 가지 화면을 추가했습니다.
이런 식으로 알곡과 왕겨를 분리하는 알고리즘은 다를 수 있으므로 어떻게 하는지 보여드리겠습니다.
점선 왼쪽은 어떤 식 으로든 훈련에 참여하지 않는 OOS입니다.
증분과 같은 간단한 기호에 대한 학습
노란색 곡선은 따옴표 자체의 차트이므로 보지 마세요. 하지만 어떤 상황에서 모델이 더 잘 작동하는지/더 나빠지는지를 이해하는 데 사용할 수 있습니다.한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오.
그리고 OOS의 오류는 점차적으로 감소하며,이 경우 r^2가 증가합니다.
본질적으로 이것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다.모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard의 책입니다.
Fast.ai.
원본 책
러시아어로 책 읽기
무료 버전
한 번에 많은 오류를 버리면 교사가 퇴화하므로 (오류가 많고 입자가 0이 남을 수 있음) 각 반복에서 점차적으로 버리십시오.
그리고 OOS 오류는 점차적으로 감소하며이 경우 r^2가 증가합니다.
본질적으로 그것은 fxsaber의 bestinterval과 유사하며 여기에서만 TS가 한 번에 준비됩니다.저에게는 견적에 과도하게 맞습니다.
"샘플 부족"은 어디에 있습니까?
제게는 이 인용문이 아주 잘 어울립니다.
"샘플 부족"은 어디에 있나요?
더 이상 재미없어요.
파이썬에서 나뭇잎을 선택할 수 있는 나무로 이 모자를 만들 것을 제안하고, 콜랩에서 데이터 세트를 거기에 넣을 수 있습니다.
더 나은 / 더 나쁜 것이 무엇인지, 최고만을 취하는 규칙 또는 일부 필터를 통해 아이디어가 있으면 제안하십시오.
하나의 데이터 세트를 두 가지 접근 방식을 통해 실행하여 비교하고 싶습니다. 그러면 무엇이 무엇인지 이해할 수 있을 것입니다.)
이는 쉽게 자동화되며 사람의 개입 없이 작동합니다.
지난 글에서 비슷한 알고리즘을 소개한 바 있습니다.
본질적으로 모델 오류를 필터링하고 별도의 클래스 "거래하지 않음"에 넣는 것이며, 곡물과 왕겨를 분리하는 방법을 배우는 두 번째 모델을 통해 더 좋습니다.
그리고 곡물 만 첫 번째 모델에 남아 있습니다.
트리 규칙과 동일하지만 측면에서 볼 수 있습니다. 그러나 규칙은 약탈하고 서로 비교해야하며 출력에 이미 정제 된 TS가 있습니다.
예를 들어 왕겨에서 곡물을 선택하는 첫 번째 반복(수직 점선 왼쪽 - OOS)을 예로 들 수 있습니다:
그리고 여기에 10번째가 있습니다:
예, 요점은 동일합니다. 궁극적으로 예측 변수를 더 잘 설명하는 데이터로 작업해야 한다는 것입니다.
이를 가장 효율적으로 수행하는 방법은 여전히 미지의 문제이며, 각 방법에는 장단점이 있습니다.
모두 나열된 것 같습니다. 이 책은 Kaggle과 framevoc fast.ai의 창립자인 Jeremy Howard가 쓴 책입니다.
Fast.ai.
원본의 책
러시아어로 된 책
무료 버전
고마워요! 러시아어로 된 무료 버전을 찾아야겠어요 - 번역가가 가끔 진주를 만들고 소금물에 대해 알려주는데, 유용할 수 있습니다 :)