그리고 일반적으로. 당신이하고있는 일을 이해하기 위해 기사를 읽으면 제한이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0,95...,0,98의 매우 좁은 범위는 DR 측면에서도 나쁘며 결과는 매우 가깝습니다.
그리고 일반적으로. 기사를 읽고 수행중인 작업을 이해하면 제한 사항이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0.95...,0.98의 매우 좁은 범위도 나쁘다 - 결과는 매우 가깝습니다.
나는 당신이 아무것도 아닌 수익성있는 TS를 제출해야한다는 것을 이해합니다....
나는 이미이 것을 테스트하기위한 알고리즘을 설명했지만 메트릭에는 단 하나의 뉘앙스가 있습니다.
이익과 손실이 있잖아요?
그래서 포지션이 오픈되어 있을 때 해당 주에서 리턴을 받습니다.
네.
다른 TS 설정 대신 다른 섹션에서 거래를하면 동일하게 사용할 수 있다고 생각합니다.
잘 모르겠어요
그리고 일반적으로. 당신이하고있는 일을 이해하기 위해 기사를 읽으면 제한이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0,95...,0,98의 매우 좁은 범위는 DR 측면에서도 나쁘며 결과는 매우 가깝습니다.
yes
잘 모르겠습니다.
그리고 일반적으로. 기사를 읽고 수행중인 작업을 이해하면 제한 사항이 있습니다. 예를 들어, -1000000에서 +1000000이 아닌 분명히 성공적인 설정을 제공해야합니다. 모든 것을 연속으로 제공하면 평균 OOS가 바닥에 있고 비교할 필요가 없습니다. 0.95...,0.98의 매우 좁은 범위도 나쁘다 - 결과는 매우 가깝습니다.
나는 당신이 아무것도 아닌 수익성있는 TS를 제출해야한다는 것을 이해합니다....
나는 이미이 것을 테스트하기위한 알고리즘을 설명했지만 메트릭에는 단 하나의 뉘앙스가 있습니다.
4 + 1 메트릭을 모두 최적화해야 하나요?
아니면
수익성 있는 TC를 제출해야 한다는 것을 알고 있습니다.
이 테스트 알고리즘을 이미 설명했지만 메트릭에는 한 가지 뉘앙스가 있습니다.
4 + 1 메트릭을 모두 최적화해야 합니다.
또는
하지만 교육 없이 어떻게 교차 검증을 하는지 이해할 수 없습니다. 그들은 준비된 반환 세트를 제공 한 다음 12,000 개의 변형에 혼합합니다. 12000개의 IS 각각에 대해 훈련하고 각각의 해당 OOS에 대해 예측해야 합니다.
이것이 학습되는 방식입니다.
이제 패키지를 살펴볼 차례입니다.
그렇게 가르칩니다.
외부 모델 예측의 안정성을 평가하는 것일 뿐입니다.
포리스트/NS 하이퍼파라미터는 어디에 있나요? 아니요 - 훈련이 아닙니다.
외부 모델 예측의 안정성을 평가하는 것일 뿐입니다.
제가 알기로는 선형 회귀를 통해 안정성을 추정하는 것으로 알고 있습니다.
논문에서 포레스트/NS에 대한 내용이 있나요?나는 경쟁에 대해 조금 이해하지 못합니다. 교수 레다, 교수 레다가 아니라 과제가 있고 과제의 정확성에 대한 토론이 더 관련이 있으며 정확하다면 왜 안 되나요?
나는 홀리 바의 모든 참가자의 의견을 존중하지만 다른 의견이 있습니다))))))
외부 또는 기타 매개 변수가 없으면 모든 것이 매우 복잡하거나 오히려 영구 운동 기계에 가깝습니다))))) 그러나 외부 매개 변수를 사용하면 동일한 큰 문제가 있습니다)
평균으로 돌아가는 것이 가장 이해하기 쉽고 영원한 것이 가장 쉽고 작은 TF 오류가 적지 만 세이버 틱은 또한 검은 백조를 제공합니다))))).
내가 이해하는 선형 회귀를 통해 안정성을 추정합니다.
기사에서 숲/NS에 대한 내용이 있나요?아니면 간단한 건가요? 딸랑이처럼요?
첫 번째 파일은 크고 두 번째 파일은 더 작을 수 있지만 첫 번째 파일에 비해 최신 날짜가 있는 두 개의 파일을 가져옵니다.
무작위 샘플링을 통해 첫 번째 파일을 훈련, 테스트, 검증의 세 부분으로 70/15/15 비율로 나눕니다.
훈련에서는 교차 검증(예: 5배)을 통해 학습합니다. 1배가 최소 1500바이면 훈련 = 7500바가 됩니다. 원에서는 두 개의 소스 파일에 대해 15000개의 막대로 충분합니다.
학습된 모델을 테스트, 유효성 검사에서 실행하고 각각에 대한 분류 오류를 얻습니다 .
그런 다음 두 번째 파일에 대해 1500개의 막대 창을 실행합니다. 분류 오류를 수집합니다.
얻은 모든 분류 오차가 5% 채널 내에 있으면 모든 것이 정상이며, 얻은 분류 오차를 신뢰할 수 있고 재학습할 필요가 없습니다.
간단하게 정리해보는 건 어떨까요?
두고 보죠.
먼저 알고리즘을 실행하고 테스트해보고, 작동하지 않으면 버리고 잊어버리세요... 99%.
작동하면 기사를 자세히 살펴보고 방법을 자세히 살펴보고 개선 / 변경 / 대체를 시도 할 수 있습니다 .