트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3285

 
Maxim Dmitrievsky #:
계속 정량화하기 😵‍💫

마지막으로 건전한 조언!

 
Aleksey Vyazmikin #:

마지막 두 열의 결과는 다음과 같습니다.

실제로 결과가 개선되었습니다. 샘플이 클수록 훈련 결과가 더 좋아질 것이라는 가정을 할 수 있습니다.

훈련 샘플의 1부와 2부에 대해 훈련을 시도해야 하며, 결과가 2부와 3부보다 훨씬 나쁘지 않다면 샘플 신선도 요인이 볼륨보다 덜 중요하다고 간주할 수 있습니다.

글쎄-훈련이 완료되었으며 결과는 아래 표의 마지막 두 열에 있습니다.


실제로 훈련의 성공 여부는 표본 크기에 따라 달라진다는 결론을 잠정적으로 내릴 수 있습니다. 그러나 "-1p1-2" 샘플의 결과는"-1p2-3" 샘플과 비슷하고 일부 기준에서는 더 나은 반면, "0p1-2" 샘플의 경우 주어진 기준을 충족하는 모델 수 측면에서 결과가 두 배나 나쁘다는 점에 주목할 수 있습니다.

이제 기차 샘플은 초기 시험+테스트+train_p3 샘플로 구성되고, 테스트 샘플은 train_p2, 시험은 train_p1인 반전된 연대순으로 샘플을 실행해 보았습니다. 목표는 10년 전에 효과가 있었던 더 최근의 데이터로 성공적인 모델을 구축할 수 있는지 확인하는 것입니다.

어떤 결과가 나올까요?

 
Aleksey Vyazmikin #:

교육이 끝났고 결과는 아래 표의 마지막 두 열에 나와 있습니다.


실제로 훈련의 성공 여부는 표본 크기에 따라 달라진다는 결론을 잠정적으로 내릴 수 있습니다. 그러나 "-1p1-2" 샘플의 결과는"-1p2-3" 샘플과 비슷하고 일부 기준에서는 더 나은 반면 "0p1-2" 샘플의 경우 주어진 기준을 충족하는 모델 수 측면에서 결과가 두 배나 나쁘다는 점에 주목할 수 있습니다.

이제 기차 샘플은 초기 시험+테스트+train_p3 샘플로 구성되고, 테스트 샘플은 train_p2, 시험은 train_p1인 반전된 연대순으로 샘플을 실행해 보았습니다. 목표는 10년 전에 효과가 있었던 더 최근의 데이터로 성공적인 모델을 구축할 수 있는지 확인하는 것입니다.

어떤 결과가 나올까요?

조금만 더 노력하면 아주 사소한 결과가 나올 수도 있고... 아니면 결과가 나오지 않을 수도 있지만, 세상을 뒤집어 놓을 발견이 나올 수도 있습니다!

수고하셨습니다!

 
СанСаныч Фоменко #:

두 벡터 사이의 거리로 계산되는 '예측자의 예측력'에 대해 여러 번 글을 썼습니다.

그러던 중 거리를 계산하는 도구 목록을 발견했습니다:

이것은 자체 거리 세트가 있는 표준 도구 외에도 다음과 같은 도구가 있습니다.

멋진 빌드
 
다음은 입력이 없는 작업입니다: ...
어떤 결과가 나올 것 같나요? 😀

이전과 마찬가지로: 기능 자체가 없는 기능의 값은 다음과 같습니다.....

그리고 그는 쓸 것입니다 : 아무도 짐작하지 못했고 결과는 다음과 같습니다 😁😁😁😁🥳
 
Maxim Dmitrievsky #:
다음은 입력이 없는 작업입니다: ...
어떤 결과가 나올 것 같나요? 😀

이전과 마찬가지로: 기능 자체가 없는 기능의 값은 다음과 같습니다.....

그리고 그는 쓸 것입니다 : 아무도 짐작하지 못했고 결과는 다음과 같습니다 😁😁😁😁🥳

맥스, 왜 나를 놀리고 있는지 모르겠어요.

가정이 없으면 아무 말도하지 말고, 가정이 있으면 "결과가 형편 없을 것"이라고 말하세요.

 
Aleksey Vyazmikin #:
...

결과는 어떻게 될까요?

모르겠지만 궁금합니다.

 
СанСаныч Фоменко #:

조금만 더 노력하면 사소한 결과를 얻을 수도 있고, 그렇지 않을 수도 있지만 나의 세계를 뒤집어 놓을 발견을 할 수도 있습니다!

수고하셨습니다!

그래서 처음 두 열에서 모델 수가 비슷할 것이라고 생각하십니까? 두 배나 다르긴 하지만요. 사소함에 대해 좀 더 구체적으로 설명해 주세요.

 
Andrey Dik #:

맥스, 왜 날 놀리는지 모르겠어요.

가정이 없다면 아무 말도 하지 말고, 가정이 있다면 "결과가 형편없을 것"처럼 말하세요.

위에서 매트스탯에 대해 썼습니다. 그 전에는 kozul에 대해 썼습니다. 그 전에도 데이터가 이해하지 못하는 방식으로 마크업되는 오라클 오류(마크업 오류)에 대해 썼습니다. 이를 통해 확실히 알 수 있는 것은 훈련의 청크와 길이에 따라 결과가 달라진다는 사실입니다. 제공되거나 설명되지 않은 데이터에 따라 달라집니다.
마크업 오류는 결과와 기간에 영향을 미칩니다. 어떤 닭이 어떤 발로 어떤 발로 표시했는지가 닭의 결과가 됩니다.

여기 사람들은 학습의 기본 기둥인 전처리, 정량화, 예측자와 대상의 관계..... 그러나 그들은 어느 발이 왼쪽 또는 오른쪽 마킹에 사용되는지에 대해서는 쓰지 않습니다. 위의 모든 것보다 더 많은 것이 그것에 달려 있습니다.
 
Maxim Dmitrievsky #:
위에서 매트스탯에 대해 썼습니다. 그 전에는 kozul에 대해 썼습니다. 그 전에도 데이터가 이해하지 못하는 방식으로 마크업되는 오라클 오류(마크업 오류)에 대해 썼습니다. 이 글에서 확실히 알 수 있는 것은 훈련의 청크와 길이에 따라 결과가 달라진다는 사실입니다. 제공되거나 설명되지 않은 데이터에 따라 달라집니다.
마크업 오류는 결과와 기간에 영향을 미칩니다. 어떤 닭이 어떤 발로 어떤 발로 표시했는지가 닭의 결과가 됩니다.

여기 사람들은 훈련, 전처리, 판정자와 표적의 관계..... 그러나 그들은 어떤 발이 왼쪽 또는 오른쪽 마킹에 사용되는지에 대해서는 쓰지 않습니다. 그것은 위의 모든 것보다 그것에 달려 있습니다.

글쎄요, 그건 이미 프로의 의견처럼 들립니다 (옳고 그른지는 또 다른 문제입니다).
재미 삼을 필요는 없습니다.
사유: