트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3166

 
СанСаныч Фоменко #:

당신은 정말 짜증나네요, 전문가! 저는 잘 모르겠지만, 여러분은 알잖아요 - 시장을 보세요!

주변 세상에 대한 고통스러운 인식과 패키지에 대한 거룩한 믿음 외에 남은 것이 있습니까, 아니면 돼지 저금통이 고갈 되었습니까? )

매일 당신이 아무것도 모르는 패키지에 대해 읽습니다.

아니면 성촉절인가요?
 
Forester #:

이제 무작위 데이터에서 패턴을 찾으려는 이 장대한 노력을 끝내야 할 때입니다.

그래요.

아니면 관성적인 사고를 멈추고 결과를 냉정하게 살펴볼 때입니다.

 
Forester #:

코르셋을 통한 학습의 결과는 종종 나쁘지 않습니다.

10 년에서 21 년까지 코르셋은 30 %의 일부로 발견되었으며 (이 사이트의 무작위 기록의 30 %가 학습에 참여했습니다), 다른 해는 일반적으로 순수한 OOS입니다.

터미널에서는 다음과 같습니다.


 

코어셋을 결정하는 방법에는 여러 가지가 있습니다. 다음은 가장 많이 사용되는 몇 가지 방법입니다:

  • 무작위 하위 집합: 원본 데이터 집합에서 임의의 포인트 하위 집합을 선택하기만 하면 됩니다. 이 방법은 코어셋을 얻는 가장 쉬운 방법이지만 항상 최상의 품질을 제공하는 것은 아닙니다.
  • 참조 포인트: 원본 데이터 집합에서 머신 러닝 알고리즘의 예측에 큰 영향을 미치는 포인트를 선택합니다 . 이 방법은 무작위 하위 집합보다 코어셋을 얻는 데 더 효율적인 방법이지만 더 복잡할 수 있습니다.
  • 클러스터링: 유사성에 따라 원본 데이터 집합의 포인트를 그룹화합니다 . 각 그룹에서 하나의 포인트를 코어셋으로 선택합니다. 이 방법은 원본 데이터 집합을 잘 나타내는 코어셋을 얻는 효율적인 방법이지만 더 복잡할 수 있습니다.
  • 혈도 커널: 혈도 커널을 사용하여 소스 데이터 집합에서 포인트를 선택합니다 . 이것은 머신 러닝 알고리즘의 품질을 향상시키는 데 사용할 수 있는 코어셋을 얻는 강력한 방법입니다.
  • 확장된 무작위 하위 집합: 방법은 원본 데이터 세트에서 무작위 포인트를 선택하지만, 머신 러닝 알고리즘의 예측에 큰 영향을 미치는 포인트를 더 높은 확률로 선택합니다. 이는 좋은 품질을 제공하고 다양한 머신 러닝 작업에 사용할 수 있는 코어셋을 얻는 효율적인 방법입니다.

모든 머신 러닝 작업에 적합한 코어셋을 얻는 보편적인 방법은 없다는 점에 유의하는 것이 중요합니다. 코어셋을 얻는 방법의 선택은 특정 작업과 사용 가능한 컴퓨팅 리소스에 따라 달라집니다.

*Bard

 
Maxim Dmitrievsky #:

코르셋을 통한 학습의 결과는 종종 나쁘지 않습니다.

10 년에서 21 년까지 코르셋은 30 % (이 사이트의 무작위 기록의 30 %가 학습에 참여함)의 일부로 발견되었으며 나머지 년은 일반적으로 순수한 OOS입니다.

터미널에서는 다음과 같습니다.


글쎄, 6 개월에서 1 년 동안 지속되는 인출 기간도 있습니다. 그럴 준비가 되셨나요? 특히 실제 출시와 동시에 드로다운이 시작된다면요?

 
Forester #:

6개월에서 1년까지 지속되는 인출 기간도 있습니다. 그럴 준비가 되셨나요? 특히 실제로 시작하자마자 자금 감소가 시작된다면요?

보통 다각화합니다.

이 플롯은 다른 상품에서도 수익을 낼 수 있습니다. 그리고 그들 모두의 일반적인 추세가 제시된 차트와 동일하다면 투자 안정성이 보장됩니다.

가장 큰 회복 요인을 창출 할 상품 포트폴리오를 만들기 만하면됩니다.
 
Forester #:

6개월에서 1년까지 지속되는 인출 기간도 있습니다. 그럴 준비가 되셨나요? 특히 실제로 시작하자마자 자금 감소가 시작된다면요?

저는 아직 20년에 베팅할 준비가 되지 않았어요 :) 이것은 사례 연구에 가깝습니다.

저는 10 년의 교육 - 1 년의 OOS, 괜찮습니다.

그러나 많은 소음이 있으며 때로는 모델이 거의 모든 샘플을 쓸모없는 것으로 버리고 3 개의 트랜잭션이 남아 있습니다.

또한 정상적으로 예측할 수 없는 기록도 있습니다.

대체로 그다지 보람 있는 활동은 아닙니다.

마치 오래된 수신기를 돌리다가 실수로 잡음이 있는 파도에 부딪히는 것과 같습니다.

 

다시 한 번 나는 예측하려면 모델이 필요하다고 확신합니다.

모델은 불필요한 (노이즈)를 제거하고 필요한 (신호)를 남기고 가능한 경우 필요한 (신호)를 증폭 할뿐만 아니라 모델이 더 결정적이고 패턴의 반복성이 더 높습니다....

를 예로 들어 보겠습니다.

고저 미닛카 가격.


또한 우리는 가격의 가장 간단한 단순화를 구축합니다 (모델 만들기).

그런 다음 차원 축소를위한 간단한 알려진 알고리즘을 사용하여 초과분을 제거 (모델 개선)하면 모델이 더 반복 가능해졌습니다.

그리고 마지막은 아마도 장식적인 터치입니다.


이러한 데이터에 대해 MO가 어떻게 훈련될지 궁금합니다.

이것은 테스트 샘플입니다.

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

이런 숫자를 본 적이 있나요?




 
СанСаныч Фоменко #:

정확한 이름이 무엇인가요? 아니면 직접 만든 건가요?

저는 수년 동안 다른 "나무" 모델을 사용해 왔지만 이런 것은 본 적이 없습니다.

수제라니 무슨 뜻인가요? 이론적 인 정당성, 좋은 기사가 있습니다. RLTv3.2.6이라는 패키지가 있습니다. 잘 작동합니다. 버전에주의를 기울여야합니다.

파이썬의 나무 모델용 ONNX에 대해. 패키지 skl2onnx 를 참조하세요.

지원되는 스키킷 학습 모델. 마지막으로 지원되는 옵션 세트는 15개입니다.

행운을 빕니다.

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
그리고 자수성가하고 자수성가 한 주요 인물은 R로 글을 쓰지 않았기 때문에 Breiman입니다. 그는 정말 해킹입니다.
사유: