트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1609

 
막심 드미트리예프스키 :

이것을 모델 스태킹이라고 합니다. 그것은 동일하지 않을 것이지만 그것이 더 효과적일 것이라는 사실은 아닙니다. 그렇게했지만 개선 사항을 보지 못했습니다.

메타 학습이라는 또 다른 방법이 있습니다. 클래스를 예측하도록 첫 번째 모델을 훈련시킨 다음, 결과를 가져와서 동일한 또는 다른 예측자에서 두 번째 모델에 공급하여 첫 번째 모델 의 거래를 허용/비활성화합니다 . 1 - 거래, 0 - 첫 번째 예측의 품질에 따라 거래 안 함, 즉 일부 필터. 이것은 훈련 데이터의 오류 수를 크게 줄이지만 새 데이터의 오류는 많지 않습니다(모델의 일반화 능력이 낮은 경우). 그러나 그 자체로 메타 학습은 정상적인 것입니다.

첫 번째 모델의 오류에 대해 일부 데이터에 대해 첫 번째 모델을 훈련하고 다른 데이터에 대해 메타 모델을 훈련할 수 있습니다. 옵션은 다를 수 있습니다. 이런 식으로 했고 일반적으로 개선 사항이 있지만 이것은 OOS에서 작동하는 고품질 모델을 얻는 방법보다 더 정교합니다.

거래에 대해 Marcos Lopez De Prado "메타 러닝"을 구글링할 수 있습니다.

정보 감사합니다. 하지만 저는 comp를 저장하는 방법으로 예측자를 여러 부분으로 나누는 것을 고려했습니다. 교육할 때 리소스, 예를 들어 모델의 10k 예측자와 같은 교육을 즉시 가져오지 않을 것입니다.

먼저 중요한 예측 변수를 강조 표시해야 하기 때문에 PCA 또는 다른 것을 사용하여 예측 변수의 차원을 줄이고 싶지 않습니다. 그래서 일반 모델을 최소한의 정보 손실로 하위 모델로 나누는 방법을 생각하고 있습니다.

 
mytarmailS :

정보 감사합니다. 하지만 저는 comp를 저장하는 방법으로 예측자를 여러 부분으로 나누는 것을 고려했습니다. 교육할 때 리소스, 예를 들어 모델의 10k 예측자와 같은 교육을 즉시 가져오지 않을 것입니다.

먼저 중요한 예측 변수를 강조 표시해야 하기 때문에 PCA 또는 다른 것을 사용하여 예측 변수의 차원을 줄이고 싶지 않습니다. 그래서 일반 모델을 최소한의 정보 손실로 하위 모델로 나누는 방법을 생각하고 있습니다.

예, 10k 예측 변수입니다. 상관관계를 제거하고 나머지 중요도를 숲을 통해 보거나 부스팅하면 3-10으로 유지됩니다.

 

어쨌든 100% 추측하는 것은 불가능할 것입니다. 확인을 거쳤으며 어떤 경우에도 잘못된 예측이 있을 것입니다. 학습 모델은 반복할 수 있지만 그 결과가 반드시 같지는 않기 때문입니다.

예를 들어, 어떻게 생겼습니까? 물론 제가 모델(정형화된 데이터)을 선택하는 방식이 좋지 않을 수도 있지만 100% 정확한 예측의 가능성을 믿기는 어렵습니다.


 
막심 드미트리예프스키 :

예, 10k 예측 변수입니다. 상관관계를 제거하고 나머지 중요도를 숲을 통해 보거나 부스팅하면 3-10으로 유지됩니다.

예측 변수가 논리적 규칙이라면? :)

 
나는 깊은 역사에서 배우는 것이 그다지 효과적이지 않다는 데 동의합니다. 때로는 시스템이 장난을 치기 시작합니다.
 
mytarmailS :

예측 변수가 논리적 규칙이라면? :)

차이점은 무엇입니까? 예측자가 너무 많지 않습니다. 이것은 모델이 아니라 쓰레기입니다.

검색 엔진이나 이미지 분석 어딘가에 있을 수 있지만 확실한 인용은 아닙니다.

 
파르하트 구자이로프 :

신경망 수준을 어떤 형식으로 제출합니까?

 
막심 드미트리예프스키 :

차이점은 무엇입니까? 예측자가 너무 많지 않습니다. 이것은 모델이 아니라 쓰레기입니다.

왜요?

모델이 "풍부"할수록 더 나빠지나요?

특히 예측 변수의 조합이 더 나은지 모르는 경우 가능한 모든 옵션을 모델에 제출한 다음 모델의 관점에서 예측 변수의 중요성을 확인하는 것이 옳지 않을까요?
 
mytarmailS :

신경망 수준을 어떤 형식으로 제출합니까?

아니오 아니오 아니오, 2단계를 사용하려고 시도했지만 위에서 쓴 것처럼 예상한 결과를 얻지 못했습니다. 아마도 최적의 데이터 선택(어떤 경우에는 모순됨)으로 인해 최소한 논리적으로 올바르게 해석된 결과에 대한 힌트입니다. 지금까지는 평범한 다층 뉴런에 불과했습니다. 다중 레벨 네트워크를 차단하기 전에 각 레벨이 개별적으로 올바른 솔루션을 제공하는지 이해해야 합니다.

 
파르하트 구자이로프 :

아니오 아니오 아니오, 2단계를 사용하려고 시도했지만 위에서 쓴 것처럼 예상한 결과를 얻지 못했습니다. 아마도 최적의 데이터 선택(어떤 경우에는 모순됨)으로 인해 최소한 논리적으로 올바르게 해석된 결과에 대한 힌트입니다. 지금까지는 평범한 다층 뉴런에 불과했습니다. 다중 레벨 네트워크를 차단하기 전에 각 레벨이 개별적으로 올바른 솔루션을 제공하는지 이해해야 합니다.

죄송합니다. 지원 및 저항 수준을 의미했습니다.

사유: