트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2553

 
Dmytryi Nazarchuk # :
로지스틱 회귀
포레스트/부스트 회귀가 더 정확할 것입니다.
 
도서관 # :

아뇨, 암기된 이력 데이터베이스입니다...

수사학적 질문이었습니다 :)

 
mytarmailS # :

수사학적 질문이었습니다 :)

당신이 주제에 있다는 사실, 나는 알고 있습니다))
이것은 초보자를 위한 것입니다. 그들이 여기 오면.

 
블라디미르 페레르벤코 # :

노이즈 예제 처리를 위한 세 가지 옵션: 삭제, 다시 마크업(마크업 수정) 및 별도의 클래스로 노이즈 예제 분리. 내 경험에 따르면 샘플의 약 25%는 "노이즈"입니다. 품질 향상은 모델 및 데이터 준비에 따라 약 5%입니다. 가끔 신청합니다 .

예측 변수를 사용할 때 또 다른 문제인 드리프트가 있습니다. 그리고 이 문제는 테스트와 운영 모두에서 식별되고 고려되어야 합니다. 부록에는 기사의 번역이 있고(인터넷에서 다른 것을 찾아보세요), 드리프트 패키지가 있습니다. 그는 유일한 사람이 아닙니다. 그러나 결론은 예측 변수를 선택할 때 중요성뿐만 아니라 드리프트도 고려해야 한다는 것입니다. 강한 드리프트는 버리거나 변형해야 하며 약한 드리프트는 테스트 및 작업 시 고려(정확)해야 합니다.

행운을 빕니다

"때때로 써요"은(는) 무슨 뜻인가요?

자체적으로 입증된 일부 파이프라인이 있거나 그냥 유휴 생각입니다.

이론적으로 노이즈를 별도의 클래스로 분리하는 것은 모델을 개선하지 않습니다(노이즈는 모델 내부에 남아 있고 어디에도 사라지지 않음)

드리프트에 대해 - 기본, 편향-분산 트레이드오프
 
막심 드미트리예프스키 # :
미래 시세의 분포를 예측하려고 합니까?
 
mytarmailS # :
미래 시세의 분포를 예측하려고 합니까?

그런 일을했지만 왜 모든 것이 이해되지 않았습니다.

나는 미래의 고정 길이 청크를 클러스터링하고 클러스터 번호를 예측했음을 기억하십시오. 각 클러스터에는 고유한 배포가 있으며 각각 고유한 전략이 있습니다. 그것은 기차에서, 새로운 데이터에서, 직접 수행된다면 실패합니다.
 
막심 드미트리예프스키 # :

그런 일을했지만 왜 모든 것이 이해되지 않았습니다.

나는 미래의 고정 길이 청크를 클러스터링하고 클러스터 번호를 예측했음을 기억하십시오. 각 클러스터에는 고유한 배포가 있으며 각각 고유한 전략이 있습니다. 그것은 기차에서, 새로운 데이터에서, 직접 수행된다면 실패합니다.

기억해..

생각이 좀 다르네요..

미래 시세의 분포, 예를 들어 앞으로 50개의 양초를 질적으로 예측할 수 있다면 이 분포에서 수천 개의 행을 Montecarl하고 모델을 훈련할 수 있으므로 모델은 이론상 새로운 50개의 양초에 대해 적절하게 작동합니다.

 
주기적으로 나는 주제에 가고, 얼굴은 동일하고, 모델의 토론은 동일합니다. 아마도 누군가 보여줄 것이 있습니까?
 
Farkhat 구자이로프 # :
주기적으로 나는 주제에 가고, 얼굴은 동일하고, 모델의 토론은 동일합니다. 아마도 누군가 보여줄 것이 있습니까?
여기서 그들은 문제를 해결하기 위해가 아니라 문제를 해결합니다.
사유: