트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2106

 
블라디미르 페레르벤코 :

어디로 가야?

글쎄, RMSE 또는 무엇이든을 최소화하지 않고 피트니스 재미를 최소화하는 방법. 거기

 
블라디미르 페레르벤코 :

어떤가요?

나는 결과 모델을 500 포인트 앞서 예측합니다.

4개의 사인파(모델)가 pt를 예측합니다. 단순히, 본질적으로 선형 예측

 
mytarmailS :

삭제했습니다. 아무도 관심이 없다고 생각했습니다. 코드를 버릴 수 있습니다. 읽을 수 있는 형식으로 번역하기만 하면 됩니다.

그건 그렇고, 나는 어닐링 방법의 불안정성에 부딪쳤습니다. 어떻게 작업해야하는지조차 모릅니다. 매우 불안정한 결과, 매개 변수가 많이 점프합니다 ...


이것에 도착

먼저 임의의 시작점을 초기화하고,

그런 다음 일부 솔루션이 발견되면 저장합니다.

그런 다음 어닐링을 다시 시작하지만 이미 발견된 솔루션에서 시작 매개변수를 사용하는 등 여러 번 반복합니다.

개인전으로 던집니다.

어닐링이 불안정합니다. rgenout을 사용하십시오. 입증되고 신뢰할 수 있습니다.

모델은 손실 함수를 사용합니다. 직접 작성하고 모델에서 손실 함수를 삽입할 수 있다면 시도해 보십시오.

 
mytarmailS :

나는 결과 모델을 500 포인트 앞서 예측합니다.

하지만 처음 1~2건의 거래만 거래할 생각입니다.

매개변수를 질적으로 찾는 방법을 배워야 합니다.

 
막심 드미트리예프스키 :

2개의 다방향 모델을 사용할 수 있습니다.

나는 기본 전략에 따라 따로 가르쳤습니다. 결과는 더 나빴습니다. 샘플의 불균형으로 인해 너무 많은 0이 얻어지고 교육이 수행되고 있다고 생각합니다.

별도의 모델로 방향을 배우기 위해 다른 옵션을 시도하고 싶습니다. 첫 번째 모델은 변동성에 대해 훈련되고 두 번째 모델은 벡터에 대해 훈련된다는 것이 밝혀졌습니다. 그러나 다시 더 큰 샘플이 필요합니다.

 
알렉세이 비아즈미킨 :

나는 기본 전략에 따라 따로 가르쳤습니다. 결과는 더 나빴습니다. 샘플의 불균형으로 인해 너무 많은 0이 얻어지고 교육이 수행되고 있다고 생각합니다.

별도의 모델로 방향을 배우기 위해 다른 옵션을 시도하고 싶습니다. 첫 번째 모델은 변동성에 대해 훈련되고 두 번째 모델은 벡터에 대해 훈련된다는 것이 밝혀졌습니다. 그러나 다시 더 큰 샘플이 필요합니다.

불균형 클래스의 경우 오버샘플링을 사용할 수 있습니다. 2,3모델 다 뱉어내는데 본질은 별차이없음
 
막심 드미트리예프스키 :
불균형 클래스의 경우 오버샘플링을 사용할 수 있습니다. 2,3모델 다 뱉어내는데 본질은 별차이없음

저것들. 대상이 "1"인 중복 행? 나는 시도했다 - 나의 결과는 거의 CatBoost 에서 전혀 바뀌지 않았다. 약간의 노이즈를 추가해야 할 수도 있습니다.

 
알렉세이 비아즈미킨 :

저것들. 대상이 "1"인 중복 행? 나는 시도했습니다 - 내 결과는 CatBoost에서 거의 변경되지 않았습니다. 약간의 노이즈를 추가해야 할 수도 있습니다.

복제하지 마십시오. Google의 오버샘플링(예: SMOTE). 나는 또한 큰 불균형으로 공부하지 않습니다. 끝나면 모든 것이 좋습니다.
 
알렉세이 비아즈미킨 :

저것들. 대상이 "1"인 중복 행? 나는 시도했습니다 - 내 결과는 CatBoost에서 거의 변경되지 않았습니다. 약간의 소음을 추가할 수도 있습니다.

그래야만 합니다. NS 클래스에 의한 밸런싱이 필요합니다. 나무는 잘 할 것입니다.
 
막심 드미트리예프스키 :
복제하지 마십시오. Google의 오버샘플링(예: SMOTE). 나는 또한 큰 불균형으로 공부하지 않습니다. 끝나면 모든 것이 좋습니다.

예, 실제로 예측 지표에 노이즈를 추가합니다. 이것은 양자화 경계에 영향을 주어 섹션 선택을 향상시킬 수 있지만 중복을 추가할 때 동일한 효과가 있어야 한다는 아이디어는 유일한 것입니다. 확인), 예 - 옵션입니다.

사유: