트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 962

 
막심 드미트리예프스키 :

입구에 가격만 있고 기능에 부담은 없어요 :) 가장 중요한 것은 타겟 선택

막심 드미트리예프스키 :

그래 어떻게 해야 할지 모르겠어 아무도 던지지 않는데 생각하기엔 너무 게으르다

아이디어?

당신은 가격, 가격 편차, 가격 로그를 제출합니다.... 그리고 거기에서 출력은 무엇이어야 합니까? - IMHO, 최대 견적 메커니즘, 가격을 사용하여 소규모 TF에서 찾을 수 있는 것

새로운 막대 에서 가장 먼저 업데이트(깨진)할 항목을 추측해 보십시오. 높음[1] 또는 낮음[1] - 예측하는 방법을 배운다면 가격 방향을 이미 알고 있기 때문에 이것이 이익입니다. 움직임

;)

 
이고르 마카누 :

아이디어?

당신은 가격, 가격 편차, 가격 로그를 제출합니다.... 그리고 출력은 무엇이어야 합니까? - IMHO, 최대 견적 메커니즘, 가격을 사용하여 소규모 TF에서 찾을 수 있는 것

새로운 막대 에서 가장 먼저 업데이트(깨진)할 항목을 추측해 보십시오. 높음[1] 또는 낮음[1] - 예측하는 방법을 배운다면 가격 방향을 이미 알고 있기 때문에 이것이 이익입니다. 움직임

;)

인용 메커니즘은 별도의 치트 방향입니다 :)

5-15분 간격으로 tf하고 싶습니다. 나는 인용과 관련이 없는 몇 가지 패턴을 포착한 스크린샷을 이미 보여주었습니다. 그러나 최대 2X 기차인 OOS에서는 그리 오래 작동하지 않습니다.

흥미로운 시험에 대해, 당신은 시도해야합니다

 

역사/미래 = 30000/1000. 입력 - 닫기 및 열기 차이의 시계열: iClose(NULL, 0, i+j+1+Shift) - iOpen(NULL, 0, i+j+1+Shift), 여기서 j는 0에서 99(총 100개 조각)입니다. ) . 대상 - 막대 색상(0,1).

차트에서는 OOS 기간(미래)만 표시됩니다.

확산 없음. 주문 입력 레벨은 0입니다.


스프레드 - 2점. 주문 입력 레벨은 0입니다.

스프레드 - 2점. 주문 입력 레벨 - 0.1

스프레드 - 2점. 주문 입력 레벨 - 0.15

클래스 간의 예측 분포. 정확도 - 0.525.


 
일리야 안티핀 :


클래스 간의 예측 분포. 정확도 - 0.525.

어떤 종류의 샘플은 작습니다. 저는 각각 100-200,000개의 샘플을 가지고 있으며 1000개의 조각을 취한다면 더 나은 활용이 있을 가능성이 높습니다.

 

천재적인 것을 만드는 것은 매우 쉽습니다. 찬란한 일을 하는 상태에 이르기는 어렵다. 아메데오 모딜리아니 :)

그래서 당신은 다른 종류의 허브를 시도해야합니다

 
막심 드미트리예프스키 :

글쎄요, 모델이 있습니다. 다양한 수정으로 일관되게 잘 훈련되고, 그 중 일부는 여기에서와 같이 100% 이상의 OOS 훈련을 수행합니다. (OOS 훈련 4개월 10개월) 그러면 쓰레기

나는 데모에서 테스트의 요점을 보지 못합니다. 그것은 이미 분명하다

예, 데모가 병합된 것은 유감입니다. 그리고 모두 OOS를 너무 많이 보기 때문에 OOS에 따라 모델을 선택하는 것이 불가능하다는 기사를 직접 인용했지만 포럼에서 같은 내용이 여러 번 여기에 작성되었습니다.

 
박사 상인 :

예, 데모가 병합된 것은 유감입니다. 그리고 모두 OOS를 너무 많이 보기 때문에 OOS에 따라 모델을 선택하는 것이 불가능하다는 기사를 직접 인용했지만 포럼에서 같은 내용이 여러 번 여기에 작성되었습니다.

무슨 일이야...

나는 다른 지점에서 이 주제에 대한 나의 추론/제안을 복사할 것입니다:

모델을 평가하기에는 OOS가 충분하지 않은 것 같아서 이 부분만 선택하는 이유가 궁금했다.
예, 특정 경우에 작동하지만(모든 영역에서 좋은 결과를 얻었습니다) 이것이 보편적이지 않은 것 같습니다.

결국 좋지 않은 데이터가 나타날 수 있습니다. 예를 들어, 모델은 훈련 사이트에서 최대 40%의 오류를 학습할 수 있고 테스트에서는 순수하게 무작위로 30%를 표시할 수 있습니다. 예를 들어 두 번째 모델은 두 영역 모두에서 최대 35%를 학습했습니다. 두 번째가 분명히 더 좋습니다. 그러나 테스트 사이트만 선택하면 첫 번째 사이트가 선택됩니다. 비교를 위해 다음과 같은 모델 평가 옵션이 있습니다.
교육 현장에서만 평가,
또는 모든 플롯의 합계에 대해
또는 Darch에서와 같이 (검증 데이터가 제공됨) Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 이 계수는 기본적으로 있지만 변경할 수 있습니다.

마지막 옵션이 가장 흥미롭기 때문입니다. 두 오류를 모두 고려하지만 유효성 검사 영역의 가중치가 높습니다.
원칙적으로 공식은 예를 들어 Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4)로 확장될 수 있습니다.

예를 들어 ErrLeran과 ErrTest가 5% 이상 차이가 나는 경우에는 그러한 모델을 거부해야 합니다(San Sanych는 이에 대해 말했습니다). 그리고 나머지 사람들은 이미 선택을 합니다.
 
도서관 :
무슨 일이야...

나는 다른 지점에서 이 주제에 대한 나의 추론/제안을 복사할 것입니다:

모델을 평가하기에는 OOS가 충분하지 않은 것 같아서 이 부분만 선택하는 이유가 궁금했다.
예, 특정 경우에 작동하지만(모든 영역에서 좋은 결과를 얻었습니다) 이것이 보편적이지 않은 것 같습니다.

결국 좋지 않은 데이터가 나타날 수 있습니다. 예를 들어, 모델은 훈련 사이트에서 최대 40%의 오류를 학습할 수 있고 테스트에서는 순수하게 무작위로 30%를 표시할 수 있습니다. 예를 들어 두 번째 모델은 두 영역 모두에서 최대 35%를 학습했습니다. 두 번째가 분명히 더 좋습니다. 그러나 테스트 사이트만 선택하면 첫 번째 사이트가 선택됩니다. 비교를 위해 다음과 같은 모델 평가 옵션이 있습니다.
교육 현장에서만 평가,
또는 모든 플롯의 합계에 대해,
또는 Darch에서와 같이 (검증 데이터가 제공됨) Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 이 계수는 기본적으로 있지만 변경할 수 있습니다.

마지막 옵션이 가장 흥미롭기 때문입니다. 두 오류를 모두 고려하지만 유효성 검사 영역의 가중치가 높습니다.
원칙적으로 공식은 예를 들어 Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4)로 확장될 수 있습니다.

예를 들어 ErrLeran과 ErrTest가 5% 이상 차이가 나는 경우에는 그러한 모델을 거부해야 합니다(San Sanych는 이에 대해 말했습니다). 그리고 나머지 사람들은 이미 선택을 합니다.
IMHO, 오류 합산 공식 외에도 비율의 비율도 필요합니다. 섹션별 오류는 Train <= Valid <= Test로 상관되어야 한다고 누군가 이미 여기에 쓴 것 같습니다.
 
이반 네그레쉬니 :
IMHO, 오류 합산 공식 외에도 비율의 비율도 필요합니다. 섹션별 오류는 Train <= Valid <= Test로 상관되어야 한다고 누군가 이미 여기에 쓴 것 같습니다.
훈련 중 실수로 훈련이 최소화되고 나머지 섹션은 위아래로 무작위로 매달려 있을 수 있습니다. 중요한 것은 많지 않습니다.
 
도서관 :
훈련 중 실수로 훈련이 최소화되고 나머지 섹션은 위아래로 무작위로 매달려 있을 수 있습니다. 중요한 것은 많지 않습니다.

그리고 순수한 기회를 제외하고 하향 편차의 허용 가능성을 어떻게 정당화합니까?

그리고 유효성 검사와 OOS 및 MO 전체의 의미를 제거하기 때문에 이 무작위성에 대한 싸움이 아니라면 주요 작업은 무엇입니까?))