트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3211

 
mytarmailS #:

엿보기를 피하려면 루프의 각 반복을 엿보지 않고 예측자를 계산해야 한다는 포레스터의 말이 맞습니다.

이것이 바로 해결책입니다.

ZZ 예제에서는 분명했습니다.

하지만 ZZ를 사용하지 않으면 10% 미만의 분류 오류가 종종 발생합니다. 쓰레기로 밝혀졌습니다. 버렸습니다.

 
СанСаныч Фоменко #:

그리고 Maxim이 매우 아름다운 그림으로하는 것처럼 파일 INE에서 실행하고 행복하게 살 수 없습니다.

당신은 꿈에서 많은 것을 꿈꿀 것입니다.
 
Maxim Dmitrievsky #:
다른 사람의 정신적 문제를 해결하는 데는 관심이 없어요.

당신은 시장에서도 예쁜 사진을 담당하고 있잖아요. 그래서 그게 주된 문제죠.

 
СанСаныч Фоменко #:

마켓플레이스에서도 예쁜 사진을 담당하고 있습니다. 그래서 그게 가장 큰 문제군요.

저는 정신적인 문제를 포함해 어떤 문제도 없습니다. 만들고 싶으면 만들어 보세요.
 

연구 주제와 무관한 이질적인 정보 더미에서 특징을 선택한다는 간단한 산술이 있습니다.

도출된 BP는 모두 이 BP와 관련이 있으며, 더 나은/더 나쁜 것만 선택할 수 있으며, 종종 전혀 의미가 없는 경우가 많습니다.

나는 엿보기에 대해 말하는 것이 아니라 유치한 문제입니다. 분명히 그러한 만지작 거리는 것은 수년 동안 아무것도 가져 오지 못했습니다. 그러나 그들은 그것을 계속 반복합니다.

그리고 거래를 제대로 마크 업할 수 없기 때문에 샘플 내에서도 오류가 발생합니다.
새로운 데이터에는 추세로 인한 편향이나 예측할 수 없는 변동에 대한 재학습, 혼동과 같은 변수가 있을 수 있습니다. CV 방법을 사용하여 모델 오류 수정을 통해 치료합니다.

기사 어디에서 간단하고 효과적인 오류 수정 방법에 대한 언급이 단 한 번도 없나요?

추측해 보겠습니다. P 루 브릭에는 그러한 신성한 지식에 대한 화살표가 없으며 우리는 Google과 생각에 익숙하지 않습니다 :).
 
Maxim Dmitrievsky #:

연구 주제와 무관한 이질적인 정보 더미에서 특징을 선택한다는 간단한 산술이 있습니다.

도출된 BP는 모두 이 BP와 관련이 있으며, 더 나은/더 나쁜 것만 선택할 수 있으며, 종종 전혀 의미가 없는 경우가 많습니다.

나는 엿보기에 대해 말하는 것이 아니라 유치한 문제입니다. 분명히 그러한 만지작 거리는 것은 수년 동안 아무것도 가져 오지 못했습니다. 그러나 그들은 그것을 계속 반복합니다.

그리고 거래를 제대로 마크업할 수 없기 때문에 샘플 내에서도 오류가 발생합니다.
새로운 데이터에는 추세로 인한 편향이나 예측할 수 없는 변동에 대한 재학습, 혼동과 같은 변수가 있을 수 있습니다. cv 방법으로 모델 오류를 수정하여 치료.

기사 어디에서 간단하고 효과적인 오류 수정 방법에 대한 언급이 단 한 번이라도 있나요?

CV 오류는 오류를 최소화하는 최적의 파라미터를 찾는 것이기 때문에 그 자체로 오류를 치료할 수 없습니다. 교사와 예측자의 상관관계가 잘못된 경우 CV는 반드시 이 쓰레기에서 더 나은 것을 찾을 수 있지만 쓰레기 문제를 해결하지는 못합니다.

쓰레기 문제는 '예측 능력', 즉 예측값이 한 클래스 또는 다른 클래스를 예측할 수 있는 능력으로 해결됩니다. 그렇다면 분류 오류는 동일한 예측자 값이 어떤 순간에는 한 클래스를 예측하고 다른 순간에는 다른 클래스를 예측한다는 사실에 의해 결정된다는 것이 분명합니다. Rattle에는이 주제에 대한 그림도 있습니다.

 
СанСаныч Фоменко #:

CV는 오류를 최소화하면서 최적의 매개 변수를 찾는 것이므로 그 의미에서 오류를 치료하지는 않습니다. 교사와 예측 변수의 상관관계가 잘못된 경우 CV는 이 쓰레기에서 더 나은 것을 찾을 수는 있지만 쓰레기 문제를 해결하지는 못합니다.

쓰레기 문제는 '예측 능력', 즉 예측값이 한 클래스 또는 다른 클래스를 예측할 수 있는 능력으로 해결됩니다. 그러면 분류 오류는 동일한 예측자 값이 어떤 순간에는 한 클래스를 예측하고 다른 순간에는 다른 클래스를 예측한다는 사실에 의해 결정된다는 것이 분명해집니다. Rattle에는 이 주제에 대한 그림도 있습니다.

그래서 그래서? 상관관계를 찾지 말고 무작위 추출과 CV를 통해 인과관계를 찾아보세요. 아니면 제가 테버를 가르쳐야 하나요?

오류 보정을 하지 않으면 고정 샘플의 거의 모든 모델에 결함이 있습니다. 그래프를 마크업하는 방법을 모르기 때문입니다. 알고 있지만 모르는 경우. 아무리 생각해도 작은 부분은 항상 올바르게 레이블이 지정되지 않을 것입니다.
 
СанСаныч Фоменко #:

위에서 언급 한 문제는 훈련 파일과 OOS 파일에서 우수한 결과를 얻은 모델이 있다는 것입니다. 훈련 파일은 샘플별 무작위 샘플링으로도 얻을 수 있고, OOS는 훈련 파일의 잔여물인 것으로 알고 있습니다.

그러나 외부 파일에서 모델을 실행하면 결과가 치명적으로 나쁩니다.

최근에 OOS에 대해 몇 번 언급했던 것 같습니다. 그러나 좋은 OOS는 "별도의 파일"이라는 용어였습니다.

산산치 포멘코 #:

그리고 앞을 내다보는 것을 어떻게 감지하나요?

다중 패스 학습 (다음 단계는 이전 단계의 계산을 사용)을 사용하면 "앞을 내다 볼"확률이 높습니다. 일반적인 방법은 없지만 한 가지 경우에 다음을 수행했습니다.


계산 속도를 높이려면 불필요한 틱을 제거해야 했습니다. 예를 들어 틱 수를 10배 줄이면 계산이 같은 양만큼 빨라집니다. 그것은 매우 요구되는 조치입니다.

제 경우에는 어떤 틱이 필요하고 어떤 틱이 거의 필요하지 않은지 알고 있었습니다. 어쨌든 사용자 지정 심볼을 만들고 사용자 지정 심볼과 원래 심볼에 대한 백 테스트를 시작했습니다.

여기서 중요한 것은 괴상함을 켜고 99% 이상의 일치율을 달성하는 것이었습니다. 처음에는 너무 많은 것을 버렸고 다른 결과를 얻었습니다 (물론 원래 결과보다 낫습니다).


결국 원본보다 적게 버리기 시작했고 모든 것이 일치하기 시작했습니다. 즉, 저는 실제로 훈련 할 때 투 패스 방법을 사용합니다.


따라서 아마도 이전 패스 후 엿보기를 감지하기 위해 심각한 계산 전에도 위에서 설명한 검사를 사용할 수 있습니다. 글쎄, 그리고 할아버지의 앞을 보는 것을 감지하는 방법도 있습니다- "사실이 되기에는 너무 좋다"입니다. 초보자는 멋진 결과에 기뻐하는 반면 성숙한 사람들은 자신의 오류를 오랫동안 검색해야한다는 것을 깨닫기 때문에 화를냅니다.

 
fxsaber #:

신규 이민자는 멋진 결과에 만족하고 성숙한 이민자는 오랫동안 자신의 실수를 찾아야한다는 것을 깨닫기 때문에 화를냅니다.

그리고 전문가들은 동정과 겸손으로 두 사람을 바라보며 조용히 스스로에게 말합니다. 풍경이 아닌 개념을 바꿀 생각은 언제 하시겠습니까?

 
mytarmailS #:

그리고 전문가...

한 명도 못 만났어요.

사유: