재교육 - 페이지 4

 
Aliaksandr Hryshyn :
모델/어드바이저의 재교육(이력에 맞추기)을 최소화하기 위해 누가 어떤 기술을 사용합니까?
이 경우 역사적 데이터 분석 없이는 불가능하며 '역사에 맞는' 개념을 완전히 배제할 필요가 있다는 점에서 출발해야 한다. 기반이 되는 TS 자체의 아이디어가 기본이 되어야 합니다. 각 TS는 일부 지표의 판독값을 기반으로 합니다. 후자는 표본 크기 N과 같은 매개변수를 가지며 전체 표본 크기를 분석한 후 판정합니다. 어떤 지표도 모든 과거 데이터에 동등하게 성공적으로 대처할 수 없다고 가정하는 것은 당연합니다. 따라서 SL 및 TP와 같은 매개 변수가 구출됩니다. 다음은 최적화해야 할 3가지 주요 매개변수입니다. TS가 선택한 TF에 대한 전체 범위의 과거 데이터를 살펴볼 수 있도록 해당 값을 찾아야 합니다. 전체 기간 동안 기금 증액 일정을 받은 후 최악의 영역에서 시장의 다양성으로 인해 TS에 구현된 독창적인 아이디어가 작동하지 않는다는 사실을 분석하고 수용해야 합니다. 전체 사이트를 검색하여 "나쁨"과 "좋음", 그리고 "훈련"과 "앞으로"로 나누려고 시도하는 것은 시간 낭비입니다. TC는 사용 가능한 역사적 자료의 전체 볼륨으로 평가해야 합니다.
 
Youri Tarshecki :

글쎄, 나에게 설명하십시오 - 당신은 포워드의 저하를 어떻게 결정합니까 - 그것은 RE-training 또는 UNDER-training입니다. 오버트레이닝은 언더트레이닝보다 특별한 방식으로 저하되나요?

훈련 조건의 품질을 결정하는 유일한 방법은 샘플 외 테스트의 해당 품질을 확인하는 것입니다 . 그리고 결과를 비교해야만 과최적화 또는 과소최적화를 말할 수 있습니다. 이제서야 최적화 부족과의 싸움에 대한 주제가 어디에도 표시되지 않습니다. 어떤 이유로 모든 사람은 코드의 품질이 아니라 신화적인 재최적화에서 악의 근원을 봅니다.

순방향 열화는 시스템의 일반화 능력(즉, 안정성, 알려지지 않은 데이터에 대한 적합성)의 추정치를 제공합니다. (능력)이 낮을 때 실용적인 관점에서 과도하거나 과소 훈련하는 것은 아무런 차이가 없습니다. 어쨌든 그것은 낭비입니다. 그러나 고문이 매개변수 세트와 MT 테스터를 통해 전통적으로 훈련된 경우 (기술적 관점에서) 언더트레이닝이 있을 수 없습니다. 그리고 훈련이 자체 알고리즘에 따라 진행되면 잘 알려진 방법(예: 조기 중지)을 사용하여 "오류가 최소화"(OOS에서 최상의 결과)될 때 최적의 지점을 찾을 수 있습니다. 그것으로 끝났지만 재 최적화는 아직 시작되지 않았습니다. 불행히도 표준 테스터는 최적화 기간 동안 시스템 효율성과 OOS를 비교하는 자동 기능을 제공하지 않습니다. MT의 OOS는 순방향 테스트입니다. 그러므로 굵게는 실제로 내가 말하는 것과 동일합니다. Topicstarter는 재교육에 대해 질문했으며 여기에 대한 답변이 있습니다. underfitting의 경우 최적화 정도가 아니라 예측자의 선택, 입력 데이터 준비 방법, 훈련 세트의 깊이 및 기타 메타 지식을 포함하는 추상적인 "코드 품질"을 이해한다면, 과소적합은 여기에서 정의하기가 매우 쉽습니다. 긍정적인 최적화 결과 가 없기 때문입니다.

 

나는 언더트레이닝에 대해 동의하지 않습니다. 기술적으로 그렇게 하는 것은 어렵지 않을 것입니다. 저것들. 퇴화라는 사실 자체가 그것이 재교육인지 아닌지를 말하지 않습니다.

탑 스타터가 용어 자체에서 벗어나 최적이 Gauss에 따른 것임을 이해하면 질문은 최적의 훈련 수와 밀도를 결정하는 방법과 같이 약간 다른 방식으로 공식화됩니다.

그러면 더 구체적으로 이야기할 수 있습니다.

개인적으로 테스트 결과로 판단합니다.

 

Stanislav Korotky :
Термин этот не дурацкий, а давно устоявшийся и "одобренный лучшими собаководами"

사실, "재훈련"이 나온 과적합은 실제로 과적합이 아니라 과적합입니다.

 

질문을 다른 쪽에서 조금 보도록 합시다.

훈련 중 모델 / TS(가능한 경우)는 과거 데이터의 일부 패턴을 기억할 수 있으며 불완전성으로 인해 "노이즈"를 기억합니다. TS가 "학습"할 수 있는 것을 노이즈로 간주하고 새 데이터에 대해 좋은 결과를 제공하지 않습니다. 다른 전략의 경우 노이즈가 다를 수 있습니다.

흥미로운 질문은 차량/모델이 소음을 "기억"하지 못하도록 어떻게 최소한 부분적으로 제한할 수 있습니까? 또는 소음에서 과거 데이터를 "삭제"하는 방법은 차량과 관련된 소음을 반복합니다.

다음은 그림의 간단한 예입니다. 라인 1과 2가 동일한 패턴이라고 가정합니다.

다음은 두 개의 수직선 사이의 영역에서 모델(빨간색 선)이 매우 잘못된 또 다른 예입니다.

 
이 사진들은 무엇에 관한 것입니까? 축에 무엇이 있습니까? 최적화 횟수?
 
Комбинатор :

사실, "재훈련"이 나온 과적합은 실제로 과적합이 아니라 과적합입니다.

맞아요. 피팅 또는 리핏 - 무와 고추 냉이는 더 달지 않습니다
 
Youri Tarshecki :
맞아요. 피팅 또는 리핏 - 무와 고추 냉이는 더 달지 않습니다
전체 이력 데이터 볼륨에 대해 피팅 또는 재적합을 수행하면 TS의 품질만 향상됩니다.
 
Youri Tarshecki :
이 사진들은 무엇에 관한 것입니까? 축에 무엇이 있습니까? 최적화 횟수?
그들은 거래에만 국한되지 않습니다. 그들은 모델(첫 번째 그림의 1과 2행, 두 번째 그림의 빨간색 선)이 데이터(작은 정사각형 및 아래 점)에서 어떻게 "오류"를 일으킬 수 있는지에 대한 가장 간단한 예를 보여줍니다.

점에 대해 표시기 값을 수평 및 수직으로 둡니다. TS가 검정색이 되기 위해 이 표시기 값을 사용하여 일부 가격 속성을 예측하는 방법. 라인의 경우 - HARDWARE가 예측하는 대로. 이 예측을 기반으로 TS는 거래할 수 있습니다. 이것은 가상의 예입니다. 예측 속성은 추세 또는 플랫, 변동성 등의 존재일 수 있습니다.
 
Aliaksandr Hryshyn :
그들은 거래에만 국한되지 않습니다. 그들은 모델(첫 번째 그림의 1과 2행, 두 번째 그림의 빨간색 선)이 데이터(작은 정사각형 및 아래 점)에서 어떻게 "오류"를 일으킬 수 있는지에 대한 가장 간단한 예를 보여줍니다.

점에 대해 표시기 값을 수평 및 수직으로 둡니다. TS가 검정색이 되기 위해 이 표시기 값을 사용하여 일부 가격 속성을 예측하는 방법. 라인의 경우 - HARDWARE가 예측하는 대로. 이 예측을 기반으로 TS는 거래할 수 있습니다. 이것은 가상의 예입니다. 예측 속성은 추세 또는 플랫, 변동성 등의 존재일 수 있습니다.

수평적으로 는 역사상 같은 순간에 해당하는 지표 또는 지표 그룹의 값 을 최적화하기 위한 여러 작업 이 있어야 합니다. 그리고 수직적으로는 사실 전체 시스템을 점검한 결과입니다. 그러면 오버트레이닝과 언더트레이닝, 그리고 그것이 무엇인지에 대해 이야기할 수 있을 것입니다. 그러면 곡선이 완전히 달라집니다. 어느 시점에서 패스 수를 추가(또는 표시기 매개변수의 단계 감소)해도 더 이상 새로운 것이 제공되지 않는다는 유일한 차이점이 있는 거의 일반적인 정규 분포가 있습니다.

패스 수는 어떻게 제어할 수 있습니까?

1. 단순히 훈련 세션 수 자체를 변경하거나 표시기 매개변수 값의 거리(단계)를 변경합니다.

2. OOS에서 테스트의 "단계"와 관련하여 훈련 기록의 깊이를 변경합니다. 그러면 히스토리의 동일한 섹션이 다른 수의 "이웃" 수에도 불구하고 다른 횟수로 최적화될 것입니다.

3. 유전자 최적화 알고리즘을 사용하는 경우 변경합니다. 예를 들어 세대 수, 무작위성 등을 변경합니다.

여기에 아마도 PER 및 UNDO를 방지하기 위해 사용 가능한 모든 도구가 있습니다.

또한 최적화 프로세스(피팅)의 결과가 아닌 확인에 특히 중점을 둔 경우 곡선의 특성은 시스템 자체가 수익성이 없는지 여부에 따라 달라지지 않습니다. 저것들. 시스템이 병합되면 오버 언더트레이닝과 함께 더 많이 병합될 것입니다. 학습의 임무는 최적의 매개변수를 찾는 것입니다. 그러나 코딩의 임무는 작업 옵션을 찾는 것이지만 최적의 교육 자체는 새로운 것을 만들지 않습니다.