최적화 및 샘플 외 테스트. - 페이지 4

 

맞는 것 같아요!

또한 (비판을 고려하여) 아이디어의 단순한 실행에 그다지 동의하지 않는 사람들에 대한 상당한 반대가 있음을 지적합니다.

"필요 이상으로 본질을 복잡하게 해서는 안 된다!" (Br. 오컴)

첫 번째 최적화 다음에 두 번째 최적화(샘플 제외)는 간단하고 충분한 솔루션입니다!

우리는 여전히 최적화를 위한 최적화가 아니라 수익 창출이라는 목표를 추구합니다.

 
Vita :

--> 슬래시 실행도 동일합니다(지정, 확인). 스루 런과 비교하여 분할이 추가로 가져오는 것은 무엇입니까?


파티셔닝은 정보를 효과적으로 필터링합니다. 수량면에서.

비타는 다음과 같이 썼다.

--> "전체 샘플에 대한 최적화 결과를 처리한 것"이 세트 D를 폐기하는 것을 의미하는 경우 동의하지 않습니다. 중간 손실(샘플 또는 샘플 외부)을 제공하는 결과를 버리는 것은 해결되는 기본 작업입니다. 전체 샘플에 대한 최적화 자체 동안, 즉 사후 최적화 처리가 필요하지 않습니다. 결과는 즉시 B 세트가 될 것입니다. 그리고 샘플 외부에서 힘든 추가 검사가 없습니다.

수학적 의미에서 최적화를 의미합니까 아니면 실제 테스터에서 최적화를 의미합니까? 내가 이해하는 선택 항목에는 이제 두 선택 항목이 모두 포함됩니다. 두 샘플 모두에 대해 3개의 불필요한 세트를 실행하면 시간을 절약할 수 있다고 생각하십니까? 구현의 경우 테스터를 처음부터 작성하면 구현 오버헤드가 무시할 수 있습니다. 구현을 시도한 다음 질문으로 돌아갈 수 있습니다.

 
leonid553 :

맞는 것 같아요!

또한 (비판을 고려하여) 아이디어의 단순한 실행에 그다지 동의하지 않는 사람들에 대한 상당한 반대가 있음을 지적합니다.

"필요 이상으로 본질을 복잡하게 해서는 안 된다!" (Br. 오컴)

첫 번째 최적화 다음에 두 번째 최적화(샘플 제외)는 간단하고 충분한 솔루션입니다!

우리는 여전히 최적화를 위한 최적화가 아니라 수익 창출이라는 목표를 추구합니다.


여기에서 나는 동일하며 Ockham의 의견에 전적으로 동의합니다. 두 가지 최적화를 수행해서는 안 됩니다. 하나만 있으면 충분합니다.

당신 자신의 말 " Expert Advisor를 최적화 한 후, 우리는 종종 최적화 프로그램이 제안한 12개 이상의 매개변수 세트가 샘플을 지루하게 다 써버려야 합니다."

표본 외 표본 분할 없이 전체 모집단에 대한 실행은 덜 충분하고 훨씬 더 간단한 솔루션입니다.

 

강력하게 반대합니다, 비타 . 그렇지 않으면 신경망에서 모든 데이터를 세 부분으로 나누지 않고 근본적으로 다릅니다. 실제 최적화 - 첫 번째 섹션에서만; 두 번째는 교육 종료를 결정하는 데만 사용되며 세 번째는 단일 테스트에만 사용됩니다. 즉, 실제 조정은 첫 번째 조정에서만 발생하고 세 번째 조정에서는 어떤 일이 발생합니까? 그리고 선택 - "Occam의 면도날"또는 시스템에 대한 신뢰 상실 -은 시스템 작성자에게 남아 있습니다.

대략적으로 말하면 A+B+C 최적화는 위에서 설명한 처리와 완전히 다릅니다.

 
Mathemat , 나는 그가 결과의 전체 묶음 을 (조합론에 대해 잊지 마세요) 수집하고 4 세트로 나누고 그 중 3 개를 버리는 것을 의미한다고 생각합니다.
 
Mathemat :

강력하게 반대합니다, 비타 . 그렇지 않으면 신경망에서 모든 데이터를 세 부분으로 나눌 수 없습니다. 실제 최적화 외에 - 첫 번째 사이트에서만; 두 번째는 교육 종료를 결정하는 데만 사용되며 세 번째는 단일 테스트에만 사용됩니다.


신경망의 데이터를 세 부분으로 나누는 것은 이러한 패턴을 식별하기 위한 학습 법칙(예: 2x2 = 4)을 위해 존재한다고 생각합니다. 그리고 그들이 있는 경우에만. 그렇지 않으면 신경망이 자체적으로 곡선에 맞게 조정됩니다.

그런 다음 테스터의 임무는 패턴을 배우거나 식별하는 것이 아니라 최적의 매개 변수 집합을 찾는 것 같습니다. 이것은 단순한 무차별 대입 또는 유전 알고리즘 또는 신경망으로 수행할 수 있습니다. 그러나 샘플에 대한 최적의 매개변수 집합을 찾았을 때 곡선에 맞추는 것을 피하려면 어떻게 해야 합니까? 원칙? out of sample을 테스트할 때 집합의 어떤 나쁜 요소가 사라지나요?

 
lna01 :
비타 :

--> 슬래시 실행도 동일합니다(지정, 확인). 스루 런과 비교하여 분할이 추가로 가져오는 것은 무엇입니까?


파티셔닝은 정보를 효과적으로 필터링합니다. 수량면에서.

--> split은 샘플 내 또는 샘플 외 손실이 있는 결과를 필터링하지만 총 누적 이득이 있습니다. 이것은 내가 버리고 싶은 것이 아닙니다.

비타는 다음과 같이 썼다.

--> "전체 샘플에 대한 최적화 결과를 처리한 것"이 세트 D를 폐기하는 것을 의미하는 경우 동의하지 않습니다. 중간 손실(샘플 또는 샘플 외부)을 제공하는 결과를 버리는 것은 해결되는 기본 작업입니다. 전체 샘플에 대한 최적화 자체 동안, 즉 사후 최적화 처리가 필요하지 않습니다. 결과는 즉시 B 세트가 될 것입니다. 그리고 샘플 외부에서 힘든 추가 검사가 없습니다.

수학적 의미에서 최적화를 의미합니까 아니면 실제 테스터에서 최적화를 의미합니까? 내가 이해하는 선택 항목에는 이제 두 선택 항목이 모두 포함됩니다. 두 샘플 모두에 대해 3개의 불필요한 세트를 실행하면 시간을 절약할 수 있다고 생각하십니까? 구현의 경우 테스터를 처음부터 작성하면 구현 오버헤드가 무시할 수 있습니다. 구현을 시도한 다음 질문으로 돌아갈 수 있습니다.

--> "내가 이해하는 한 선택 항목에는 이제 두 선택 항목이 모두 포함됩니다." - 죄송합니다. 그렇게 생각하게 하려는 것은 아닙니다. 잊어버려.

MetaTrader'의 실제 테스터는 샘플 세트 + 샘플 아웃 오브 샘플을 최적화할 때 샘플의 후속 테스트로 샘플을 최적화하는 것과 동일한 결과를 얻을 수 있다고 말하고 싶습니다. 테스터에서 "전문가 속성" 버튼, "테스트" 및 "최적화" 탭을 사용하면 길이와 깊이에 관계없이 손실을 제거할 수 있습니다. 그리고 샘플 외부의 후속 테스트로 샘플을 최적화하면 다른 것이 제거되지 않고 전혀 도입되지 않는다는 사실에 서 있기 때문에 이것이 문제의 해결책입니다.

불행히도, 주어진 곡선에 대한 매개변수의 완벽한 최적화를 달성할 수 있다는 것은 수학적인 의미입니다. 샘플에서 "미래를 위해" 테스트하는 트릭은 숨겨져 있지만 주어진 샘플 세트 전체에 대해 여전히 동일한 진부한 최적화입니다. 미래에 대한 보장은 없습니다. 커브 피팅을 제거하지 않습니다. 작업 매개변수 세트는 다른 방식으로 찾아야 합니다.

 
신경망의 데이터를 세 부분으로 나누는 것은 이러한 패턴을 식별하기 위한 학습 법칙(예: 2x2 = 4)을 위해 존재한다고 생각합니다.

맞습니다. Vita 는 패턴을 식별합니다. 그리고 우리는 여기서 무엇을 하고 있습니까? 이 식별이 원래 집합의 사소한 "기억"으로 퇴화되지 않도록(= 곡률 맞춤) 두 가지 추가 데이터 집합이 발명되었습니다. NN에서는 모든 것이 다음과 같이 진행됩니다. 학습은 목적 함수를 줄이는 방향으로 집합 A(훈련)에서 발생합니다(일반적으로 예측 또는 분류 오류). 훈련은 A에 대한 오류가 단조롭게 감소하는 방식으로 구성됩니다.

동시에 세트 B에서 동일한 매개변수를 사용하여 동일한 오류를 검사합니다(검증). 거기에서 오차는 보울 함수로 변경됩니다(처음에는 하락한 다음 최소값, 그 다음에는 증가). 세트 B에서 최소 오차에 도달하는 즉시 훈련이 중지됩니다. 오류가 감소하더라도 A에 대한 훈련을 계속하면 집합 B의 오류가 이미 증가하기 시작하기 때문에 곡률 맞춤이 발생합니다. 이 순간부터 네트워크의 일반화 능력이 감소한다고 믿어집니다. 이것이 A에 대한 적합성을 한계까지 가져오지 않고 훈련이 강제로 중단되는 이유입니다(이는 알고리즘과 메타 인용 최적화 프로그램이 수행하는 적합성의 근본적인 차이입니다).

그리고 마지막으로 훈련이 중단된 매개변수 집합을 세 번째 집합 C(테스트)를 통해 실행합니다. 이것은 C의 데이터가 이전에는 훈련에 전혀 영향을 미치지 않았기 때문에 훈련 품질에 대한 진정한 테스트입니다. 물론, 발견된 매개변수를 사용하여 신경망이 안정적으로 작동한다는 보장은 아직 없지만 그러한 알고리즘은 포럼에 있는 의사 성배의 최소 95%를 제거합니다. 모든 첫 번째 항목:).

그리고 단일 데이터 영역에 대한 간단한 열거는 가장 순수한 곡률 피팅이며 훈련 영역에서는 이상적이며 외부에서는 쓸모가 없습니다.

물론 MT4는 신경망 프로그램이 아니라 일반 알고리즘을 다시 해야 하지만 우리가 "최적화"라고 부르는 사소한 곡률 조정보다 여전히 낫습니다. 히히...

 
Vita :

MetaTrader'의 실제 테스터는 샘플 세트 + 샘플 아웃 오브 샘플을 최적화할 때 샘플의 후속 테스트로 샘플을 최적화하는 것과 동일한 결과를 얻을 수 있다고 말하고 싶습니다. 테스터에서 "전문가 속성" 버튼, "테스트" 및 "최적화" 탭을 사용하면 길이와 깊이에 관계없이 손실을 제거할 수 있습니다.

그것은 모두 작업에 달려 있습니다. 테스트 시간 동안 이익의 균일한 분포 정도를 무시한다면 MT 테스터의 표준 기능은 실제로 충분하고 시간 비용은 비슷할 것입니다. 무시해야 할까요? 모든 사람은 자신의 경험과 자신의 견해를 가지고 있습니다. 이 과정은 과연 피팅이라고 할 수 있지만, 근사치 라는 용어가 더 정확할 것이라고 생각합니다. 모든 근사값을 미래로 외삽할 수 있는 것은 아니며, 이익 균일성 기준을 사용하면 외삽에 분명히 부적합한 옵션을 버릴 수 있습니다. 물론입니다.

 
Mathemat :

그리고 단일 데이터 영역에 대한 간단한 열거는 순수한 곡률 맞춤이며 훈련 영역에서는 이상적이며 외부에서는 쓸모가 없습니다.

--> 맞습니다.

그러나 사이트를 조각으로 나누는 것은 무엇입니까? 실례지만 세 가지 다른 조각에 대한 "의사 학습"은 무엇을 초래합니까? 개별 사이트마다 이익이 있다는 사실에? 이게 왜 더 잘 맞나요? 사이트 외부의 선의를 보장합니까? 당신이 그것을 믿는다면, 그것은 하나님을 위한 것입니다. 또한 테스터는 곡선을 억제하여 각 조각 A, B, C ...에서 이익을 얻을 수 있는 기회를 제공합니다.

신경망은 이 주제 근처에 가지 않았기 때문에 제거합시다. 사람들은 모호한 이점을 위해 치질을 수동으로 처리합니다. 그런데 내가 지적했지만 더 이상 들어본 적이 없는 이유는 샘플 내 최적화 및 샘플 외 테스트 후 결과가 평범한 스윕보다 나은 이유가 무엇입니까? 알다시피, 우리는 신경망 이론이 아니라 실제 작업과 결과에 대해 이야기하고 있습니다. 제가 지적한 것 외에 실질적인 혜택이 있다면 지적해 주십시오.