재교육 - 페이지 2

 
Dmitry Fedoseev :
그리고 저는 "블라블라"는 사람이 아니라 쓰는 것으로 판단한다고 생각했습니다.

평소 화나는 글에는 답글을 달지 않지만, 개인적으로 답변해 드리겠습니다.

그래서 내가 "blah blah"란 무엇을 의미 했습니까?

사례 1

로봇을 작성 하고 TESTER로 매개변수를 찾은 다음 이러한 매개변수를 변경하지 않고 인용문의 새 섹션, 가급적이면 다른 기호 및 TF에서 구동했다고 가정합니다. 긍정적인 결과를 얻었습니다.

질문: 결과를 얼마나 신뢰할 수 있습니까? 소금이냐 아니냐?

질문에 대한 답으로 여기 사이트의 "신호" 탭을 보면 은행 예금보다 수익성이 높고 수명이 1년 이상인 신호는 매우 드뭅니다. 수천 개 중 수백도 되지 않습니다. 이를 통해 저는 개인적으로 지속 가능한 TS의 개발이 예술이며 테스터는 이러한 지속 가능한 TS를 개발하는 도구 중 하나라고 결론지었습니다. 그러나 가장 중요한 결론은 테스터가 저장소 배수에 대한 보장을 제공하지 않는다는 것입니다.

이것은 테스터가 TC를 확인한 경우를 고려했습니다.

사례 2

이것은 테스터가 부정적인 결과를 줄 때 "blah blah"의 의미에서 더 흥미로운 경우입니다. 무엇을 할까요? 결국 테스터는 파기 방향에 대한 아이디어를 제공하지 않으며 가장 중요한 것은 결과가 부정적인 이유에 대한 질문에 대답하지 않는다는 것입니다. 테스터는 사실을 진술합니다. 다음은 PUKE METHOD 또는 blah blah라고 하는 보편적인 방법을 적용하는 것입니다. 이 방법의 의미는 일반적으로 위에서 설명한 사례 1로 이어지는 일련의 지표를 얻으려는 시도에서 지표 세트의 직관적인 변경입니다.

Case 2의 과정을 좀 더 의미 있게 만들고, 테스터에서 얻은 결과가 미래에도 실생활에서 얻어질 것이라는 자신감을 얻을 수 있는 아이디어, 도구가 있을까요?

예, 병렬 분기에 대한 링크를 제공했습니다. TS의 재훈련(과적합)으로 이어지지 않을 초기 입력 데이터(예측자) 세트를 분석하기 위한 이러한 도구를 고려합니다. 이것은 "blah blah"가 아닙니다. 이것은 성배에 대한 직관적인 검색 없이 효율성에 대한 수학적 정당성을 가진 특정 도구이며, 그러한 성배를 찾은 후 저장소가 고갈됩니다.

 
Stanislav Korotky :
순방향 테스트를 사용하는 경우 최적화 기간을 벗어나면 결과가 저하되어 "과적합"이 나타납니다. 불행히도 MT는 최적화와 순방향 테스트 결과 를 비교하기 위한 내장된 방법을 제공하지 않습니다. 사용자의 재량에 따라 수동(눈으로), 외부 프로그램 또는 스크립트를 수행하는 것이 좋습니다.
"재 훈련"이라는 용어는 어리 석음이며, 고문 자체의 작동 불가능성을 정당화하기위한 것이며 앞으로 걷는 것과 함께 그 의미를 완전히 잃습니다. 변수가 재훈련되거나 과소 훈련되었으며, 실제로는 저하에서 볼 수 없습니다. 이것은 다른 조건과 최적화 및 테스트에서 forward 결과를 비교 해야만 알 수 있습니다. 그리고 스토리의 깊이와 앞으로의 발걸음은 각각의 경우에 개인적으로 선택되며, 무엇이 끝났고 무엇이 끝나지 않았는지 이미 명확합니다 .
 
СанСаныч Фоменко :

...

사례 2

테스터는 사실을 진술합니다. 다음은 PUKE METHOD 또는 blah blah라고 하는 보편적인 방법을 적용하는 것입니다. 이 방법의 의미는 일반적으로 위에서 설명한 사례 1로 이어지는 일련의 지표를 얻으려는 시도에서 지표 세트의 직관적인 변경입니다.

Case 2의 과정을 좀 더 의미 있게 만들고, 테스터에서 얻은 결과가 미래에도 실생활에서 얻어질 것이라는 자신감을 얻을 수 있는 아이디어, 도구가 있을까요?

예, 병렬 분기에 대한 링크를 제공했습니다. TS의 재훈련(과적합)으로 이어지지 않을 초기 입력 데이터(예측자) 세트를 분석하기 위한 이러한 도구를 고려합니다. 이것은 "blah blah"가 아닙니다. 이것은 성배에 대한 직관적인 검색 없이 효율성에 대한 수학적 정당성을 가진 특정 도구이며, 그러한 성배를 찾은 후 저장소가 고갈됩니다.

하지만 이 찌르기 방식이 자동화된다면?! 이 방향에 대한 흥미로운 생각. 지표가 변경되고 서로 상호 작용이 이루어지며 상호 작용이 별도의 기능으로 표시되며 매개 변수 수가 변경될 수 있으며 이에 따라 가장 간단한 최적화만 수행됩니다. 따라서 이 스레드에서 제기되는 질문은 흥미롭고 전략의 매개변수에 의존하지 않는 보다 보편적인 접근 방식입니다. 당신이 제안한 지점에서 완전히 다른 작업. 그러나 이러한 방법을 이 문제에 적용할 수 있음을 보여 주신다면 부탁드립니다.

 
Youri Tarshecki :
"재 훈련"이라는 용어는 어리 석음이며, 고문 자체의 작동 불가능성을 정당화하기위한 것이며 앞으로 걷는 것과 함께 그 의미를 완전히 잃습니다. 변수가 재훈련되거나 과소 훈련되었으며, 실제로는 저하에서 볼 수 없습니다. 이것은 다른 조건과 최적화 및 테스트에서 forward 결과를 비교 해야만 알 수 있습니다. 그리고 스토리의 깊이와 앞으로의 발걸음은 각각의 경우에 개인적으로 선택되며, 무엇이 끝났고 무엇이 끝나지 않았는지 이미 명확합니다 .

이러한 상황에서 "재훈련"이라는 용어가 적용될 수 있으며 훈련은 매개변수를 설정하는 것뿐만 아니라 전략을 수립하는 것도 의미합니다.

검색 시스템이 의심스러운 장소를 최소한 "우회"할 수 있도록 재교육 확률을 추정하고 싶습니다. 단순히 과거의 전방 섹션과 비교하면 시스템이 두 개의 역사적 섹션(트레이닝, 테스트 ) 하나의 훈련으로. 나는 아이디어를 듣습니다.

 
Aliaksandr Hryshyn :

이러한 상황에서 "재훈련"이라는 용어가 적용될 수 있으며 훈련은 매개변수를 설정하는 것뿐만 아니라 전략을 수립하는 것도 의미합니다.

검색 시스템이 의심스러운 장소를 최소한 "우회"할 수 있도록 재교육 확률을 추정하고 싶습니다. 단순히 과거의 전방 섹션과 비교하면 시스템이 두 개의 역사적 섹션(트레이닝, 테스트 ) 하나의 훈련으로. 나는 아이디어를 듣습니다.

전략을 구성할 때 코드 변형을 선택하기 위해 동일한 훈련 조건에서 테스트 결과만 비교하기 때문에 "재훈련"이라는 용어는 더욱 적합하지 않습니다. 그리고 이러한 조건이 얼마나 최적으로 선택되는지는 그다지 중요하지 않습니다. 가장 중요한 것은 모든 코드 옵션에 대해 동일하다는 것입니다. 그렇지 않으면 선택의 의미를 잃게 됩니다.
 

"재훈련" 또는 "재최적화"라는 용어는 실제로 기록의 특정 섹션에 대해 어드바이저를 최적화하고 최적화 매개변수가 많을수록 훈련 결과가 더 아름답기 때문에 피팅자에 의해 만들어졌습니다.

어떤 이유로 테스트 결과와 역의 관계가 있다는 의견이 있습니다. 적으면 많을수록 좋지만 내 경험에 따르면 그렇지 않습니다. 테스트 결과는 최적화 패스 수가 아니라 Expert Advisor 자체의 품질과 교육 및 테스트 실행 세그먼트의 최적 선택에 따라 달라집니다. 계획의 결과, 히스토리가 최소한의 최적화를 받았을 때 최선을 다하지 못했습니다.

예를 들어, Volkin-forward 계획에 따라 4개월 교육 - 1개월 테스트, 기록의 각 개별 섹션은 최적화에 4번, 계획 2개월 교육 - 2개월 테스트 - 한 번만 해당됩니다. 많거나 적습니까? 그리고 FIG는 알고 있습니다! 테스트 결과만 보면 됩니다. 포워드 금액이 더 나은 경우 해당 옵션이 더 최적입니다.

 
Youri Tarshecki :
코드 변형을 선택하기 위해 동일한 훈련 조건에서 테스트 결과만 비교하기 때문에 전략을 구성할 때 "재훈련"이라는 용어는 더 이상 적용할 수 없습니다. 그리고 이러한 조건이 얼마나 최적으로 선택되는지는 그다지 중요하지 않습니다. 가장 중요한 것은 모든 코드 옵션에 대해 동일하다는 것입니다. 그렇지 않으면 선택의 의미를 잃게 됩니다.

이 용어는 매우 자주 사용됩니다. " Overtraining , overfitting (overtraining, overfitting)은 선례로 학습 문제를 해결할 때 발생하는 바람직하지 않은 현상입니다 . 테스트 샘플 개체 에 대해 훈련된 알고리즘의 오류 확률이 훨씬 더 높을 때 훈련 샘플 의 평균 오류보다 . "

정의에 따르면, 동일한 학습 조건이 우리 문제에 대한 용어의 적용을 방해하지 않습니다.

 
Nikkk :

재교육은 반혁명이라는 단어와 같습니다. 재교육을 받아야 한다면 왜 가르치는가? 그리고 재훈련하는 것이 합리적이기 때문에 재훈련을 위한 부동 경계를 알고 있음을 의미합니다. 그렇지 않으면 결국 동일한 룰렛입니다. 그리고 언제/얼마나 자주/어떤 매개변수를 재교육해야 하는지에 대한 결정 지점이 있기 때문에 처음에 이러한 이해를 교육/알고리즘 자체의 논리에 넣지 않는 이유는 무엇입니까?

가격 분석에서 출발하여 교육과 실제 상황(가격) 사이의 피드백 분석. 다른 각도에서 동일합니다.

학습을 기억에 비유하면 됩니다. 어쨌든 잊어야 한다면 왜 기억하는지에 대한 질문이 없습니다. 문제는 Expert Advisors는 원칙적으로 별도의 장기 및 RAM 메모리가 없다는 것입니다. 또한 작업의 품질에 대한 평가는 매우 원시적입니다. 따라서 이상적으로는 각 변수를 개별적으로 훈련(메모리 부여)해야 하며(그런데 제가 하려고 하는 것입니다) 훈련 세그먼트가 아니라 테스트 세그먼트에서 확인해야 합니다.
 
Aliaksandr Hryshyn :

이 용어는 매우 자주 사용됩니다. " Overtraining , overfitting (overtraining, overfitting) 은 전례로 학습 문제를 해결할 때 발생하는 바람직하지 않은 현상입니다 . 테스트 샘플 개체 에 대해 훈련된 알고리즘의 오류 확률이 평균보다 훨씬 높을 때 훈련 샘플 에 오류가 있습니다 . "

정의에 따르면, 동일한 학습 조건이 우리 문제에 대한 용어의 적용을 방해하지 않습니다.

따라서 전략을 세울 때 작업은 다른 것입니다. 선례가 아니라 최적화가 아니라 코드를 작성하는 것입니다.

또한 저는 이 정의에 동의하지 않습니다. 그에 따르면 최적화를 전혀 하지 않고 테스트에서 소진될 확률이 훈련보다 더 큰 경우(그리고 이것은 일반적인 현상입니다) - 이 또한 재최적화로 간주됩니다. 그리고 중요하다는 것은 무엇을 의미합니까? 두 배? 10시에?

 
Youri Tarshecki :
학습을 기억에 비유하면 됩니다. 어쨌든 잊어야 한다면 왜 기억하는지에 대한 질문이 없습니다. 문제는 Expert Advisors는 원칙적으로 별도의 장기 및 RAM 메모리가 없다는 것입니다. 또한 작업의 품질에 대한 평가는 매우 원시적입니다. 따라서 이상적으로는 각 변수를 개별적으로 가르쳐야 하며(그런데 제가 하려고 하는 것입니다) 훈련 세그먼트가 아닌 테스트 세그먼트에서 확인해야 합니다.

그러나 당신은 잊어 버리십니까, 훈련이이 사이트에서 훈련 결과의 기억으로 변형 된 사이트의 기억. 필터링의 특성/섹션 간에 연결이 있음에도 불구하고 섹션을 필터링한 다음 필터링된 정보를 분석에 사용한 다음 필터링하고 다른 정보를 사용하는 것과 같습니다. 실행했다.

다른 각도에서 역사에 대한 동일한 분석이 거기에서 잊혀지지 않습니다. 무엇이라고 부르든 재훈련/최적화-재최적화/적응/적응-재적응.