트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2963

 
Maxim Dmitrievsky #:
제가 볼 수 있는 유일한 옵션은 열차 밖에서 테스트하면서 최적화하고 열차 안에서 MO를 훈련하는 것입니다. 다른 역사적 시대에서 공통된 것을 가져온다는 측면에서 여전히 어느 정도 의미가 있습니다.

FF를 사용하는 방법에는 상상력의 여지가 많으며, 몇 가지 권장 사항이 있지만 FF 준비에 대한 올바른 레시피가 하나도 없다는 점이 아쉽습니다.

예를 들어, 밸런스 최적화를 들 수 있습니다. TS는 한 거래에서 90 %의 수익을 보였고 나머지 100 개의 거래는 약 0입니다. 이것이 좋은 FF입니까? 아마도 좋을 수도 있지만이 전략에는 그렇지 않습니다. 그리고 최적화에는 이러한 다양한 결과가 있기 때문에 전략이 너무 나쁠 수도 있습니다.

따라서 FF는 모델에서 필요한 모든 것을 고려해야하며 문제는 글로벌 최적을 최대화하는 것으로 축소됩니다. 그리고 또 다른 결론은 모델과 FF는 그 자체로있을 수 없으며, 좋은 모델은 부적합한 FF에 의해 망칠 수 있으며 그 반대의 경우도 마찬가지입니다. 일반적으로 FF를 모델과 별도로 이야기하는 것은 말이되지 않지만 일반적으로 FF를 이야기하는 것은 의미가 없습니다.

 
Andrey Dik #:

궁금한 점은 무엇입니까? 그래서 몇 달 전이 스레드에서 제가 참여한 대화에서이 스레드에서 말했듯이)) 여기에서 많은 사람들이 최대 / 최소 ff는 어떤 식 으로든해서는 안된다고 주장했습니다))))

배가 항해 할 수 있도록 ff를 설정하면....

여전히 이해하지 못합니다. 최적화에 관한 것이 아니라 학습을위한 교사를 만드는 도구입니다.

MOE에는 몇 가지 문제가 있으며 첫 번째는 좋은 교사입니다.

그리고 교사의 품질은 FF의 품질에 의해 결정되는 것이 아니며 최적화의 품질에 의해 결정되는 것이 아니라 앞서 로컬/글로벌 최적화에 대해 이야기했습니다. 이 예제에서 우리는 신경 쓰지 않고 첫 번째 알고리즘을 정면으로 사용했는데, 이는 절대적으로 옳습니다.

교사의 품질은 미래에 예측력을 잃지 않을 예측자를 선택하는 능력에 의해 결정됩니다. 그러나 교사의이 속성을 결정할 때 FF는 전혀 사용되지 않습니다.

 
СанСаныч Фоменко #:

아직도 이해하지 못하시는군요. 최적화에 관한 것이 아니라 학습을 위한 교사를 만드는 도구입니다. MOE에는 몇 가지 문제가 있는데, 첫 번째는 지능형 교사입니다.

아니요, 아직도 이해하지 못하셨군요. 최적화 없이는 원칙적으로 MOE가 있을 수 없습니다. 최적화 없이는 아무것도 존재할 수 없습니다. 전혀 존재할 수 없습니다.

"영리한 교사"란 무엇입니까? 이 영리한 교사에 대한 적합성 기준은 어디에 있습니까? 모델이 교사에 대한 적합성을 평가할 것입니다. 적합성 평가는 FF입니다. 어떻게 초등적인 것을 이해하지 못할 수 있습니까?

FF가 평가 기준입니다. 최적화는 평가 기준을 최대화하는 것을 의미합니다.
 
Andrey Dik #:

아니, 이해가 안 돼요 이해가 안 돼요 최적화 없이는 MO가 있을 수 없습니다. 최적화 없이는 아무것도 존재할 수 없습니다. 아무것도 존재할 수 없습니다.

"영리한 교사"란 무엇입니까? 이 영리한 교사에 대한 적합성 기준은 어디에 있습니까? 모델이 교사에 대한 적합성을 평가할 것입니다. 적합성 평가는 FF입니다. 어떻게 초등적인 것을 이해하지 못할 수 있습니까?

FF가 평가 기준입니다. 최적화는 평가 기준을 최대화하는 것을 의미합니다.

당신이 글을 쓰는 동안 나는 그것에 추가했습니다.

추가하겠습니다.

교사를 만들 때 최적화를 사용하는 것은 모델 외부의 일입니다.

모델 매개 변수를 검색할 때 최적화를 사용하는 것은 모델 자체에 내장되어 있으며 최적화 옵션을 선택할 수 있는 모델도 있습니다.

분류 모델의 사용을 평가하는 것은 세 번째이며 여기에는 최적화의 냄새가 없습니다. 분류 오류에 대한 자체 평가 시스템이 있습니다.

예를 들어, 오류 매트릭스



더 의미 있는



위의 분류 모델 평가 예시를 확장하는 특별한 패키지가 있습니다. 예를 들어, PerformanceAnalytics 패키지
 
СанСаныч Фоменко #:

최적화 자체에 대한 것이 아니라 학습을 위한 교사를 만드는 도구라는 것을 아직도 이해하지 못하셨군요.

MOE에는 몇 가지 문제가 있는데, 첫 번째는 지능형 교사입니다.

그리고 교사의 품질은 FF의 품질에 의해 결정되는 것이 아니며 최적화의 품질에 의해 결정되는 것이 아니라 앞서 로컬/글로벌 최적화에 대해 이야기했습니다. 이 예제에서 우리는 귀찮아하지 않고 가장 먼저 찾을 수 있는 알고리즘을 찾아서 정면으로 사용했으며, 이는 절대적으로 옳습니다.

교사의 품질은 미래에 예측력을 잃지 않는 예측자를 선택하는 능력에 의해 결정됩니다. 그러나 교사의 이러한 속성을 결정할 때 FF는 전혀 사용되지 않습니다.


교사와 그 매개 변수를 선택하는 단계를 포함하여 모든 단계에서 최적화가 사용됩니다. 그런 다음 교사와 일치하는 단계 (오류 최소화). 분류 - 또한 최적화없이.
최적화가 없는 간단한 프로세스는 단 하나도 없으며, MoE에서는 더더욱 없습니다.
모든 최적화는 최대/최소 FF를 기반으로 합니다.
의미 있는 프로세스는 모두 최적화의 대상이 됩니다.
의미 없는 프로세스 - 전부는 아닙니다.
 
Andrey Dik #:

최적화는 모든 단계에서 사용됩니다. 교사와 매개변수를 선택하는 단계, 교사와 매칭하는 단계, 오류를 최소화하는 단계, 분류 단계에서도 최적화 없이 이루어집니다.
최적화가 없는 간단한 프로세스는 단 하나도 없으며, MOE에서는 더더욱 없습니다.
모든 최적화는 최대/최소 FF를 기반으로 합니다.
의미 있는 프로세스는 모두 최적화의 대상이 됩니다.
의미 없는 프로세스 - 전부는 아닙니다.
여기서 일종의 갈림길이 있습니다. 논의 중인 주제는 강화 학습으로 바뀌었고, 거기에서 모든 접근법을 사용하는 것이 합리적일 수 있습니다. 트레이딩에서는 지금까지 아무것도 아닌 것으로 입증되었습니다. 기성품 예제를 사용하여 교사와 함께 훈련하고 있습니다. 또는 이것과 저것의 알려지지 않은 교차 코뿔소이지만 이론적 장치조차 없습니다 :)

교사와의 순수한 학습이라면 TC / 신호를 찾고 그들의 예에서 배우려고 노력하는 것이 더 논리적입니다.
 
Maxim Dmitrievsky #:
여기서 일종의 갈림길에 서 있습니다. 논의 중인 주제는 강화 학습으로 바뀌었고, 거기에서 모든 접근 방식을 사용하는 것이 합리적일 수 있습니다. 트레이딩에서는 지금까지 아무것도 아닌 것으로 입증되었습니다. 기성품 예제를 사용하여 교사와 함께 훈련하고 있습니다. 또는 이것과 저것의 알려지지 않은 교차 코뿔소이지만 이론적 장치조차 없습니다 :)

교사와의 순수한 학습이라면 TC / 신호를 찾고 그들의 예에서 배우려고 노력하는 것이 더 논리적입니다.

10 년 전에 BP에서 TS에 대한 이상적인 입력을 찾는 방법을 보여 드렸습니다-교사가 아닌 것은 무엇입니까? - 이 경우 민감도 임계 값은 스프레드 및 커미션이며 거래 빈도는 임계 값에 따라 달라집니다.
나는 어떤 연구도하지 않았지만 교사로서 그러한 "최적 시리즈"의 통계적 특성을 보는 것은 흥미로울 것입니다.
 
Andrey Dik #:

그렇게 할 수 있습니다. 10년 전에 BP에서 TS에 이상적인 항목을 찾는 방법을 보여 드렸죠-교사가 아닌 것은 무엇입니까? - 이 경우 민감도 임계 값은 스프레드 및 커미션이며 거래 빈도는 임계 값에 따라 달라집니다.

여기 https://www.mql5.com/ru/code/903 11 년 전에도 있습니다. 그리고 그의 예에서 차트는 mytarmailS보다 더 예쁘다.

그러나 나는 그것이 당신의 것이라고 생각하지 않습니다. 당신의 것은 어디 있나요?

Sampler
Sampler
  • www.mql5.com
Индикатор i_Sampler рассчитывает идеальные входы, предназначен для обучения нейросети.
 
Forester #:

여기 11년 전의 https://www.mql5.com/ru/code/903 도 있습니다. 그리고 그래프가 그의 예제에서mytarmailS보다 더 예쁩니다.

그러나 그것은 당신의 것 같지 않습니다. 당신의 것은요?

 
Forester #:

여기 11년 전의 https://www.mql5.com/ru/code/903 도 있습니다. 그리고 그의 예에서 그래프가 mytarmailS보다 더 예쁘다.

여기는 훈련 전이고 그의 것은 훈련 후입니다. 즉, 멋지게 플롯 할뿐만 아니라 모델을 최소한의 오류로 가져옵니다. 이 접근 방식은 흥미롭지만 새로운 데이터에서 개선하는 방법은 아직 밝혀지지 않았습니다.
사유: