트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2842

 
Aleksey Nikolayev #:

사실 여러분도 최적화를 하고 있습니다. '기능의 고정성'이라는 기준을 만들고 그에 따라 최적의 기능을 취하는 것이죠. 이는 역사적으로도 동일한 최적화이지만 프로필 측면에서는 다릅니다.

TS 견고성에 대한 기준을 발명하고 그에 따라 최적화해야 합니다) 역사상 동일한 최적화를 다시 얻을 수있지만 다른 프로필에서).

내성 측면에서는 훌륭합니다.

상점에 가서 바지를 선택하면 체형에 따라 최적화가 이루어집니다!

여기서 우리는 완전히 다른 것, 즉 모델에서 사용할 수 있는 최적화 알고리즘의 개선에 대해 이야기하고 있습니다. 저는 이미 내장된 최적화 알고리즘의 개선에 반대합니다. 테스터에 알고리즘이 있습니다 - 괜찮습니다. 이 알고리즘을 개선하면 소모적인 알고리즘에서 수익성 있는 TS를 얻을 수 없습니다. 모델에 내장된 알고리즘도 마찬가지입니다.

또한 모델을 쉽게 재학습할 수 있으므로 모델 파라미터를 최적화할 때는 매우 신중해야 합니다.

저는 가장 중요한 생각, 즉 최적화와 모델의 과잉 학습 사이의 확실한 연관성에 도달했습니다. 모델은 항상 상당히 '거친' 상태로 두어야 하며, 글로벌 최적화는 절대 필요하지 않습니다.


허용 가능한 예측자 목록을 찾고 있을 때 - 바지 의미에서의 최적화. 그러나 그 의미는 "쓰레기 유입-쓰레기 배출"을 피하려는 것과는 상당히 다릅니다. 여기에는 글로벌 최적을 찾는 "올바른" 알고리즘을 찾는 것과는 질적인 차이가 있습니다. 글로벌 최적화는 쓰레기에 대해 수익성 있는 TS를 제공하지 않습니다.

 

막심 블라디미로비치, 퀀텀 클러스터링에 대해 어떻게 생각하시나요?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

"최적화"라는 단어는 명백한 이유로 포럼에서 나쁜 평판을 얻고 있습니다. 따라서 어떻게든 이 단어에서 벗어나고 싶고 단어 자체도 사용하지 않으려는 것은 충분히 이해할 수 있습니다. 그럼에도 불구하고 MO 모델의 모든 훈련은 거의 항상 최적화이므로 노래에서 단어를 제거 할 수 없습니다.

나는 누구에게도 상처를 주거나 삶에 대해 가르치거나 사업을하는 방법을 설명하고 싶지 않습니다) MT5에서 MO를 구현할 때 메타 쿼트가 내 발언을 고려할 것이라는 희미한 희망으로 만 글을 씁니다.


혀에서 벗겨 졌기 때문에 ... "최적화"라는 개념에 대해 정말 부정적인 태도가 있습니다.
모델(TS)이 기본이고 최적화는 부차적이라는 점을 항상 기억해야 한다는 점을 덧붙이고 싶습니다. 모델이 작동하지 않으면 최적화는 견고성을 추가하지 않습니다.
실제로 다양한 매개변수에서 작동하는 TS가 있습니다. 그러나 이러한 시스템에서도 결국에는 더 높은 거래 결과를 제공하는 최적의 매개변수가 있습니다. 즉, 최적화는 그 정의상 모델을 악화시킬 수 없습니다.
트레이딩 시스템을 구축할 때는 우선 모델이 중요하고 평가 기준이 두 번째로 중요하며 그다음에 최적화가 이루어집니다. 그 반대의 경우는 근본적으로 잘못된 것입니다.
누군가가 최적화가 악이라고 말하는 것은 순서를 잘못 만들었다는 뜻입니다.
위의 내용을 이해해야만 최적화 없이 MO를 달성하는 것은 불가능하다는 것을 이해할 수 있습니다.
테스터와 옵티마이저가 번들로 제공되는 것은 사용자가 망할 것을 만들고 최적화 후이 쓰레기가 수익성이있을 것이라고 생각한다는 사실만으로도 악명을 얻었습니다. 아니, 그렇지 않을 것입니다. 이것이 ME에서 전문가 조언자를 쉽게 만들 수 있고 제공에서 기성품 변형을 사용할 수 있기 때문에 촉진됩니다. 그러나 동시에 작업 세트의 클러스터를 만드는 전략을 평가하기위한 도구가 거의 없습니다. 좋은 점은 µl이이 격차를 완전히 채운다는 것입니다.
위의 내용을 요약하면 최적화 알고리즘은 성공한 사람을 더욱 성공하게 만들고(이는 인간 활동의 모든 영역에 적용됩니다), 불행한 사람을 더욱 불행하게 만듭니다. 그 이유는 간단합니다. 우선순위를 잘못 설정했기 때문입니다.
그래서 포뮬러 원 자동차조차도 신중하게 최적화되어 있습니다. 왜? 왜? 이 자동차는 그대로 좋기 때문에))) 대답은 간단합니다. 자동차 운전자의 사용자 기준에 따라 최적화됩니다. 자동차의 일반적인 특성은 동일하지만 튜닝을 통해 예를 들어 가속 곡선에서 자동차를 조정할 수 있지만 다른 운전자는 직선에서 더 빠른 속도를 선호합니다. 자동차 운전자 중 누구도 "최적화는 똥이야!, 내가 뭘 필요로하는데, 나는 기본적으로 운전 할거야!"라고 생각하지 않습니다. - 그렇지 않으면 지게 되고, 배고픈 아이들과 화난 아내, 그리고 실패의 모든 즐거움을 맛보게 될 것입니다.

따라서 성공에 필요한 순서는 자동차(TC) - 튜닝 기준(TC의 평가 기준) - 최적화입니다.
원칙적으로 다른 올바른 순서는 불가능합니다.
 
또한 최적화 알고리즘은 무엇보다도 검색 알고리즘이며 많은 사람들이 생각하는 것처럼 마스크 매개 변수를 검색하는 데만 사용되는 것이 아니라는 점을 덧붙이고 싶습니다.
훨씬 더 복잡하고 사소한 일도 할 수 있습니다.
 
Andrey Dik #:

즉, 최적화는 정의상 모델을 저하시킬 수 없습니다.

이는 자동 제어 시스템에서는 맞지만, 비고정 프로세스가 있는 금융 시장에서 작동하는 모델에서는 절대 맞지 않습니다. "오버트레이닝"이라는 절대 악, 즉 절대 악이 있습니다. 이것은 모든 모델을 완전히 작동 불가능하게 만드는 (입력 쓰레기 다음으로) 주요 악입니다. 좋은 모델은 항상 차선책이어야 하며, 현실을 다소 거칠게 표현해야 합니다. 저는 모델 오버트레이닝에 특별한 기여를 하는 것이 글로벌 최적이라고 생각합니다.

 
또 다른 중요한 점은
매개변수가 적을수록 모델이 더 잘 작동합니다.
모델 - 기준 - 최적화,
자유도가 증가함에 따라 기준의 기준 또는 매개 변수의 수가 증가하면 반대로 모델의 자유도가 감소하여 일종의 "경계"역할을합니다.
AO 매개 변수의 수에 관해서는 많은 수의 튜닝 가능성의 단점을 언급하는데, 이는 AO의 실제 적용을 복잡하게 만들기 때문에 자신이하는 일을 이해하는 연구원의 숙련 된 손에서는 최적화 품질과 속도에서 추가적인 이점을 얻을 수 있으며 매개 변수가 너무 많은 경우 모델의 가변성을 간접적으로 더 많이 줄일 수 있습니다. 이것은 종종 신경망의 경우입니다.
 
СанСаныч Фоменко #:

자동 제어 시스템에는 적합한 아이디어이지만 고정 프로세스가 아닌 금융 시장에서 작동하는 모델에는 절대 적합하지 않습니다. "오버트레이닝"이라는 절대 악, 즉 절대 악이 있습니다. 이것은 모든 모델을 완전히 작동 불가능하게 만드는 (입력 쓰레기 다음으로) 주요 악입니다. 좋은 모델은 항상 차선책이어야 하며, 현실을 다소 거칠게 표현해야 합니다. 저는 모델 오버트레이닝에 특별한 기여를 하는 것이 글로벌 최적이라고 생각합니다.


과훈련은 최적화를 오용한 결과가 아니라 모델 평가 기준을 잘못 선택한 결과입니다. 최적화 이전에 실수를 한 것입니다. 그리고 사슬의 첫 번째 요소 인 모델조차도 엉터리 일 가능성이 큽니다.
모델이 약간 훈련이 덜 되었다고 말하는 것은 훈련이 덜 된 좋은 사퍼나 외과의사만큼이나 잘못된 것입니다. 학습(개선, 최적화)의 가능성이 아니라 사퍼나 외과의사 또는 그들의 선생님을 비난해야 합니다.
비고정성을 탓하며 최적화를 가져오는 것도 잘못입니다. 연구자가 비고정 시리즈에 대한 좋은 모델을 가지고 있지 않다는 뜻입니다.
 
독자를 가혹한 현실로 몰아넣어 불쾌감을 드렸다면 사과드립니다.
 

맥락이 다른 개념이 사용되는 것 같습니다.

예를 들어, "고원"은 모델의 논리에 영향을 미치는 외부 요인을 얻는 방법의 광범위한 설정입니다. 예를 들어, 예측자가 만들어지는 기반에 따라 마쉬카의 광범위한 효율성.

여기서 설명하는 MO 알고리즘을 사용한 최적화는 의사 결정 로직을 구축하는 것과 관련이 있는 반면, 전략 테스터에서의 최적화는 일반적으로 입력 데이터를 조정하는 것과 관련이 있지만 의사 결정 로직은 이미 규정되어 있고 기껏해야 가변성이 있습니다.

두 가지 유형의 최적화는 서로 다른데, 하나는 공간을 변경하고 다른 하나는 그 안의 관계를 변경합니다.

이제 무엇을 먼저 조정해야 할지, 즉 표지판/예측자를 먼저 조정할지 아니면 모델을 찾은 다음 터미널 최적화 도구에서 최적의 설정을 찾을지 궁금했습니다. 하지만 입력 데이터가 많으면 설정을 검색하기가 매우 어렵습니다.

훈련 중에 공간과 로직을 한 번에 변경할 수 있다면 어떻게 해야 할까요?

산산치 포멘코, 샘플링을 기대해야 하나요?

 
Andrey Dik #:

오버트레이닝은 최적화를 오용한 결과가 아니라 모델 평가 기준을 잘못 선택한 결과입니다. 최적화 이전에 오류가 발생했고, 체인의 첫 번째 요소인 모델이 엉망일 가능성이 큽니다.
모델이 약간 훈련이 덜 되었다고 말하는 것은 훈련이 덜 된 좋은 사퍼나 외과의사만큼이나 잘못된 것입니다. 학습(개선, 최적화) 가능성 자체를 탓할 것이 아니라 사퍼나 외과의사 또는 그들의 선생님을 탓해야 합니다.
비고정성을 탓하는 것 역시 최적화를 가져오는 잘못된 것입니다. 연구자가 비고정 시리즈에 대한 좋은 모델을 가지고 있지 않다는 것을 의미합니다.

알겠습니다. 머신러닝 모델에 대해 피상적으로 알고 계시군요.

사슬의 첫 번째 요소는 전처리로, 50~70%의 노동력이 소요됩니다. 이 단계에서 향후 성공 여부가 결정됩니다.

체인의 두 번째 요소는 훈련 세트에 대한 모델 훈련입니다.

체인의 세 번째 요소는 훈련된 모델을 테스트 세트에서 실행하는 것입니다. 이 세트에서 모델의 성능이 3분의 1 이상 차이가 나면 모델을 다시 학습시킵니다. 더 자주하지는 않더라도 한 번씩은 받게 됩니다. 과도하게 학습된 모델은 너무 정확한 모델입니다. 죄송합니다, 기본 사항입니다.

사유: