트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 728

 

그리고 요약하겠습니다. 흥미로운 사실이 관찰되었습니다. 두 모델 모두 40개 레코드의 동일한 플롯에서 훈련되었습니다. 그러나 VI 값이 높은 모델은 VI가 낮은 모델보다 훈련 결과가 좋지 않았으며, 이는 VI가 작고 학습 결과가 높은 두 번째 모델의 경우 이 모델의 경우 입력 데이터가 출력을 너무 잘 설명하고 모델이 너무 잘 나왔기 때문에 모델에 부하를 주기 위해 말하자면 훈련 간격을 늘려야 했습니다. 그리고 이제 철학...


x축을 따라 눈금을 표시합니다. 이 척도는 각 데이터 세트에 대해 고유하며 이 척도의 어딘가에 경계선, 수직선이 있습니다 . 여기서 오른쪽은 과적합 영역이고 왼쪽은 과소적합 영역입니다. 모든 최적화 알고리즘의 임무는 언더트레이닝 측면에서 이 경계에 가능한 한 가깝게 오는 것이지만 이 경계를 뛰어 넘지 않는 것입니다. 그리고 알고리즘이 이 영역에 가까울수록 덜 훈련되고 동시에 과적합 경계의 왼쪽에 위치합니다. 텍스트 형식으로 표현하는 것이 어렵다는 것을 이해하지만 시도해보십시오. ...... 일반적으로 이 주제에 대해 영역이 있는 이론이 있습니다. 정말 간단하지 않지만 요점이 아닙니다 ....

이 경계를 엄격하게 살펴보지 않으면 모델의 훈련이 과소적합과 과적합 사이의 최적 균형으로 축소됩니다. 즉, 균형이 있어야 합니다. 우리의 모델로 돌아갑니다. 그녀는 입력 데이터를 잘 배웠습니다. 출력에 접근하고 있었기 때문에 모델이 OOS에서 수익을 올릴 수 없었기 때문입니다. 훈련에 세 가지 패턴을 더 포함하면 모델이 숨길 수 있고 더 나쁜 학습 결과를 제공하지만 OOS에서 작업할 때 결정적인 역할을 할 수 있는 추가된 패턴을 고려합니다.

즉, 모델이 데이터를 너무 잘 학습했다면 학습 기간을 늘려 모델을 로드해야 합니다.

Reshetov의 분류에 따르면.

일반화의 첫 번째 모델은 77-80%(CI 0.86), 두 번째 모델은 88-90%(CI 0.65)입니다. 최적의 일반화 수준은 75-85%입니다.

 
마이클 마르쿠카이테스 :

그리고 요약하겠습니다. 흥미로운 사실이 관찰되었습니다. 두 모델 모두 40개 레코드의 동일한 플롯에서 훈련되었습니다. 그러나 VI 값이 높은 모델은 VI가 낮은 모델보다 학습 결과가 나빴습니다.

VI는 무엇입니까? 아마도 나는 직설적으로 추측할 것이다. 시간 간격.

Yasha 제안: 군사 출판사

 
예브게니 벨랴예프 :

VI는 무엇입니까? 아마도 나는 직설적으로 추측할 것이다. 시간 간격.

Yasha 제안: 군사 출판사

상호정보.....

 

다시 한 번, 탱킹을 하는 사람들을 위해: 당신은 pt에 대해 커브피팅을 합니다. 매우 적은 수의 거래로 짧은 시간 간격

이것은 기계 학습 분기에도 해당되지 않지만 "흥미롭고 유머러스한" 섹션에 있습니다. :)

계속해서 체에 물을 들고 다니다가(미안, 체에 :))) 그러다가 실생활에 남는 이윤이 없다는 사실에 진심으로 놀란다.

글쎄요, 만약 당신이 적어도 1000번의 거래를 했다면, 그리고 나서도 처음 10번의 거래만 일반적으로 때때로 OOS에서 작동하는 이유에 놀랄 것입니다, 당신의 체를 패치하십시오
 
막심 드미트리예프스키 :

다시 한 번, 탱킹을 하는 사람들을 위해: 당신은 pt에 대해 커브피팅을 합니다. 매우 적은 수의 거래로 짧은 시간 간격

이것은 기계 학습 분기에도 해당되지 않지만 "흥미롭고 유머러스한" 섹션에 있습니다. :)

계속해서 체에 물을 들고 다니다가(미안, 체 :))) 그러다가 실생활에 남는 이윤이 없다는 사실에 진심으로 놀란다.

글쎄요, 만약 당신이 적어도 1000번의 거래를 했다면, 그리고 나서도 처음 10번의 거래만 일반적으로 때때로 OOS에서 작동하는 이유에 놀랄 것입니다, 당신의 체를 패치하십시오

두고두고 보자.... 15분 작업에 70건 이상의 거래가 있는 달, 짧은 시간 간격과는 거리가 멀다고 생각한다.

결과가 계좌로 이체되면 어떻게 노래하는지 보겠다.......


이것은 사람에게 도구를 손에 쥐는 것이 아직 장신구로 간주하여 올바르게 사용할 수 있다는 사실이 아니라는 것을 다시 한 번 증명합니다 ......

 
마이클 마르쿠카이테스 :

두고두고 보자.... 15분 작업에 70건 이상의 거래가 있는 달, 짧은 시간 간격과는 거리가 멀다고 생각한다.

결과가 계좌로 이체되면 어떻게 노래하는지 보겠다.......

주님, 왜 당신은 당신 자신의 객관적인 경험에 대한 감수성에 그렇게 빡빡합니까 :) 이 프로그램은 다른 장소에 적용하려고 하는 것보다 10배 적은 시간에 작성되었습니다.
 
막심 드미트리예프스키 :
주님, 왜 당신은 당신 자신의 객관적인 경험에 대한 감수성에 그렇게 빡빡합니까 :) 이 프로그램은 다른 장소에 적용하려고 하는 것보다 10배 적은 시간에 작성되었습니다.

어쨌든 중요한 것은 그가 재훈련을 하지 않는다는 것입니다. 어쨌든, 그것은 아주 잘 일반화됩니다. 저는 R에서 네트워크에 접근하지 못했기 때문에 정말 비교할 것이 없습니다.

나는 항상 당신의 AI와 Reshetov 옵티마이저 모델을 비교하기 위한 테스트를 제안했습니다. 그러나 아무도 위험을 감수하지 않았습니다. 지는거같은데...

 
마이클 마르쿠카이테스 :

어쨌든 중요한 것은 그가 재훈련을 하지 않는다는 것입니다. 어쨌든, 그것은 아주 잘 일반화됩니다. 저는 R에서 네트워크에 접근하지 못했기 때문에 정말 비교할 것이 없습니다.

나는 항상 당신의 AI와 Reshetov 옵티마이저 모델을 비교하기 위한 테스트를 제안했습니다. 그러나 아무도 위험을 감수하지 않았습니다. 지는거같은데...

최소한 1000번의 거래에 대해 테스트를 제출할 수 없다고 말하십시오. 그 중 10번은 실생활에서 OOC에서 이익을 얻을 것입니다. 그리고 당신이하고있는 일은 백 테스트라고도하지 않습니까? 샘플을 늘리십시오. 그렇지 않으면 시간이 끝날 때까지 쿵쾅거릴 것입니다.
기본에 대한 이해가 없어도 뭔가 경쟁하는 게 무슨 소용
 
막심 드미트리예프스키 :
최소한 1000번의 거래에 대해 테스트를 제출할 수 없다고 말하십시오. 그 중 10번은 실생활에서 OOC에서 이익을 얻을 것입니다. 그리고 당신이하고있는 일은 백 테스트라고도하지 않습니까? 샘플을 늘리십시오. 그렇지 않으면 시간이 끝날 때까지 쿵쾅거릴 것입니다.
기본에 대한 이해가 없어도 뭔가 경쟁하는 게 무슨 소용

그래서, Maksimka, 당신은 여기서 내 히스테리를 멈추십시오. 심호흡을 하고.. 숨을 내쉬고 다시 숨을 들이마셔요... 숨을 내쉬세요..... 지금 신호를 보세요..... 가장 멋진 증거...

 
짜증이 난다. ) 그들은 당신에게 한 가지를 알려줍니다. 역사의 긴 부분에 대한 테스트, 앞으로의 테스트, 그리고 나서 우리는 무언가에 대해 이야기할 수 있습니다. 네트워크를 훈련할 때 훈련 샘플과 테스트 샘플로 나눕니다. 나는 당신의 신호가 손실을 보일 것이라고 거의 100% 확신할 수 있습니다. 모든 것이 해결되려면 0.0000000001%입니다.
사유: