따라서 문제는 och가 있는지 여부입니다. 많은 예측 변수를 동일한 부분으로 나눌 수 있는지, 각각 100개 조각을 만들고 10개 모델을 훈련시킨다고 가정해 보겠습니다.
그런 다음 이 10개 모델의 출력이 예측 변수로 새 모델에 적용됩니다. 이것은 한 번에 1000개의 예측 변수에 대해 처음에 과학자에 대한 하나의 모델과 동일합니까?
무언가가 나에게 말하지 않지만 의견을 듣고 싶습니다.
이것을 모델 스태킹이라고 합니다. 그것은 동일하지 않을 것이지만 그것이 더 효과적일 것이라는 사실은 아닙니다. 그렇게했지만 개선 사항을 보지 못했습니다.
메타 학습이라는 또 다른 방법이 있습니다. 클래스를 예측하도록 첫 번째 모델을 훈련시킨 다음, 결과를 가져와서 동일한 또는 다른 예측자에서 두 번째 모델에 공급하여 첫 번째 모델 의 거래를 허용/비활성화합니다 . 1 - 거래, 0 - 첫 번째 예측의 품질에 따라 거래 안 함, 즉 일부 필터. 이것은 훈련 데이터의 오류 수를 크게 줄이지만 새 데이터의 오류는 많지 않습니다(모델의 일반화 능력이 낮은 경우). 그러나 그 자체로 메타 학습은 정상적인 것입니다.
첫 번째 모델의 오류에 대해 일부 데이터에 대해 첫 번째 모델을 훈련하고 다른 데이터에 대해 메타 모델을 훈련할 수 있습니다. 옵션은 다를 수 있습니다. 이런 식으로 했고 일반적으로 개선 사항이 있지만 이것은 OOS에서 작동하는 고품질 모델을 얻는 방법보다 더 정교합니다.
거래에 대해 Marcos Lopez De Prado "메타 러닝"을 구글링할 수 있습니다.
카트의 신호를 통해 이길 수 있습니까? )
옵션 중 하나로 예, 몇 번의 반복 후에
- 복잡하고 멋진 솔루션을 찾을 필요가 없습니다. 모든 것이 간단합니다. 단일 레이어 Sequential에서 첫 번째 결과를 얻었습니다.
- 예측은 20개 모델의 누적 의견에서 합산
둘 중 하나는 중복인듯...
- 복잡하고 멋진 솔루션을 찾을 필요가 없습니다. 모든 것이 간단합니다. 단일 레이어 Sequential에서 첫 번째 결과를 얻었습니다.
- 예측은 20개 모델의 누적 의견에서 합산
둘 중 하나는 중복인듯...
1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?
또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.
2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?
3. 완전히 양초 + 표시기 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )
1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?
또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.
2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?
3. 완전히 양초 + 지표 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )
2. "돈을 버는 것"이라는 관점에서 생각하기 시작하자마자 모든 것이 즉시 축소되고 멈추고, 두뇌는 take, stop, backtest, 매개변수 선택으로 전환되며 여기에서 주제 자체인 연구 부분이 흥미로워집니다.
3. 노하우다
1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?
또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.
2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?
3. 완전히 양초 + 지표 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )
필터 없이 소켓 + json을 통해 신경 신호를 보낼 수 있습니다. 1분마다 예측합니다.
2. 증권 거래소 거래에 대한 주제를 기꺼이 아웃소싱하겠습니다.
필터 없이 소켓 + json을 통해 신경 신호를 보낼 수 있습니다. 1분마다 예측합니다.
여기 MQL에서 "신호"로 거래를 브로드캐스트할 수 있습니다.
그리고 즉시 구독할 고객을 찾습니다 ... 그리고 거래를 방송하면 통계가 명확해지고 모든 것이 표시되며 사람들이 자신이 벌고 있는 것을 볼 때 따라잡을 것이며 이것이 평균적인 갈리마가 아니라는 사실을 알게 될 것입니다. 저걸 보면 제일 먼저 구독하는 사람 중 한 명.
여기에 이론적인 질문이 있습니다.
모델을 근사화할 목적 함수가 있습니다.
예측 변수가 있으므로 1000개라고 합니다.
따라서 문제는 och가 있는지 여부입니다. 많은 예측 변수를 동일한 부분으로 나눌 수 있습니다. 예를 들어 각각 100개 조각을 만들고 10개 모델을 훈련시킨다고 가정해 보겠습니다.
그런 다음 이 10개 모델의 출력이 예측 변수로 새 모델에 적용됩니다. 이것은 한 번에 1000개의 예측 변수에 대해 처음에 과학자에 대한 하나의 모델과 동일합니까?
무언가가 나에게 말하지 않지만 의견을 듣고 싶습니다.
여기에 이론적인 질문이 있습니다.
모델을 근사화할 목적 함수가 있습니다.
예측 변수가 있으므로 1000개라고 합니다.
따라서 문제는 och가 있는지 여부입니다. 많은 예측 변수를 동일한 부분으로 나눌 수 있는지, 각각 100개 조각을 만들고 10개 모델을 훈련시킨다고 가정해 보겠습니다.
그런 다음 이 10개 모델의 출력이 예측 변수로 새 모델에 적용됩니다. 이것은 한 번에 1000개의 예측 변수에 대해 처음에 과학자에 대한 하나의 모델과 동일합니까?
무언가가 나에게 말하지 않지만 의견을 듣고 싶습니다.
이것을 모델 스태킹이라고 합니다. 그것은 동일하지 않을 것이지만 그것이 더 효과적일 것이라는 사실은 아닙니다. 그렇게했지만 개선 사항을 보지 못했습니다.
메타 학습이라는 또 다른 방법이 있습니다. 클래스를 예측하도록 첫 번째 모델을 훈련시킨 다음, 결과를 가져와서 동일한 또는 다른 예측자에서 두 번째 모델에 공급하여 첫 번째 모델 의 거래를 허용/비활성화합니다 . 1 - 거래, 0 - 첫 번째 예측의 품질에 따라 거래 안 함, 즉 일부 필터. 이것은 훈련 데이터의 오류 수를 크게 줄이지만 새 데이터의 오류는 많지 않습니다(모델의 일반화 능력이 낮은 경우). 그러나 그 자체로 메타 학습은 정상적인 것입니다.
첫 번째 모델의 오류에 대해 일부 데이터에 대해 첫 번째 모델을 훈련하고 다른 데이터에 대해 메타 모델을 훈련할 수 있습니다. 옵션은 다를 수 있습니다. 이런 식으로 했고 일반적으로 개선 사항이 있지만 이것은 OOS에서 작동하는 고품질 모델을 얻는 방법보다 더 정교합니다.
거래에 대해 Marcos Lopez De Prado "메타 러닝"을 구글링할 수 있습니다.