트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1608

 
카트의 신호를 통해 이길 수 있습니까? )
 
막심 드미트리예프스키 :
카트의 신호를 통해 이길 수 있습니까? )

옵션 중 하나로 예, 몇 번의 반복 후에

 
예브게니 듀카

- 복잡하고 멋진 솔루션을 찾을 필요가 없습니다. 모든 것이 간단합니다. 단일 레이어 Sequential에서 첫 번째 결과를 얻었습니다.

- 예측은 20개 모델의 누적 의견에서 합산


둘 중 하나는 중복인듯...

 
... :

- 복잡하고 멋진 솔루션을 찾을 필요가 없습니다. 모든 것이 간단합니다. 단일 레이어 Sequential에서 첫 번째 결과를 얻었습니다.

- 예측은 20개 모델의 누적 의견에서 합산


둘 중 하나는 중복인듯...

초과가 없습니다. 이 모델은 네트워크 교육의 결과인 아주 작은 파일입니다. 많은 경우 조작할 수 있습니다.
 
예브게니 듀카 :

1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?

또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.


2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?


3. 완전히 양초 + 표시기 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )

 
mytarmailS :

1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?

또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.


2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?


3. 완전히 양초 + 지표 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )

1. 입력 데이터(기능)
2. "돈을 버는 것"이라는 관점에서 생각하기 시작하자마자 모든 것이 즉시 축소되고 멈추고, 두뇌는 take, stop, backtest, 매개변수 선택으로 전환되며 여기에서 주제 자체인 연구 부분이 흥미로워집니다.
3. 노하우다
 
mytarmailS :

1. 왜 모델들의 앙상블인가? 무엇이 그들을 다르게 만드는가? 미래 또는 기능에 대한 긴 예측?

또는 앙상블에서 청취할 네트워크를 선택하는 계층적으로 더 높은 다른 네트워크가 있습니다.


2. 모든 것이 잘 작동한다면 왜 대중입니까? 수입을 방해하는 것은 무엇입니까?


3. 완전히 양초 + 지표 + 더 까다로운 것과 더 까다로운 것은 무엇입니까? )

2. 증권 거래소 거래에 대한 주제를 기꺼이 아웃소싱하겠습니다.
필터 없이 소켓 + json을 통해 신경 신호를 보낼 수 있습니다. 1분마다 예측합니다.
 
예브게니 듀카 :
2. 증권 거래소 거래에 대한 주제를 기꺼이 아웃소싱하겠습니다.
필터 없이 소켓 + json을 통해 신경 신호를 보낼 수 있습니다. 1분마다 예측합니다.

여기 MQL에서 "신호"로 거래를 브로드캐스트할 수 있습니다.

그리고 즉시 구독할 고객을 찾습니다 ... 그리고 거래를 방송하면 통계가 명확해지고 모든 것이 표시되며 사람들이 자신이 벌고 있는 것을 볼 때 따라잡을 것이며 이것이 평균적인 갈리마가 아니라는 사실을 알게 될 것입니다. 저걸 보면 제일 먼저 구독하는 사람 중 한 명.

 

여기에 이론적인 질문이 있습니다.

모델을 근사화할 목적 함수가 있습니다.

예측 변수가 있으므로 1000개라고 합니다.


따라서 문제는 och가 있는지 여부입니다. 많은 예측 변수를 동일한 부분으로 나눌 수 있습니다. 예를 들어 각각 100개 조각을 만들고 10개 모델을 훈련시킨다고 가정해 보겠습니다.

그런 다음 이 10개 모델의 출력이 예측 변수로 새 모델에 적용됩니다. 이것은 한 번에 1000개의 예측 변수에 대해 처음에 과학자에 대한 하나의 모델과 동일합니까?

무언가가 나에게 말하지 않지만 의견을 듣고 싶습니다.

 
mytarmailS :

여기에 이론적인 질문이 있습니다.

모델을 근사화할 목적 함수가 있습니다.

예측 변수가 있으므로 1000개라고 합니다.


따라서 문제는 och가 있는지 여부입니다. 많은 예측 변수를 동일한 부분으로 나눌 수 있는지, 각각 100개 조각을 만들고 10개 모델을 훈련시킨다고 가정해 보겠습니다.

그런 다음 이 10개 모델의 출력이 예측 변수로 새 모델에 적용됩니다. 이것은 한 번에 1000개의 예측 변수에 대해 처음에 과학자에 대한 하나의 모델과 동일합니까?

무언가가 나에게 말하지 않지만 의견을 듣고 싶습니다.

이것을 모델 스태킹이라고 합니다. 그것은 동일하지 않을 것이지만 그것이 더 효과적일 것이라는 사실은 아닙니다. 그렇게했지만 개선 사항을 보지 못했습니다.

메타 학습이라는 또 다른 방법이 있습니다. 클래스를 예측하도록 첫 번째 모델을 훈련시킨 다음, 결과를 가져와서 동일한 또는 다른 예측자에서 두 번째 모델에 공급하여 첫 번째 모델 의 거래를 허용/비활성화합니다 . 1 - 거래, 0 - 첫 번째 예측의 품질에 따라 거래 안 함, 즉 일부 필터. 이것은 훈련 데이터의 오류 수를 크게 줄이지만 새 데이터의 오류는 많지 않습니다(모델의 일반화 능력이 낮은 경우). 그러나 그 자체로 메타 학습은 정상적인 것입니다.

첫 번째 모델의 오류에 대해 일부 데이터에 대해 첫 번째 모델을 훈련하고 다른 데이터에 대해 메타 모델을 훈련할 수 있습니다. 옵션은 다를 수 있습니다. 이런 식으로 했고 일반적으로 개선 사항이 있지만 이것은 OOS에서 작동하는 고품질 모델을 얻는 방법보다 더 정교합니다.

거래에 대해 Marcos Lopez De Prado "메타 러닝"을 구글링할 수 있습니다.

사유: