트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 408

 

좋은 하루 되세요.


토론 참가자가 어떤 ML 패키지를 사용하는지 설명하겠습니다. 아니면 모든 것이 MQL을 통해 수행됩니까?

 

놀랍게도 파일이 계산되었고, 모델의 품질이 약해서 검증을 확인하게 하고 싶은 사람....

파일:
 
마이클 마르쿠카이테스 :

놀랍게도 파일이 계산되었고, 모델의 품질이 약해서 검증을 확인하게 하고 싶은 사람....

파일은 다음과 같이 말합니다.
* 트루포지티브: 853
* 트루네거티브: 1098
* 거짓양성: 732
* 거짓음수: 985

저것들. 거의 50/50.
약간 더 간단한 논리 문제에 대해 거의 동일한 결과를 얻었습니다. 이것이 노이즈 입력이 RNN 결과를 매우 망칠 것이라고 가정한 이유입니다.

 
도서관 :

파일은 다음과 같이 말합니다.
* 트루포지티브: 853
* 트루네거티브: 1098
* 거짓양성: 732
* 거짓음수: 985

저것들. 거의 50/50.
약간 더 간단한 논리 문제에 대해 거의 동일한 결과를 얻었습니다. 이것이 노이즈 입력이 RNN 결과를 매우 망칠 것이라고 가정한 이유입니다.


맞아요, 모형의 일반화 능력은 52%니까...
 
알렉세이 테렌테프 :

좋은 하루 되세요.


토론 참가자가 어떤 ML 패키지를 사용하는지 설명하겠습니다. 아니면 모든 것이 MQL을 통해 수행됩니까?

일반적으로 MCL에서 일부 모델을 다시 작성하려는 소수의 매니아를 제외하고는 모든 것이 R에서 수행됩니다. 패키지의 경우 트리, 신경망, 심층 신경망 등 누군가가 사용하는 모델에 따라 다릅니다.

어떤 모델에 관심이 있습니까?

행운을 빕니다

 
블라디미르 페레르벤코 :

일반적으로 MCL에서 일부 모델을 다시 작성하려는 소수의 매니아를 제외하고는 모든 것이 R에서 수행됩니다. 패키지의 경우 트리, 신경망, 심층 신경망 등 누군가가 사용하는 모델에 따라 다릅니다.

어떤 모델에 관심이 있습니까?

행운을 빕니다


당신은 Reshetov 옵티마이저를 잊어 버렸습니다. 여기에서도 그렇게 사용됩니다 ....
 
도서관 :

파일은 말한다
* 트루포지티브: 853
* 트루네거티브: 1098
* 거짓양성: 732
* 거짓음수: 985

저것들. 거의 50/50.
약간 더 간단한 논리 문제에 대해 거의 동일한 결과를 얻었습니다. 이것이 노이즈 입력이 RNN 결과를 매우 망칠 것이라고 가정한 이유입니다.


일반적인 MLP 20-5-1은 이것을 동일한 작업에 제공할 수 있습니다.

훈련(60.0%) 세그먼트의 평균 오류 =0.116(11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
검증(20.0%) 플롯의 평균 오차 =0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
테스트(20.0%) 섹션의 평균 오류 = 0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
계산 시간=0.77분

때로는 50%를 주기도 하지만 분명히 2번의 재교육 주기가 아니라 더 많은 것을 설정해야 합니다.
----------------------------------

R에서 네트워크 nnet 20-1-1:
예측
실제 0 1 오류
0 0.41 0.09 0.18
1 0.24 0.26 0.48

조금 더 나빠지지만 몇 초 만에 해결됩니다.

그러나 RNN에는 교육 사이트에서 오류 = 0이 있습니다. 그것도 멋지다. 나는 아마도 블로그에 내 실험을 게시 할 것입니다

 
도서관 :

일반적인 MLP 20-5-1은 이것을 동일한 작업에 제공할 수 있습니다.

훈련(60.0%) 세그먼트의 평균 오류 =0.116(11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
검증(20.0%) 플롯의 평균 오차 =0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
테스트(20.0%) 섹션의 평균 오류 = 0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
계산 시간=0.77분
----------------------------------

R의 네트워크 nnet 20-1-1:
예측
실제 0 1 오류
0 0.41 0.09 0.18
1 0.24 0.26 0.48

조금 더 나빠지지만 몇 초 만에 해결됩니다.

여기서 문제를 해결하는 것이 까다로운 일이 아니라는 것을 조금 다르게 이해해야 합니다. 그러나 모델이 더 나아가 어떻게 작동할 것인지, 이것이 문제입니다. 우리는 실수 없이 빠르게 배울 수 있습니다. 그리고 새 데이터에서 완전한 0입니다. Predikshina에는 하나의 아주 좋은 기능이 있습니다. 새 데이터에서 훈련과 동일한 수준의 오류로 작동합니다. 재교육을 하지 않기 때문입니다. 그리고 나머지 네트워크는 이 예를 매우 빠르게 배울 수 있지만 동시에 새로운 데이터에서 훨씬 더 나쁜 결과를 보여줍니다... IMHO
 
마이클 마르쿠카이테스 :

여기서 문제를 해결하는 것이 까다로운 일이 아니라는 것을 조금 다르게 이해해야 합니다. 그러나 모델이 더 나아가 어떻게 작동할 것인지, 이것이 문제입니다. 우리는 실수 없이 빠르게 배울 수 있습니다. 그리고 새 데이터에서 완전한 0입니다. Predikshina에는 하나의 아주 좋은 기능이 있습니다. 새 데이터에서 훈련과 동일한 수준의 오류로 작동합니다. 재교육을 하지 않기 때문입니다. 그리고 나머지 네트워크는 이 예를 매우 빠르게 배울 수 있지만 동시에 새로운 데이터에서 훨씬 더 나쁜 결과를 보여줍니다... IMHO

새 데이터는 다음과 같습니다.

검증(20.0%) 플롯의 평균 오차 =0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
테스트(20.0%) 섹션의 평균 오류 = 0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2

 
도서관 :

새 데이터는 다음과 같습니다.

검증(20.0%) 플롯의 평균 오차 =0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
테스트(20.0%) 섹션의 평균 오류 = 0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2


그래서 나는 논쟁하지 않습니다. 모든 것이 가능합니다 ... :-)
사유: