트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 762

 
마이클 마르쿠카이테스 :

다음은 2주 동안의 잔액입니다. 이번이 세 번째입니다. 동일한 모델이 작동합니다. 지난주에 선물에 변동이 있어서 거래가 거의 없었고, 선물을 바꾸자마자 일을 시작했습니다. 어제 나는 두 마리의 큰사슴을 잡아 급히 거래를 중단했습니다. 좋은 신호 하나를 놓쳤지만 오늘 저녁에 다시 시작했습니다. 그러나 지금까지는 전반적으로 너무 좋습니다. 무엇을 바라는가...

씨발.... 이거 진짜야? 2주동안 1000$....최대 20~50불이 내 통장에 있는게 아니라.... 글쎄요, 저는 Tolyatti에서 온 꼬마인데, 그런 돈은 꿈만 꾸고... IMHO 아주 좋아요 . 그건 그렇고, Mikhail은 표시기에 관해서는 릴의 문제가 아니 었습니다.))) XP x32의 회전에서 모든 것이 작동했습니다. 그러니 걱정하지 마세요. 저는 dll과 칠면조가 필요하지 않습니다. 거기에 무엇이 있는지 이해합니다 ...

 
마이클 마르쿠카이테스 :

이번주말쯤에 할거 같은데..

태양은 필요없어
우울한 봄
어둠 속에서 배수...

 
마이클 마르쿠카이테스 :

다음은 2주 동안의 잔액입니다. 이번이 세 번째입니다. 동일한 모델이 작동합니다. 지난주에 선물에 변동이 있어서 거래가 거의 없었고, 선물을 바꾸자마자 일을 시작했습니다. 어제 나는 두 마리의 큰사슴을 잡아 급히 거래를 중단했습니다. 좋은 신호 하나를 놓쳤지만 오늘 저녁에 다시 시작했습니다. 그러나 지금까지는 전반적으로 너무 좋습니다. 무엇을 바라는가...


몇 달만 더 주세요. 잠시만 기다려 주세요 :) 저도 요즘 새로운 발린카를 만들어 모니터링 중에 출시할 예정입니다.

 
예브게니 라스파에프 :

씨발.... 이거 진짜야? 2주동안 1000$....최대 20~50불이 내 통장에 있는게 아니라.... 글쎄요, 저는 Tolyatti에서 온 꼬마인데, 그런 돈은 꿈만 꾸고... IMHO 아주 좋아요 .

하지만? 뭐라고요? 성배 는 여기 어딘가에 있습니까? 마지막 줄은 누구인가요?

 
마이클 마르쿠카이테스 :

다음은 2주 동안의 잔액입니다. 이번이 세 번째입니다. 동일한 모델이 작동합니다. 지난주에 선물에 변동이 있어서 거래가 거의 없었고, 선물을 바꾸자마자 일을 시작했습니다. 어제 나는 두 마리의 큰사슴을 잡아 급히 거래를 중단했습니다. 좋은 신호 하나를 놓쳤지만 오늘 저녁에 다시 시작했습니다. 그러나 지금까지는 전반적으로 너무 좋습니다. 무엇을 바라는가...


1건의 거래에서 이렇게 큰 폭의 증가가 있다면, 당신은 아마도 예금의 많은 부분을 거래할 것입니까? 보증금의 50%와 좋은 레버리지로?
 
도서관 :
1건의 거래에서 이렇게 큰 폭의 증가가 있다면 당신은 아마도 예금의 많은 부분을 거래할 것입니까? 보증금의 50%와 좋은 레버리지로?

이익의 비율은 올바른 지표가 아니며 가장 중요한 것은 수익성과 자본 유형입니다. 초반에는 디포에 가해지는 부담이 매우 크죠..... 하지만 사실 자체가 모델이 점점 늘어나고 있다는 것입니다. 이번주말까지 유지하다가 오버트레이닝 할거같은데....

 
마이클 마르쿠카이테스 :


마이클, 경험이 있는 사람으로서 말씀해 주시겠습니까? 약 1000개의 입력이 있습니다. 그러나 1000개의 예측 변수를 사용하면 NeuroSolution조차도 저를 위해 멈춥니다. 1000개의 입력을 200개의 입력으로 구성된 5개 그룹으로 나누면 어떻게 될까요? 각 그룹은 총 5개의 네트워크에서 별도의 네트워크입니다. 그런 다음 네트워크의 출력을 원하는 값을 이미 얻은 출력에서 6번째 네트워크로 공급합니다. 문제는 그것이 어떻게 작동하고 1개의 네트워크를 생성하지만 한 번에 1000개의 입력을 모두 생성할 것이라고 생각하느냐입니다.

 
1000개의 입력을 필터링하여 출력에 영향을 주는 것만 남기는 것이 더 쉽습니다. 50개 이상 없을 거라 확신합니다. 또한 모든 것이 하나의 네트워크에 있습니다. 선택은 vtreat.R로 수행됩니다.
 
예브게니 라스파에프 :

마이클, 경험이 있는 사람으로서 말씀해 주시겠습니까? 약 1000개의 입력이 있습니다. 그러나 1000개의 예측 변수를 사용하면 NeuroSolution조차도 저를 위해 멈춥니다. 1000개의 입력을 200개의 입력으로 구성된 5개 그룹으로 나누면 어떻게 될까요? 각 그룹은 총 5개의 네트워크에서 별도의 네트워크입니다. 그런 다음 네트워크의 출력을 원하는 값을 이미 얻은 출력에서 6번째 네트워크로 공급합니다. 문제는 그것이 어떻게 작동하고 1개의 네트워크를 생성하지만 한 번에 1000개의 입력을 모두 생성할 것이라고 생각하느냐입니다.

하나의 답변에 대해 1000개의 입력 데이터가 많고 그러한 예가 1000개 미만인 경우 예에서 변수의 중요성은 매우 약하고 잡음이 많을 가능성이 큽니다. 나는 개인적으로 10,000에서 예제의 수를 사용하고 랜덤 포레스트 알고리즘은 이 숫자에 꽤 잘 대처합니다. 그리고 5 그리드의 결과를 나중에 6 그리드로 보내는 것에 대한 질문에 대답하면 네, 이런 식으로 훈련 할 수 있습니다. 그러나 여기에서도 조금 다르게 접근할 수 있습니다. 이 5가지 그리드의 중요성을 투표에 적용하면 됩니다. 즉 깍비 총예측을 사용합니다. 그리고 다시 한 번, 입력 데이터에 대해 신중하게 생각하십시오.

 
마이클 마르쿠카이테스 :
1000개의 입력을 필터링하여 출력에 영향을 주는 것만 남기는 것이 더 쉽습니다. 50개 이상 없을 거라 확신합니다. 또한 모든 것이 하나의 네트워크에 있습니다. 선택은 vtreat.R로 수행됩니다.

위에 설명드린대로 해도 될까요? 나는 네트워크에서 위원회가 있다는 것을 알고 있지만 그들과 함께 일하지 않았을 때는 그렇지 않았습니다. 그리고 훈련은 병행해야 하는 것 같은데... 아니면 각각 따로 하는 것도 가능한가요? 당신의 의견에 관심

사유: