트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 559

 
막심 드미트리예프스키 :

글쎄, 여기서 나는 예측 헛소리를 한 다음 일부 역사에서 즉시 품질을 평가합니다 .. 품질이 정상이면 두 번째 사람에게 예측에 따라 거래하도록 가르칩니다.

(처음에는 논리가 흐릿하지만 저도 NS로 대체하기로 했습니다.)

옵티마이저에서는 일반적으로 할 수 있지만 클라우드에서는 조금 비싸고 매개변수가 많으면 당일 훈련을 하게 됩니다.. 작업은 동일합니다 - 대상 함수의 최적화

아마도 MT의 최적화와 NN의 훈련 모두의 목표는 특정 목적 함수를 찾는 것입니다. 그러나 결과 기능은 물리적 기능을 포함하여 매우 다릅니다. 의미.

위협 이전에 추가로. 게시하다.

내 NS에는 클라우드가 필요하지 않습니다. 모든 작업은 가정용 컴퓨터에서 수행됩니다. 그래, 오랫동안, 정말로 하루 동안. 그건 그렇고, MQL은 이러한 NN에도 필요하지 않습니다. 기능도 제한도 없습니다.)

 
유리 아사울렌코 :
아마도 MT의 최적화와 NN의 훈련 모두의 목표는 특정 목적 함수를 찾는 것입니다. 그러나 결과 기능은 물리적 기능을 포함하여 매우 다릅니다. 의미.

타협이 필요합니다 - 훈련을 위해 하루를 기다리고 싶지 않고 수동으로 재훈련하고 싶지도 않습니다.. 테스터에서 오랜 기간 동안 신속하고 재현 가능하게 필요한 경우 자동 재훈련을 해야 합니다.

작업의 사소함을 고려하면 빠른 알고리즘과 약간의 최적화만 남습니다.

더군다나 모든 종류의 테스터/shmester를 직접 작성하고 다양한 프로그램 번들을 사용하는 등의 작업을 하고 싶지 않습니다. 약속하지 않고 개발자에게 맡기십시오 ..하지만 나는 단지 상인일뿐입니다

이제 그들이 추가하고 싶어하는 것처럼 보이는 R \ Python과의 뛰어난 통합이 있다면 더 많은 것을 할 수 있을 것입니다..

시간에 따른 추정 - 봄이 시작되기 전에 NS의 강력한 시스템을 얻지 못하면 무화과가 자랑스럽지 않습니다. :)

 
유리 아사울렌코 :
셋째, 학습할 때 대부분의 지역 기사에서와 같이 MLP에 대한 결정을 강요하지 마십시오.

독학을 말씀하시는 건가요? 어떻게 할 수 있습니까?

 
막심 드미트리예프스키 :

타협이 필요합니다 - 훈련을 위해 하루를 기다리고 싶지 않고 수동으로 재훈련하고 싶지도 않습니다.. 테스터에서 오랜 기간 동안 신속하고 재현 가능하게 필요한 경우 자동 재훈련을 해야 합니다.

작업의 사소함을 고려하면 빠른 알고리즘과 약간의 최적화만 남습니다.

시간에 따른 추정 - 봄이 시작되기 전에 NS의 강력한 시스템을 얻지 못하면 무화과가 자랑스럽지 않습니다. :)

약 6개월 동안 국회와 일하면서 발사체에 대한 접근 방식만 구상했다. 그리고 나서야 그는 점차적으로 시장 작업으로 이동했습니다. 그리고 다른 빠른 알고리즘과 옵션을 분류하는 것보다 다소 알려진 결과로 하루 동안 훈련하는 것이 좋습니다.

그건 그렇고, 이미 4-5 번째 시도에서 허용 가능한 결과를 얻었습니다. 약 2개월 정도밖에 걸리지 않았습니다. 이 중 단 5일 동안만 직접 훈련합니다.)

 
도서관 :

독학을 말씀하시는 건가요? 어떻게 할 수 있습니까?

아니요, 스스로 배우는 것이 아닙니다. Epoch 사이에 중간 설정이 있는 일반 PSU.

당신이 구구단을 실제로 알지 못하는 교사와 함께 구구단을 배우고 있다고 상상해보십시오. 그게 바로 제가 시작한 일입니다.)

나는 Khaikin이 설명 한 것 - 훈련에서 정답 / 오답의 비율에 도달했습니다. 순서는 현실과 일치해야 합니다.

 
유리 아사울렌코 :

약 6개월 동안 국회와 일하면서 발사체에 대한 접근 방식만 구상했다. 그리고 나서야 그는 점차적으로 시장 작업으로 이동했습니다. 그리고 다른 빠른 알고리즘과 옵션을 분류하는 것보다 다소 알려진 결과로 하루 동안 훈련하는 것이 좋습니다.

그건 그렇고, 이미 4-5 번째 시도에서 허용 가능한 결과를 얻었습니다. 약 2개월 정도밖에 걸리지 않았습니다. 이 중 단 5일 동안만 직접 훈련합니다.)


그것도 반년 정도.. 벌고 있는 것 같지만 더 많이 해야 한다, 이게 국회다! :) 월평균 5%로는 만족감이 부족합니다.. 중재 후 수백%가 되었을 때

 
막심 드미트리예프스키 :

그것도 반년 정도.. 벌고 있는 것 같지만 더 많이 해야 한다, 이게 국회다! :) 월평균 5%로는 만족감이 부족합니다.. 중재 후 수백%가 되었을 때

나는 위의 어딘가에 테스트 결과의 그래프를 주었다. 그곳에서는 모든 것이 순조로운 것 같습니다.

3개월마다 재교육을 해도 문제 없습니다. 지금까지는 필요가 없었습니다.

앞서 경고했습니다. 저는 실제 세계의 특정 데이터를 게시하지 않습니다. 이에 대한 추측을 확인하거나 부인하지 않습니다.)

 

유리 아사울렌코 :

셋째, 학습할 때 대부분의 지역 기사에서와 같이 MLP에 대한 결정을 강요하지 마십시오 .

...

아니요, 스스로 배우는 것이 아닙니다. Epoch 사이에 중간 설정이 있는 일반 PSU.

당신이 구구단을 실제로 알지 못하는 교사와 함께 구구단을 배우고 있다고 상상해보십시오. 그게 바로 제가 시작한 일입니다.)

나는 Khaikin이 설명 한 것 - 훈련에서 정답 / 오답의 비율에 도달했습니다. 순서 는 현실과 일치해야 합니다.

이해가 안되는 부분이...

글쎄, 답변이 포함된 " 훈련 순서 " 가 아직 있다면 여전히 " MLP 에 대한 결정을 부과 " 하고 있는 것입니다 .

 
도서관 :

이해가 안되는 부분이...

글쎄, 답변이 포함된 " 훈련 순서 " 가 아직 있다면 여전히 " MLP 에 대한 결정을 부과 " 하고 있는 것입니다 .

부과하지 마십시오. 예를 들어 훈련 중에 NN에 진입점을 부과하면 이런 일이 발생합니다. 훈련 중에 진입점을 무작위로 결정한다고 가정합니다. 그 중 일부는 정확하고 일부는 그렇지 않습니다. 결과는 물론 알려져 있습니다. 국회의 임무는 어디가 옳고 어디가 그른지를 배우는 것입니다. 전략은 교육 과정에서 직접 생성됩니다. 통계적으로 중요하지 않거나 "무작위" "올바른" 입력은 NN 자체를 훈련하는 동안 삭제됩니다. 누구에게 무엇을 부과하고 있습니까?
 
구구단을 모르는 선생님과 그녀에게 강요하지 않는 국회의 개발자, 무작위, 올바른 솔루션 - 더 붓지 마십시오!