트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 405

 
도서관 :

글쎄요, 첫 번째 게시물의 문제는 모든 사람들이 자신의 MO 시스템을 확인하는 데 관심이 있다고 생각합니다.
흥미로운 발전기. 자작?

플롯을 2 또는 3으로 나누었습니다. 익숙하지 않은 데이터는 어떻게 되나요?

이것은 기사에서 설명 하는 EA 제너레이터의 연속이며 숲을 향해 있습니다.)

그러나 이러한 데이터에 대한 실제 실험은 그다지 의미가 없다고 생각합니다. 예를 들어 순전히 학문적인 것 같습니다.

 
나는 경쟁을 주선 할 것을 제안합니다. MO 모델의 경우 모델은 자체 제작 된 것일 수도 있습니다. 이것은 전혀 요점이 아닙니다 .. 가장 중요한 것은 훈련 / 가중치 선택 / 최적화 요소가 있다는 것입니다. 당신은 데모를 즐길 수 있습니다. 이것은 작동하는 것과 작동하지 않는 것에 대한 쓸데없는 논쟁에 휘말리지 않기 위함입니다. :) 음, xy에서 xy가 즉시 명확해질 것입니다. 누가 MO가 시장에서 어떻게 사용될 수 있는지 정말로 이해하고 누가 그냥 이야기하는지 :)
 
이반 네그레쉬니 :

이것은 기사에서 설명 하는 EA 제너레이터의 연속이며 숲을 향해 있습니다.)

그러나 이러한 데이터에 대한 실험은 그다지 의미가 없다고 생각합니다. 예를 들어 순전히 학문적인 것 같습니다.


나는 또한 입력을 완전히 기억하는 1 트리를 만들었습니다. 파일이지만 새 데이터에서는 모든 것이 나쁩니다.

훈련(60.0%) 플롯의 평균 오류 = 0.000(0.0%) nTrees=1 codResp=1
유효성 검사(20.0%)의 평균 오류 영역 =0.706(70.6%) nTrees=1 codResp=1
테스트(20.0%) 플롯의 평균 오차 =0.701(70.1%) nTrees=1 codResp=1

그래서 그것은 의미가있다


막심 드미트리예프스키 :
나는 경쟁을 주선 할 것을 제안합니다. MO 모델의 경우 모델은 자체 제작 한 것일 수도 있습니다. 이것은 전혀 요점이 아닙니다. 가장 중요한 것은 훈련 / 가중치 선택 / 최적화 요소가 있다는 것입니다. 데모를 즐길 수 있습니다. 이는 효과가 있는 것과 없는 것에 대한 쓸데없는 논쟁을 하지 않기 위함입니다. :)
진실은 분쟁에서 태어난다) 나는 아직 경쟁자가 없고, 국회는 검증과 개선의 과정에 있다...
 
도서관 :


진실은 논쟁에서 태어난다

문제는 여기에서 많은 사람들이 근거 없는 진술을 하려는 경향이 있다는 것입니다. 그들은 이것이 모두 말도 안 되고 작동하지 않을 것이라고 말합니다. 그러나 그렇게 되어서는 안 됩니다. 저것들. 사람은 자신이 무엇인지 이해하지 못하고 혀를 긁거나 실제로 이해하고 결과를 얻습니다.
 
막심 드미트리예프스키 :

문제는 여기에서 많은 사람들이 근거 없는 진술을 하려는 경향이 있다는 것입니다. 그들은 이것이 모두 말도 안 되고 작동하지 않을 것이라고 말합니다. 그러나 그렇게 되어서는 안 됩니다. 저것들. 사람은 자신이 무엇인지 이해하지 못하고 혀를 긁거나 실제로 이해하고 결과를 얻습니다.
누군가에게 신호가 있다면 그 말을 더 믿을 수 있습니다. 비록 신호가 로봇에서 온 것일 수도 있지만(저희 자체 설계가 아님).
 
막심 드미트리예프스키 :
나는 경쟁을 주선 할 것을 제안합니다. MO 모델의 경우 모델은 자체 제작 된 것일 수도 있습니다. 이것은 전혀 요점이 아닙니다 .. 가장 중요한 것은 훈련 / 가중치 선택 / 최적화 요소가 있다는 것입니다. 당신은 데모를 즐길 수 있습니다. 이것은 작동하는 것과 작동하지 않는 것에 대한 쓸데없는 논쟁에 휘말리지 않기 위함입니다. :) 음, xy에서 xy가 즉시 명확해질 것입니다. 누가 MO가 시장에서 어떻게 사용될 수 있는지 정말로 이해하고 누가 그냥 이야기하는지 :)

나는 실용적인 결과를 선호하고 이를 따릅니다. 예를 들어, 작업 지표와 조언자를 시장에 내놓았고, 추가 프로그래밍 없이 생성기에 의해 코드가 생성된 경우 무료입니다.

 

아니요, 예를 들어 Mikhail이 일종의 Reshetovsky 도시를 사용한다는 사실에 대해 이야기하고 있습니다. 그러나 그들 자신은 대가로 아무것도 제공하지 않으며 완전히 파악하지도 못했습니다 :)

나는 모델을 비교했다 - 그것은 테스트 샘플에서 더 적은 비율의 오류를 제공합니다. 다른 무엇을 문서화해야합니까 :) 적어도 숲과 간단한 MLP보다 낫지 만 이것을 적용하는 방법은 이미 세 번째 질문입니다.

그런 다음 또 다른 멋진 모니터링이 모든 이론가를 자르고 찢을 것입니다 :D

 
막심 드미트리예프스키 :

아니요, 예를 들어 Mikhail이 일종의 Reshetovsky 도시를 사용한다는 사실에 대해 이야기하고 있습니다. 그러나 그들 자신은 대가로 아무것도 제공하지 않으며 완전히 파악하지도 못했습니다 :)

나는 모델을 비교했다 - 그것은 테스트 샘플에서 더 적은 비율의 오류를 제공합니다. 다른 무엇을 문서화해야합니까 :) 적어도 숲과 간단한 MLP보다 낫지 만 이것을 적용하는 방법은 이미 세 번째 질문입니다.

그런 다음 또 다른 멋진 모니터링이 모든 이론가를 자르고 찢을 것입니다 :D

이 새로운 모델을 알아냈다면 - 그가 어떻게 100개의 입력 중에서 올바른 것을 선택하여 2개의 RNN을 공급하는지 말해주세요(거기에 8개의 입력이 있다고?)? 100분의 8이 바쁘신가요? 각 옵션의 계산과 최선의 선택으로? 아니면 유전학이나 다른 유형의 선택입니까? 나에게 현재 단계에서 예측 변수의 선택은 완전히 해결된 문제가 아니며(나는 상관 관계와 Fisher를 마스터했지만 안정적으로 작동하지 않음) 전체 및 긴 교육을 통해 입력의 가중치로 선택을 봅니다. ...하지만 길다.
이 시스템에 흥미로운 것이 있습니까?
 
도서관 :
이 새로운 모델을 알아냈다면 - 그가 어떻게 100개의 입력 중에서 올바른 것을 선택하여 2개의 RNN을 공급하는지 말해주세요(거기에 8개의 입력이 있다고?)? 100분의 8이 바쁘신가요? 각각의 계산과 최선의 선택으로? 아니면 유전학이나 다른 유형의 선택입니까?


선택이 어떻게 발생하는지 정확히 모르지만 한 가지 규칙이 있습니다. 모델이 다시 학습되자마자 모델이 더 복잡해집니다. 모든 훈련에서 입력의 수는 항상 다릅니다. 그것은 모두 샘플을 훈련과 무작위 테스트로 나누는 것에 달려 있습니다....

Py SY Stsuko 모델이 2일째 세고 있는 중입니다.....세트에서 쓰레기를 제거한다는 의미입니다.... :-)

 
도서관 :
이 새로운 모델을 알아냈다면 - 그가 어떻게 100개의 입력 중에서 올바른 것을 선택하여 2개의 RNN을 공급하는지 말해주세요(거기에 8개의 입력이 있다고?)? 100분의 8이 바쁘신가요? 각각의 계산과 최선의 선택으로? 아니면 유전학이나 다른 유형의 선택입니까?


µul로 다시 작성하는 과정에서 정보가 아닌 예측 변수를 제거하는 방법을 알아낼 때까지

요컨대, 당신은 다시 쓰고 이해할 때까지 드래곤으로 변할 것입니다. 그래서 2 주 전에 썼습니다)

사유: