트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1977

 

슬픔 pichal, TF의 증가는 결과를 악화시키고 범위는 더 좋습니다.

MA 및 희석제를 추가했습니다. MA가 없으면 Thinning은 시간 프레임을 변경하는 것처럼 작동하고 분포를 정상으로 만듭니다. RMS = 희석 단계의 루트. MA가 씬닝보다 2배 크면 코셔 다운샘플링이 있고 예측은 높은 정확도로 작동하지만 정확한 수학적 기대치를 계산하려면 테스터를 완료해야 합니다. 지그재그가 준비되어 있지만 만드는 방법을 모르겠습니다. 최저점과 최고점을 포함하는 인덱스 배열, 인덱스 배열 또는 한 번에 가격 배열.

MA 대신 다른 필터를 얻을 수 있습니다. 임펄스 응답만 알면 됩니다. MA 코드에서는 [1/per]*per로 수행되며, 이는 per=4에 대해 [0.25, 0.25, 0.25, 0.25]로 확장됩니다.

 
로르샤흐 :

숲: 55.89% 정확, 2.36 예상 값

산림 누적 증분: 55.89% 정확, 2.36 평균, 동일한 결과

모두 동일하지만 차이가 있으며 증분이 더 좋습니다.

지그재그 문제로 최소 변경을 제한하는 방법이 명확하지 않으며 지속적으로 마이크로 스위치


 

말도 안되는 소리지만 여쭤보겠습니다.


NN은 그러한 시리즈를 예측할 수 있습니까?


다음 문자가 나타날 확률 유형입니다. 그리고 행 B에 대한 행 A의 종속성이 있습니까?

 
예브게니 추마코프 :

말도 안되는 소리지만 여쭤보겠습니다.


NN은 그러한 시리즈를 예측할 수 있습니까?


다음 문자가 나타날 확률 유형입니다. 그리고 행 B에 대한 행 A의 종속성이 있습니까?

그들의 직접적인 임무다.

 

TensorFlow 2.3으로 전환한 후 오류가 발생했습니다.

" WARNING:tensorflow:11 out of last 11 call to trigger tf.function retracing. 추적은 비용이 많이 들고 과도한 수의 추적은 루프에서 @tf.function을 반복적으로 생성하기 때문에 발생할 수 있습니다 . "

저것들. 일종의 tf.function은 루프에 있다고 맹세합니다. 나는 tf.function이 없지만, 루프에서 예측=model.predict(data) 모델에 대한 투표가 있습니다.
tf.function은 여기 에 설명되어 있습니다.
이것은 분명히 알 수 없는 어떤 종류의 개체입니다. 이것이 무엇인지 이해하는 사람이 있습니까?

UPD
요컨대 이것은 일종의 멋진 것입니다. 어떤 식으로든 그것 없이는 깊이 파고들어야 합니다. Python과의 TensorFlow 호환성 문제를 해결 합니다.

 

그는 상인-에이전트를 마친 것 같습니다. 알파 테스트를 위해 데모를 모니터링했습니다. 논리가 사소하지 않으므로 버그가 있을 수 있습니다. 테스트 합시다.

이제 다른 버전과 mb 변환기에서 LSTM을 시도하는 데 관심이 있습니다.
 
막심 드미트리예프스키 :

그는 상인을 끝낸 것 같습니다. 알파 테스트를 위해 데모를 모니터링했습니다. 논리가 사소하지 않으므로 버그가 있을 수 있습니다. 테스트 합시다.

이제 다른 버전과 mb 변환기에서 LSTM을 시도하는 데 관심이 있습니다.

논리가 더 분기됩니다. 한편으로는 좋습니다. 그리고 반면에 낯선 지역의 버그. 변압기 란 무엇입니까?

 
발레리 야스트렘스키 :

논리가 더 분기됩니다. 한편으로는 좋습니다. 반면에 낯선 지역의 버그. 변압기 란 무엇입니까?

시간 시퀀스 작업을 위한 새로운 유형의 네트워크에서는 lstm이 더 낫다고 말합니다. 텍스트 인식, 기계 번역 등에서 문장의 문맥을 강조할 때 사용합니다. 저것들. 단어가 어떤 문맥에 의해 다른 사람(이전)과 관련이 있을 때.

자기주의 변압기. 메커니즘은 인간의 관심과 유사합니다.

 
막심 드미트리예프스키 :

시간 시퀀스 작업을 위한 새로운 유형의 네트워크에서는 lstm이 더 낫다고 말합니다. 텍스트 인식, 기계 번역 등에서 문장의 문맥을 강조할 때 사용합니다. 저것들. 단어가 어떤 문맥에 의해 다른 사람(이전)과 관련이 있을 때.

자기주의 변압기. 메커니즘은 인간의 관심과 유사합니다.

글쎄, 그런 중요한 합병증. 처음에는 기억이 길기도 하고 짧기도 하고, 모델에 주의를 기울이는 모습도 보인다. 두뇌는 확실히 즉시 당기지 않을 것입니다.))) 그러나 더 잘 작동해야 합니다.

 
발레리 야스트렘스키 :

글쎄, 그런 중요한 합병증. 처음에는 기억이 길기도 하고 짧기도 하고, 모델에 주의를 기울이는 모습도 보인다. 두뇌는 확실히 즉시 당기지 않을 것입니다.))) 그러나 더 잘 작동해야 합니다.

더 잘 작동하지만 악마가 다리를 부러뜨릴 것입니다) 여전히 RL을 조이면

일반적으로 mln과 같은 일반적인 역전파 네트워크는 단어에서 전혀 시계열 에 적합하지 않습니다. 최소한 RNN이 필요합니다.
사유: