트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 701

 
막심 드미트리예프스키 :

당신은 votka 한 병을 가지고 재규어와 섞고 맛을 내기 위해 baltika 9를 추가합니다

당신은 술을 마시고 손을 올린 다음 급격히 내립니다 ... :)))

현명한 계획이지만 신호를 반대로 하고 진행했습니다 :-)

 
마법사_ :

Box-Cox를 통해 Lamda가 픽업되고 있습니다.

도움말에서 봤습니다. 그렇습니다.

auto.arima 전에 다음 코드를 실행할 수 있습니다.

 library (caret)
boxCoxLambda <- BoxCoxTrans(train)$lambda

그런 다음 auto.arima(... , 람다 = boxCoxLambda )

모든 것이 어떻게 든 너무 단순 해 보입니다. 이것이 충분한 지 의심됩니다. 기차와 tt 벡터를 직접 변환해야 할 수도 있습니다.

 
박사 상인 :

도움말에서 봤습니다. 그렇습니다.

auto.arima 전에 다음 코드를 실행할 수 있습니다.

그런 다음 auto.arima(... , 람다 = boxCoxLambda )

모든 것이 어떻게 든 너무 단순 해 보입니다. 이것이 충분한 지 의심됩니다. 기차와 tt 벡터를 직접 변환해야 할 수도 있습니다.

다음과 같이 Arima를 사용할 수는 없습니다.

  • 중요도에 대한 계수를 살펴봐야 합니다.
  • 검사 결과를 확인해야 합니다.

적용 방법이 매우 잘 발달되어 있습니다.

하지만.

이 모든 작업을 수행한 후에도 아리마를 신뢰할 필요가 전혀 없습니다. 아치 확인이 필요하고, 아치가 있으면 가치하기 때문입니다. 그러나 좋은 소식은 동일한 arima가 garch의 추세를 모델링하는 데 사용된다는 것입니다(여전히 garch 모델 자체 + 분포 모델). 따라서 아리마 운동은 가르치 의미에서 시간 낭비가 아닙니다.

추신.

SMA에 대해 사용된 모델의 경우 예측 가격과 알려진 가격 간의 차이로 미래 가격을 계산하는 것은 정확하지 않습니다. 요점은 모델의 가격 합계에 오류가 추가되었다는 것입니다. 그래서 예측 가격 = 평균 가격 + 오차.

 
블라디미르 페레르벤코 :

train/test/valid로 분할한 후 train 을 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망을 훈련할 때 각 미니배치는 신경망에 공급하기 전에 혼합됩니다.

행운을 빕니다

국회에 제출하기 전에 줄을 뒤섞을 생각을 다시 했습니다.
기차만 혼합된 경우 테스트를 평가하여 조정합니다. 전체 샘플을 혼합한 다음 섹션으로 나눌 필요가 있다고 생각합니다.

결국 테스트 섹션의 주요 작업은 NN이 데이터를 일반화하는 방법을 배웠는지 여부를 평가하는 것입니다. 그것에 대한 데이터는 기차와 동질적이어야 합니다. 그것과 혼합.

 
마이클 마르쿠카이테스 :

거래가 활발하지만 아직 이익을 얻지는 못하지만 고갈되지도 않습니다. 신호의 오랜 역사로 인해 꼬리가 보이지 않습니다 ....

이제 수익이 나기 시작할 것이라고 생각합니다. 가끔 처음에는 짓밟았다가 만회하는 경우가 있다!!!!

차량 성능에 대한 평가 중 하나는 조스터를 통해 배수되지 않는다는 것입니다. 기본 전략의 불리한 시나리오에도 균형을 유지하는 방법을 알고 있습니다.

신경망과 달리 나는 칠면조 키가 더 큰 것을 보여 주었습니다. 여기서 밤부터 시간까지(자연스럽게 실제 ):


 
레나트 아크티아모프 :

신경망과 달리 나는 칠면조를 밤부터 시간까지 더 높게 보여주었습니다.


어떤 칠면조? 똥에 마우스? 코드베이스에서 어디에서 다운로드합니까?

다운로드할 것이 없고 수식이 없으면 쓸 것이 없습니다.

여기서 당신과 이혼했습니다

아 맞다.. 도적들이 다가와 코드와 함께 장비를 빼앗아 갈까 두려워서 신호를 공개하지 마십시오. 그러나 podperdyvat Temko는 주기적으로 - 좋은 일입니다!
 
막심 드미트리예프스키 :

어떤 칠면조? 똥에 마우스? 코드베이스에서 어디에서 다운로드합니까?

다운로드할 것이 없고 수식이 없으면 쓸 것이 없습니다.

여기서 당신과 이혼했습니다

네, 잘못된 곳을 파고 있다는 사실에 대해 말하는 것입니다. 더 이상

행운을 빕니다!

 
레나트 아크티아모프 :

예, 나는 당신이 잘못된 곳에서 무엇을 파는지에 대해 이야기하고 있습니다.

행운을 빕니다!

예, 이미 선생님이 없는 데모가 있습니다.

 
마법사_ :

csv 형식으로 게시

날짜, 시간, OHLK, 터키

네, 잘못된 곳을 파고 있다는 사실에 대해 말하는 것입니다. 더 이상

행운을 빕니다!

=======

Alexandra_K 지점에서 다음과 같이 썼습니다.

H4 예측 - 4시간 동안만

MN1에서 - 한 달 동안만 등

꾀하다

 
레나트 아크티아모프 :

신경망과 달리 나는 칠면조 키가 더 큰 것을 보여 주었습니다. 여기서 밤부터 시간까지(자연스럽게 실제 ):


분명히 Artikul과 Eidler가 제시한 거래량(읽기 - 강도, 활동)으로 작업하는 방법에 대한 지식의 세균이 Renat Akhtyamov에서 싹이 텄습니다.

모든 내부 및 외부를 깔끔하게 배치하십시오! 인류는 감사할 것입니다.

사유: