미래를 내다보는 방법으로 통계! - 페이지 10

 
Prival >> :

귀하의 게시물 바로 위의 그림을 보십시오. 빨간색 곡선은 내 관점에서 매우 좋은 속성을 가지고 있으며, 내가 아는 가격 지표에 비해 매끄럽고(변할 수 있음) 지연이 적습니다(변할 수 있음).

오실레이터의 맨 아래에 있으며 추정 및 예측을 기반으로 구축되었습니다.

특히, 나는 그러한 곡선에서 많은 이점을 보지 못하기 때문에 빨간색 곡선에 대해 좋은 점을 말할 수 없습니다. 이러한 모든 곡선에 대해 지연을 실질적으로 유용한 값으로 줄이면 부드러움이 급격히 저하되고 넘겨 쏘다. 이러한 곡선은 값의 정확한 예측 범위가 30-50단계인 경우 유용할 것입니다.

오실레이터에 관해서는 나는 아무 말도 할 수 없습니다. 왜냐하면. 거기에 어떤 값이 표시되는지는 분명하지 않습니다.

 
bstone писал(а) >>
흥미롭네요. 그리고 "무작위 입력"과 관련하여 결과를 평가하는 데 어떤 방법이 사용됩니까?

즉, 30~50%는 정확히 어떻게 계산되는 것입니까, 아니면 그것에 대한 질문이 아닌가요?

 
거의. 저것들. 일반적인 접근 방식은 % 정확한 입력 을 계산하는 것입니다. 왜 그것을 "무작위"와 관련하여 이동하고 어떻게 수행합니까? 물론 50%의 단순한 빼기가 아니라면.
 

물론 간단한 빼기.

내 NS는 증분 기호를 한 단계 앞서 예측합니다. 가격 증분의 부호에서 길이 n 의 벡터를 만들고 이러한 증분 부호의 예측에서 또 다른 벡터를 만듭니다. 또한, 우리는 이 NN에 대한 부호의 정확한 추측 수를 고려하고 결과 합계에서 n/2 를 뺍니다. 이는 50/50의 경우에 해당합니다. 결과 차이에 200을 곱하고 n 으로 나눕니다.

모든 것.

그리고 차량의 수익성을 평가하려면 그런 값이 필요합니다. 이를 위해서는 수신된 백분율에 상품의 변동성을 곱하면 충분하며 거래당 평균 통계 수익률을 얻을 수 있습니다.

 

예, 올바르게 이해했다면 200이 아니라 100을 곱한 것입니다. 그러면 다음을 얻습니다.


(pn/2)*100/n=(p/n-0.5)*100=100*p/n-50, 여기서 p는 올바르게 추측된 문자의 수입니다.

 
bstone >> :

예, 올바르게 이해했다면 200이 아니라 100을 곱한 것입니다. 그러면 다음을 얻습니다.


(pn/2)*100/n=(p/n-0.5)*100=100*p/n-50, 여기서 p는 올바르게 추측된 문자의 수입니다.



아니요, 0에서 100까지의 간격을 얻으려면 정확히 200입니다. 0에서 50까지 얻습니다. 100개의 네트워크가 무작위보다 나쁘지 않다는 사실을 고려하면 :)

 
Prival писал(а) >>

여기 사진이 더 맘에 들어요 :-) 씹을 수 있게

할 일이 없는 상태에서 Bulashov의 MEMU(빨간색 선)를 가져와 한 걸음 앞서 예측(검은색)을 만들었습니다. Open 행(녹색)에 대해 이 작업을 수행했습니다. "좋음"은 MEMA의 예측이 한 발 앞서고 고양이보다 쿨하게 앞서며 제때 물고 삼킬 수 있다는 점에서 알 수 있습니다.

그러나 대표적인 표본(10000 카운트)에서는 기적이 사라지고 이 이동 평균의 예측 속성은 전혀 없고 더 나쁩니다(tan=-0.02). 아무리 아름다운 그림이라도 항상 객관적으로 현실을 반영할 수는 없고, 독자적인 방법으로 알고리즘을 확인해보는 것이 유용하다는 점을 강조하고 싶다.

 
Neutron >> :

아무리 아름다운 그림이라도 항상 객관적으로 현실을 반영할 수 있는 것은 아니며, 독자적인 방법으로 알고리즘을 확인하는 것이 유용하다는 점을 강조하고 싶다.


골드 단어.


추신: 그림은 MEMA가 매우 늦고 예측이 아무 것도 제공하지 않는다는 것을 보여줍니다.

 

다음은 파손된 제 모델입니다.



효율적인 시장 이론의 실천!

 
bstone писал(а) >>

효율적인 시장 이론의 실천!

나처럼! - 마찬가지로 효과적입니다 :-)

그런데 비스톤 씨 가 인용한 데이터가 국회 업무와 관련이 있다면 혹독한 재교육이 있다고 말할 수 있다. 실제로, 훈련 샘플에서 예측과 실제 증분 사이의 완전한 일치와 테스트 샘플에서 완전한 피펫을 볼 수 있습니다! 이상적으로(최적의 훈련), 신경망은 훈련 및 테스트 샘플에 대해 동일한 타원을 가지며 다소 두껍고 가장 중요하게는 기울기와 너비가 모두 동일합니다.