트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1002

 
알렉산더_K2 :

따라서 반환 시퀀스(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])는 고정 계열이라는 의견이 있습니다.

촛불 하나의 반환은 (닫기) / 열림, 국회에 밀어 넣는 깨끗한 가격이 아닌 것은 지옥에 분명합니다. 다음 반환은 이전 것에서 예측 (다른 창으로) 매우 병적 확산에는 충분하지 않지만 분명히 이것이 당신이 얻을 수 있는 전부입니다

 
알렉산더_K2 :

사실, CLOSE[i]-OPEN[i]의 값은 증분의 합일 뿐입니다.

그러한 양의 순서는 한계 내에서 정규 분포를 따라야 합니다.

따라서 반환 시퀀스(CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1])는 고정 계열이라는 의견이 있습니다.

국회에서 입력한 내용에 적용하기 위해 그런 시도를 한 사람이 있었고 그 결과는 어땠나요???

Close[i]는 Open[i+1]로 대체될 수 있습니다. Forex에서는 90% 이상의 경우에 해당합니다. 글쎄, 또는 그 차이는 총 몇 핍입니다. 그러면 공식에 시계열이 하나만 있으므로 더 편리합니다.

이러한 변환은 ARIMA 모델에서 사용됩니다. 그리고 그것은 실제로 고정성을 달성하는 데 도움이되지만 거기에는 더 많은 변형이 있습니다. 이것이 유일한 공식은 아닙니다.

https://people.duke.edu/~rnau/411arim.htm

If d= 2 :  yt  =  (Yt - Yt- 1 ) - (Yt- 1 - Yt- 2 )  =  Yt - 2 Yt- 1 + Yt- 2
ARIMA는 금융 시장에서 이미 구식이며, 무언가를 제공하면 예금에 대한 은행 이자를 받을 수 있습니다. 기사로 판단하는 GARCH는 특히 이것이 데이터베이스의 ARIMA이고 모든 종류의 개선 사항이 있기 때문에 훨씬 낫습니다.
 
Alexander_K2 :

그러한 양의 순서는 한계 내에서 정규 분포를 따라야 합니다.

나는 정규 분포를 위해 노력할 그런 가격을 본 적이 없습니다. 내 성장은 항상 고양이 꼬리가있는 라플라스처럼 보였습니다.

 

이것은 내가 이론적으로 말한 것입니다.

물론 실제로 첫 번째 반환에는 가우스가 없으며 아무도 아직 그것을 얻을 수 없었고 성공하지 못할 것입니다.

그러나 그럼에도 불구하고 나는 시퀀스 (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), 즉 실제로 두 번째 반환 에 대해.

그래서 나는 여전히 이 두 번째 수익에 거의 주의를 기울이지 않았지만 헛수고였습니다.

 

그리고 Kolmogorov는 일반적으로 B(k)=M[x(t)*x(t-k)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-k ]-OPEN[i-k])] 이 함수에 잘 정의된 형식이 없으면 예측을 거부했습니다.

국회 업무에 일정한 조건을 두는 것이 말이 되지 않을까요?

예를 들어 두 번째 수익 또는 B(k)를 조사하면서 고정되지 않은 VR 부분을 건너뛰기 위해?

 

여기요!

친애하는 전문가 여러분, 이미 슈퍼봇을 만드셨습니까?

당신은 실생활에서 그것을 시도해야합니다.

 
Alexander_K2 :

그리고 Kolmogorov는 일반적으로 B(k)=M[x(t)*x(t-k)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-k ]-OPEN[i-k])] 이 함수에 잘 정의된 형식이 없으면 예측을 거부했습니다.

국회 업무에 일정한 조건을 두는 것이 말이 되지 않을까요?

예를 들어 두 번째 수익 또는 B(k)를 조사하면서 고정되지 않은 VR 부분을 건너뛰기 위해?

따라서 한계가 있습니다. (시그마 제곱)

이 극한의 정의는 현재 해결해야 할 첫 번째 것입니다.

작업 작업.

보간 문제에 관해서는 다음만 고려할 것입니다.

크기로 x(/)를 추정하는 경우

•x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... , x(t - ha).

이 경우 수학적 최소값을 oj(ra)로 표시합니다.

기대

a2 = MI0-<?)%

여기서 Q는 선형 형식입니다.

Q = axx {t + i) + atx {t + 2)+ ... + ax {t + n) +

+ a-ix(t - l)-\-a-2%(t - 2)+ ... -\-a-nx(t - ha)

상수 실수 계수로.

m이 증가함에 따라 수량 2(n)은 증가하지 않습니다. 그러므로 있다

한계

나는 이다} (하) = o?. (5)

피~>우

두 번째 작업은]를 결정하는 것입니다. 추가 제안

위에서 공식화 된 두 가지 문제의 솔루션은 다음없이보고되었습니다.

내 메모의 증거 (*) *. 와 관련된 개념을 기반으로 한다.

고정 랜덤 프로세스의 스펙트럼 이론.

정상 랜덤 프로세스의 스펙트럼 이론은 다음과 같습니다.

시간의 지속적인 변화의 경우를 위해 A. Ya. Khinchin이 구성했습니다.

인수 t (2) .

Chet은 이해하지 못했습니다. 이미 작성된 예측의 신뢰성을 분석적으로 평가하거나 예측을 시작할 계획입니다. 처음 몇 페이지는 기사가 예측의 신뢰성을 평가하는 것에 관한 것이라고 말합니다. 그리고 예측 자체는 A. Ya. Khinchin에서 찾아야 합니다.

그리고 기사의 기본 진술을주의 깊게 복사하지 않았습니다.

아님: B(t)=M[x(t)*x(t-t)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-t]- OPEN[i-t] ) ]

A: V(t)=M[x(t)*x(t-t)]=M[(CLOSE[i]- OPEN[i] )*(CLOSE[i-t]- OPEN[i] )]

또한, 나는 그것이 더 정확하다고 생각합니다.

거래, 자동 거래 시스템 및 거래 전략 테스트에 관한 포럼

거래의 기계 학습: 이론 및 실습(거래 등)

박사 상인 , 2018.07.06 02:37

Close[i]는 Open[i+1]으로 대체될 수 있습니다. Forex에서는 90% 이상의 경우에 해당합니다. 글쎄, 또는 그 차이는 총 몇 핍입니다. 그러면 공식에 시계열이 하나만 있으므로 더 편리합니다.

이러한 변환은 ARIMA 모델에서 사용됩니다. 그리고 그것은 실제로 고정성을 달성하는 데 도움이되지만 거기에는 더 많은 변형이 있습니다. 이것이 유일한 공식은 아닙니다.

https://people.duke.edu/~rnau/411arim.htm

If d= 2 :  yt  =  (Yt - Yt- 1 ) - (Yt- 1 - Yt- 2 )  =  Yt - 2 Yt- 1 + Yt- 2
ARIMA는 금융 시장에서 이미 구식이며, 무언가를 제공하면 예금에 대한 은행 이자를 받을 수 있습니다. 기사로 판단하는 GARCH는 특히 이것이 데이터베이스의 ARIMA이고 모든 종류의 개선 사항이 있기 때문에 훨씬 낫습니다.

추신.

예, 게시물에서 내 질문에 답변해 주셔서 감사합니다. https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
안녕 Mishan은 당신에게 말했고 당신은 내가 전화로 그것을 어떻게 추측했는지 :-)
일반적으로, 저는 이제 모두 동일하게 데이터 전처리가 전면에 등장한다고 생각합니다. 물론 최적화 알고리즘 자체도 중요하지만 좋은 훈련 샘플의 존재도 마지막이 아닙니다. 여기 당신은 모두 Reshetov 옵티마이저를 해킹하고 해킹하고 있습니다. 그런데 좋은 데이터 전처리로 좋은 모델을 만듭니다. 어쨌든 10번의 최적화를 통해 모델의 적어도 절반이 작동할 것입니다. 결국, 그는 그렇게 간단하지 않은 모든 것을 구현했습니다. 그리고 JPrediction은 항상 관련이 있을 것이라고 생각합니다. 여기서 가장 중요한 것은 데이터를 올바르게 전처리하는 것이며 현재 경쟁이 진행되고 있는 영역입니다.
 
이미 말했듯이 다른 스레드에서 ... 첫 번째는 정크 예측자를 제거합니다. 두 번째는 샘플을 학습에 더 잘 대표하게 하며 두 번째 지점에서 멈추고 싶습니다.
대표성을 수행한 후 동일한 데이터 세트에 대해 교육의 품질이 15% 향상되었습니다. 주요 임무는 교육의 적절한 수준을 유지하면서 학습 기간을 늘리는 것입니다. 예: 25개의 예에서 나는 일반화 능력과 당신의 능력의 80%를 얻을 수 있었습니다. 40개의 예시에 대한 대표성 처리 덕분에 모델 품질의 90%를 얻을 수 있었습니다. 학습 품질을 유지하면서 더 긴 샘플에서 학습할 수 있는 모델이 최상의 모델로 간주된다는 가정에 기반합니다.
 
그라마제카1 :
Hello Mishan이 당신에게 말했고 어떻게 내가 전화로 그것을 할 것이라고 추측 했습니까 :-)
일반적으로, 저는 이제 모두 동일하게 데이터 전처리가 전면에 등장한다고 생각합니다. 물론 최적화 알고리즘 자체도 중요하지만 좋은 훈련 샘플의 존재도 마지막이 아닙니다. 여기 당신은 모두 Reshetov 옵티마이저를 해킹하고 해킹하고 있습니다. 그런데 좋은 데이터 전처리로 좋은 모델을 만듭니다. 어쨌든 10번의 최적화를 통해 모델의 적어도 절반이 작동할 것입니다. 결국, 그는 그렇게 간단하지 않은 모든 것을 구현했습니다. 그리고 JPrediction은 항상 관련이 있을 것이라고 생각합니다. 여기서 가장 중요한 것은 데이터를 올바르게 전처리하는 것이며 현재 경쟁이 진행되고 있는 영역입니다.

헤이 미샨!

네, 모든 신경망의 노력과 도구 자체에 대한 그들의 연약한 희망을 재고해야 할 때가 왔습니다. 입력 데이터가 준비되지 않은 경우 숲이나 대초원 모두 도움이되지 않습니다.

그리고 그렇습니다. 경쟁이 없고 문제가 있으며 일반적인 혼란이 있습니다.

데이터 준비 방법을 알고 있다면 배치하십시오. 인류는 감사할 것입니다.

사유: