인용 부호의 종속성 통계(정보 이론, 상관 관계 및 기타 기능 선택 방법) - 페이지 19

 
Candid :

댓글을 달 필요가 없습니다. 제 질문에 답변해 주세요. 나는 당신에게 비밀을 말할 것입니다 - 그것들은 당신이 그들에게 대답하려고 할 때 당신이 무언가를 이해할 것이라는 사실을 위해 설계되었습니다).

토론을 읽었습니다. 그런데 17페이지 분량의 플라이 앤 패티 믹스에 대해 진지하게 논의하시겠습니까?

나는 당신이 두 가지 프로세스라고 부르는 것을 올바르게 추측 했습니까?

17 페이지에서 파리와 커틀릿이 섞인 것을 어디서 보았는지 모르겠습니다. 더 일찍 등장한...

이해에 관해서는 Alexey의 태블릿을보고 대답하는 것이 좋습니다. 어떤 이론적 배포가 구축되어 있습니까?

;)

 

두 가지 프로세스는 이론(귀무 가설)과 실제입니다.

당신은 알고 있어야.

 
joo :

이 스레드에 있는 단어의 절반을 전혀 이해하지 못하지만 배포판과 관련이 없다는 것을 깨달았습니다.

개별 판독값 간에 종속성이 있는 프로세스의 분포가 균일하거나 정상일 필요는 없습니다. 그것은 분명하다.

예: 푸쉬킨의 시. "오크"와 "체인"이라는 단어가 텍스트에 언급되면 근처 어딘가에 "고양이"가 있습니다. 단어 사이의 이러한 의존성은 단락에서 "볼륨" 또는 기타 단어의 분포와 아무 관련이 없습니다.

저자의 진위 여부를 얼마나 원시적으로 확인하는지 아십니까?

이것이 바로 "참조" 텍스트와 검사 중인 "Oak-chain-cat" 조합의 빈도가 끝나는 방식입니다.

항상 비교의 근거가 있기 때문입니다.

그리고 여기서 무엇과 비교되고 있는지 이해하지 못합니까?

이론 주파수는 어디에 있습니까? 아니면 그녀는 누구인가?

아마도 Candid 가 옳았고 그리스로 이주하기만 하면 모든 것이 제자리를 찾을 수 있습니까?

;)

 
avatara :

17 페이지에서 파리와 커틀릿이 섞인 것을 어디서 보았는지 모르겠습니다. 더 일찍 등장한...

여기서도 엔딩에 문제가 있는데 17페이지가 17페이지로 바뀌었습니다. 인식의 다른 "오인"에 대해 이 17페이지를 다시 읽으시겠습니까?
두 가지 프로세스는 이론적(귀무가설)과 실제
사실, 내 첫 번째 게시물은 topikstarter를 인용했는데, 우선 그의 버전을 의미한다고 가정하는 것이 더 논리적일 것입니다. 또한 그는 Alexei와 달리 충분히 자세히 설명했습니다. 그러나 프로세스로 가설을 식별하는 것이 프레젠테이션의 명확성에 기여하는지 확신할 수 없습니다.
이해에 관해서는 Alexey의 태블릿을보고 대답하는 것이 좋습니다. 어떤 이론적 배포가 구축되어 있습니까?

솔직히 말해서, 나는 모른다. 나는 경험적 분포를 기반으로 구축할 것입니다.
 
avatara :

두 가지 프로세스는 이론(귀무 가설)과 실제입니다.

당신은 알고 있어야.

아니요, 사실이 아닙니다. 기준을 말하는 것입니다. 그의 통계는 동일합니다. 다른 수량에만 적용됩니다.

이제 - 그 두 값에 대해 독립성이 확인됩니다. 내가 게시한 테이블 블록에서 이것은 310바 간격으로 떨어진 두 개의 바를 반환한 것입니다(그 사이에 309개의 바가 있음). 통계는 기록에 있는 이러한 막대 쌍의 전체 집합에서 확인됩니다. 히스토리에 60000개의 막대가 있는 경우 59690=60000-310개의 막대 쌍이 있습니다.

과거에 더 멀리 있는 막대는 소스 S입니다. 현재에 더 가까운 쌍을 이루는 막대는 수신기 R입니다. 리턴 S와 R은 독립성을 테스트 중인 양입니다. 더 정확하게는 수익률 자체가 아니라 그들이 속한 분위수의 수입니다. 분위수로 나누는 이유 - 이전에 설명됨: 카이제곱이 작동하기 위해(최소 10의 빈도).

현상의 주원인인 황소에 대해 생각해 보겠습니다. 여기서 뭔가 간단하지 않습니다 ... 그러나 Candid의 제안은 그것을 확인하는 것이 매우 논리적입니다 (소를 제거하십시오).

 

나는 topikstarter의 기사를 훑어보았다. 저자가 변수 현재 막대 <-> 마지막 막대 사이의 관계를 찾지 않고 변동성 클러스터링의 사실만 발견했다는 의혹이 있었습니다. 물론, 이를 기반으로 하더라도 최대 50-60 시차까지의 변동성의 자신감 있는 관계가 새로운 것이기 때문에 차트가 흥미롭습니다. 몬테카를로 방법을 사용하여 데이터를 혼합할 때 당연히 다이어그램에서 볼 수 있는 클러스터링이 위반됩니다.

결국 발견된 것을 이해하기 위해서는 비정규 분포와 명백히 독립적인 분포, 특히 고전적인 GARCH(1,1) 및 GARCH(3,3)에 대해 더 나은 방법으로 제안된 공식을 테스트할 필요가 있습니다. 의존성이 발견되면 문제는 분명하고 공식은 새로운 것을 제공하지 않지만 단순히 다른 방식으로 마틴게일의 특별한 경우를 정의합니다.

작성자가 원하는 경우 GARCH 합성 수익을 제공할 수 있습니다.

 

고맙습니다. 인공 데이터를 주시면 주말에 테스트해 보겠습니다.

공식에 관해서는 특별히 놀라운 것은 없으며 다른 각도에서 확률 론적 분석입니다.

변동성과 관련하여 여기에서 이미 많은 말이 나왔고 나는 그 의견에 동의합니다. 그러나 독립 변수가 영점 막대에 대한 변동성에 대한 정보를 전달하는 시차의 수는 실제로 명확하게 표시됩니다. 그리고 금융 상품에 따라 정보의 중요성을 유지하면서 지연 몰입의 깊이가 다릅니다.

 
일반적으로 과거 수익률을 기반으로 수익률을 예측하는 것이 불가능하다면 개인적으로 예측을 위해 독립 변수(다양한 지표)를 선택하는 문제로 돌아갈 기회가 항상 있다고 생각합니다. 주제는 기능 선택이라고 하며 주성분 분석, 자동 연관 메모리가 있는 신경망 사용, 훈련된 네트워크 분석(가중치), 클러스터 분석, 카이제곱, 또한 지수(정확한 - 상수) Lipschitz. 일반적으로 사람들은 주제가 큽니다 ...
 
C-4 : 물론, 50-60 시차에 대한 변동성의 확실한 관계가 새로운 것이기 때문에 이 기준에서도 그래프가 흥미롭습니다.

알아봐 주셔서 감사합니다. 이것이 걱정되는 것입니다. 아마도, 예, 소가 현상의 상당 부분을 설명하지만, 그것이 전부는 아닌 것 같습니다. 그리고 시간이 지나면 이 관계는 훨씬 더 깊어 지며 수백 바의 깊이가 됩니다.

그건 그렇고, 당일 여행에 대한 의존성은 H4보다 훨씬 적으며, 차례로 H1보다 훨씬 적습니다.

 
Mathemat :

알아봐 주셔서 감사합니다. 이것이 걱정되는 것입니다. 아마도, 예, 소가 현상의 상당 부분을 설명하지만, 그것이 전부는 아닌 것 같습니다. 그리고 시간이 지나면 이 관계는 훨씬 더 깊어 지며 수백 바의 깊이가 됩니다.

그건 그렇고, 당일 여행에 대한 의존성은 H4보다 훨씬 적으며, 차례로 H1보다 훨씬 적습니다.


다시 한 번 요점이 변동성인 경우 이는 시간에 따른 명확한 순환성으로 매우 잘 설명됩니다.

16:30 경에 황소 무리가 육안으로 확인하기 위해 여기에서 아인슈타인 일 필요는 없습니다. 따라서 물론 일중 규모에서 그러한 "관계"는 훨씬 더 명확하게 나타납니다. 물론 여전히 아무 것도 하지 않습니다. 우리는 16:30에 변동성의 유입으로 인한 강한 움직임(차트에서 명확하게 볼 수 있음)이 있다는 것을 알고 있지만 여전히 움직임의 방향이나 목적을 모릅니다.

약속한 대로, MathLab에서 제안한 표준 매개변수가 있는 GARCH(1,1): garchset('P',1,'Q',1,'C', 0.0001, 'K', 0.00005, 'GARCH ', 0.8, '아치', 0.1); GARCH(3,3) 또는 그 이상을 수행하는 동안 실패하고 'P',1,'Q',1을 'P',3,'Q',3으로 변경하는 프로그램이 잘못되었다는 것을 알고 있습니다. 이 시리즈에는 10,000번의 테스트가 포함되어 있는데, 이 정도면 충분할 것 같습니다. 그의 가격 차트는 다음과 같습니다.

동일한 EURUSD의 시간당 변동성 데이터를 기반으로 SB를 생성하는 것도 흥미로울 것입니다. EURUSD와 동일한 변동성 패턴이 있지만 차트 자체는 100% 노이즈입니다. 종속성이 발견되면 이 방법은 가격 예측에 적합하지 않지만 종속성이 발견되지 않으면 무의미한 난해한 합성 또는 진짜 시장.

파일:
garch.zip  91 kb