절대적으로 임의의 프로세스와 FOREX. - 페이지 5

 
D.Will писал (а):

그래서 나는 난수의 의사 생성기의 결정성을 줄이기로 결정했습니다. 일련의 난수를 섞음으로써. 자꾸.

% 믹스
i=1:1:10000의 경우
i1 = 고정(랜드*N)+1; ))))
i2 = 고정(랜드*N)+1; )))
c=r(i1);
r(i1)=r(i2);
r(i2)=c;

위를 보면 전체 시퀀스가 여러 번 혼합 된 예를 들었습니다. 하나와 두 번째 시퀀스를 모두 표시했습니다.




그렇게 혼합될 때 - 2가 없는 8에. 촛대 신사들은 어디 있습니까!?
 
Korey :
D.Will 은 다음과 같이 썼습니다.



그래서 나는 난수의 의사 생성기의 결정성을 줄이기로 결정했습니다. 일련의 난수를 섞음으로써. 자꾸.



% 믹스

i=1:1:10000의 경우

i1 = 고정(랜드*N)+1; ))))

i2 = 고정(랜드*N)+1; )))

c=r(i1);

r(i1)=r(i2);

r(i2)=c;



위를 보면 전체 시퀀스가 여러 번 혼합 된 예를 들었습니다. 하나와 두 번째 시퀀스를 모두 표시했습니다.









그렇게 혼합될 때 - 2가 없는 8에. 촛대 신사들은 어디 있습니까!?
여기서 무슨 문제가 있습니까? 실수로 두 개의 인덱스를 선택하고 내용을 바꿨습니까?

fix(rand*N)+1은 1에서 N까지의 정수를 반환합니다. Matlab에서 인덱싱은 1에서 시작합니다.

ppc
 
rand는 시퀀스를 순차적으로 클릭합니다. 인덱스는 인접한 의사 생성기 번호 쌍으로 간주되며,
그리고 그것들은 상관관계가 있는 것으로 확실히 알려져 있습니다. 기간 내에 있습니다.
주기성을 깨뜨리기 위해 인덱스를 가져오는 사이에 rand 에 대한 임의의 수의 호출 을 시도하십시오.
 
Korey :
rand는 시퀀스를 순차적으로 클릭합니다. 인덱스는 인접한 의사 생성기 번호 쌍으로 간주되며,

그리고 그것들은 상관관계가 있는 것으로 확실히 알려져 있습니다. 기간 m 안에 누워 있습니다.

m의 주기성을 깨뜨리기 위해 인덱스를 가져오는 사이에 rand 에 대한 임의의 수의 호출 을 시도하십시오.

우리는 이미 이것에 대해 이야기했습니다.

이 사전 설정의 본질은 다릅니다. 결정론을 줄인다.
글쎄, 변경 사항이 이 시리즈의 요약에 추가된다면 좋을 것입니다. 숫자.
즉시 변경의 성격이 완전히 다릅니다.

순열될 때 랜드의 상관관계가 너무 크다고 생각한다면 그러한 생성기는 가치가 없습니다.
이해하다?

의사 난수(pseudo random)라는 사실에도 불구하고, 이것이 난수에서 난수 호출을 편집증적으로 삽입할 가치가 있다는 것을 의미하지는 않습니다.

이 모든 호출은 또한 PSG와 상관 관계가 있는 분포를 갖습니다.

사실은 데이터를 혼합함으로써입니다. 시퀀스의 특성은 동일하게 유지되었습니다.

무슨 상관관계를 말하는거야?
 
한국 을 위한 특별한

모두 닫기

N=1000;
r=NORMRND(0,0.0077,1,N);

r1=r;

i=1:1:100000의 경우
i1 = 고정(랜드*N)+1
j=1:1:1000의 경우
랜드;

i2 = 고정(랜드*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
끝;

수치;
%r=r-0.5;
i=2:1:길이(r)의 경우
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);


그리드 켜기;

플롯(r);
수치;
플롯(r1);



전에


후에


여기 다다가 더 시원해졌습니다 =))






 
디윌에게

랜덤 시리즈를 생성하는 방법은 선형 합동 생성기의 알고리즘과 매우 유사합니다. 이 알고리즘(및 다양한 수정 사항)이 임의의 계열 이외의 것을 생성한다는 것이 오랫동안 입증되었습니다. 이것은 "전체적으로" 시퀀스의 생성과 무작위 데이터 자체의 생성기에 관한 것입니다( 부록: 내가 틀리지 않은 경우 MathLab에서 이러한 알고리즘을 구현했지만 확인하기 쉽습니다 ). 게다가 컴퓨터는 한 가지만 제외하고는 무엇이든 할 수 있습니다. 즉, 임의의 시리즈를 만드는 것입니다. 신경망의 사용은 이러한 방향으로 유망하며 사람들은 NN의 도움으로 "가장 입증된 무작위 변수"를 얻고 회사를 위해 모든 종류의 똑똑한 박사 학위 논문을 방어할 수 있습니다. 이러한 시리즈에서 자기회귀 예측 모델은 잘 작동합니다(통계적으로 잘 작동한다는 의미에서). 시도해 볼 수 있습니다.

 

상관관계, 상관관계일 뿐입니다.

J. 포사이스. 수학 계산의 기계 방법
크누트 D.E. 프로그래밍의 예술. 보기 v.2.
그리고 일반적으로 의사 난수 시퀀스의 일반 생성기는 오랫동안 부적합한 것으로 인식되어 왔습니다. 필요한 경우 직접 작성하십시오.

 
grasn :
디윌에게


난수를 생성하는 방법은 알고리즘과 매우 유사합니다.
선형 합동 생성기의 경우. 이 알고리즘(그리고 그들의
다양한 수정) 임의의 행 이외의 모든 것을 생성합니다. 이것은
"전체" 시퀀스의 생성과 무작위 데이터 생성 자체와 관련이 있습니다. 더
또한 컴퓨터는 한 가지를 제외하고는 무엇이든 할 수 있습니다.
열. 이 방향에서 유망한 것은 신경망
사람들은 국회의 도움으로 가까스로 "가장 입증 된
임의의 변수” 및 회사를 위한 모든 종류의 스마트 박사 학위 논문을 방어합니다. 이와 같은
시리즈, 자기회귀 모델은 잘 작동합니다(통계적으로 잘 작동한다는 의미에서)
예측, 당신은 시도하고 볼 수 있습니다.





링크가 있습니까? 나는 혼란스러운 행동을 가진 신경망을 가정합니다.
y(n+1)=a0*y(n)+b.noise인 자기회귀. ? 그들은 정확히 무엇을 위해 좋은가?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.noise 선형 뉴런 + 잡음을 얻습니다. 무슨 좋은?


그런데. 귀하의 진술은 위의 과정을 예측할 수 있음을 의미합니까?
 

일반적으로 다음을 의미했습니다. k는 사이클 수입니다.

i1 = 고정(랜드*N)+1
k=수정(랜드*100000)+1
j=1:1:k의 경우
랜드;

i2 = 고정(랜드*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
끝;

 
D.Will писал (а):
잔디 :
디윌에게


난수를 생성하는 방법은 알고리즘과 매우 유사합니다.
선형 합동 생성기의 경우. 이 알고리즘(그리고 그들의
다양한 수정) 임의의 행 이외의 모든 것을 생성합니다. 이것은
"전체" 시퀀스의 생성과 무작위 데이터 생성 자체에 관한 것입니다. 더
또한 컴퓨터는 한 가지를 제외하고는 무엇이든 할 수 있습니다.
열. 이 방향에서 유망한 것은 신경망
사람들은 국회의 도움으로 가까스로 "가장 입증 된
무작위 변수”를 제공하고 회사를 위해 모든 종류의 스마트 박사 학위 논문을 방어합니다. 이와 같은
시리즈, 자기회귀 모델은 잘 작동합니다(통계적으로 잘 작동한다는 의미에서)
예측, 당신은 시도하고 볼 수 있습니다.





링크가 있습니까? 나는 혼란스러운 행동을 가진 신경망을 가정합니다.
y(n+1)=a0*y(n)+b.noise인 자기회귀. ? 그들은 정확히 무엇을 위해 좋은가?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.noise 선형 뉴런 + 잡음을 얻습니다. 무슨 좋은?


그런데. 귀하의 진술은 위의 과정을 예측할 수 있음을 의미합니까?

나는 검토를 위해 자료를 받았고 손에 들었습니다. 그러나 이것은 모든 것이 비밀이기 때문이 아니라 인터넷에서 찾을 수 있다고 생각합니다.

그런데. 귀하의 진술은 위의 과정을 예측할 수 있음을 의미합니까?

나는 분명히 이렇게 썼습니다. " 자동회귀 예측 모델은 그러한 시리즈에서 (통계적으로 잘 작동한다는 의미에서) 잘 작동합니다. 시도하고 확인할 수 있습니다 ."

다시. AR 모델에 의해 예측된 아주 좋은(통계적으로), 시도하고 확인하십시오. 내 겸손한 이해에서, 당신 세대의 대가는 가치가 없습니다. 이 모델은 무엇입니까??? 그들은 자신이 모델이 아니라는 것을 아주 올바르게 알아차렸습니다. 먼저 모델을 생성합니다. 우선, 초기 조건에서 "가격"이 음수가 되지 않도록 조건을 설정하십시오. 모든 것이 그렇게 간단하지 않다는 것을 이해하게 될 것입니다. 그리고 그것을 탐색하십시오. 그렇지 않으면 지금 하고 있는 것이 문자 그대로의 헛소리입니다. 인용문과 유사한 자연스럽고 기술적인 프로세스가 많이 있습니다. fibo 수준의 인용문과 유사한 시리즈를 PI 에서 쉽게 얻을 수 있습니다. 및 기타 속성.

추신 : 현상의 노몬을 찾고 싶다면 프랙탈!!!!. :에 대한)