un proceso completamente aleatorio y FOREX. - página 5

 
D.Will писал (а):

He decidido reducir el determinismo del generador de números pseudoaleatorios barajando la serie de números aleatorios varias veces.

% barajar
for=1:1:10000
i1 = fix(rand*N)+1; ))))
i2 = fix(rand*N)+1; ) ))
c=r(i1);
r(i1)=r(i2);
r(i2)=c;

Si te fijas arriba he dado un ejemplo en el que he barajado toda la secuencia varias veces. y he mostrado tanto una como otra secuencia.




Cuando se baraja así - en un ocho sin dos. ¿Dónde están los caballeros de los candelabros?
 
Korey:
D.Will escribió (a):



Decidió reducir el determinismo del generador de números pseudoaleatorios barajando una serie de números aleatorios. varias veces.



% barajar

for=1:1:10000

i1 = fix(rand*N)+1; ))))

i2 = fix(rand*N)+1; ) ))

c=r(i1);

r(i1)=r(i2);

r(i2)=c;



Si te fijas arriba he dado un ejemplo en el que se barajaba toda la secuencia varias veces. y se mostraba tanto una como otra secuencia.









Cuando se baraja así - en un ocho sin dos. ¿Dónde están los caballeros de los candelabros?
¿Qué pasa aquí? ¿Seleccionó al azar dos índices e intercambió el contenido?

fix(rand*N)+1 devuelve un número entero de 1 a N. En Matlab, la indexación va de 1.

a la mierda
 
rand hace clic en la secuencia secuencialmente. Los índices se toman como un par de números pseudogeneradores adyacentes,
y se sabe que están correlacionados, es decir, que se encuentran dentro de un período .
Intenta realizar un número aleatorio de llamadas a rand entre la obtención de los índices para romper la periodicidad.
 
Korey:
rand hace clic en la secuencia secuencialmente. Los índices se toman como un par de números pseudogeneradores adyacentes,

y se sabe que están correlacionados, es decir, que se encuentran dentro del periodo m.

Intenta realizar un número aleatorio de llamadas a rand entre la obtención de índices para romper la periodicidad m.

de esto ya hablamos.

el objetivo de este preset es otro.
Estaría bien si el cambio fuera aditivo en forma de suma a esta fila de otros números.
Pero la naturaleza del cambio es completamente diferente.

Si crees que la correlación en rand con la permutación es tan grande, tal generador no tiene ningún valor.
¿entiendes?

Aunque sea pseudo-aleatorio, eso no significa que debas hacer una inserción paranoica de llamadas al azar de un número aleatorio.

todas esas llamadas también tendrán una distribución correlacionada con el PSG.

El hecho es que al mezclar los datos, la naturaleza de la secuencia sigue siendo la misma.

de qué correlación estás hablando????????
 
Especialmente para Korey

cerrar todo;

N=1000;
r=NORMRND(0,0.0077,1,N);

r1=r;

para i=1:1:100000
i1 = fix(rand*N)+1
para j=1:1:1000
rand;
fin
i2 = fix(rand*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
fin;

figura;
%r=r-05;
for i=2:1:length(r)
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);
end

grid on;

plot(r);
figure;
plot(r1);



Before


Después de


Es aún más genial =))






 
a D.Will

La forma de formar una serie aleatoria es muy similar al algoritmo de los osciladores lineales congruentes. Hace tiempo que se ha demostrado que este algoritmo (y sus diversas modificaciones) genera cualquier cosa menos una serie aleatoria. Esto es válido tanto para la generación de secuencias "en su conjunto" como para el propio generador de datos aleatorios(una observación: si no me equivoco, mathLab ha implementado un algoritmo de este tipo, pero es fácil comprobarlo). Además, un ordenador sólo puede hacer una cosa: generar una secuencia aleatoria. El uso de redes neuronales es prometedor en este sentido, y la gente consigue con la ayuda de NS, digamos, "variables aleatorias máximamente probadas" y para una empresa defender todo tipo de tesis doctorales ingeniosas. Los modelos de predicción autorregresiva funcionan bien (en el sentido de estadísticamente bien) en este tipo de series, puede probar y asegurarse.

 

Correlación, exactamente correlación.

J. Forsyth. Machine Methods for Mathematical Computing
Knuth D.E. The Art of Programming. Vol. 2, parece.
En general, hace tiempo que se reconoce que los generadores de secuencias aleatorias estándar no son adecuados, por lo que es necesario escribir los propios.

 
grasn:
a D.Will


La forma de generar una serie aleatoria es muy similar al algoritmo
para los generadores lineales congruentes. Hace tiempo que se ha demostrado que este algoritmo (y su
diferentes modificaciones) forma cualquier cosa menos una serie aleatoria. Este
se refiere a la generación de una secuencia "como un todo" y al propio generador de datos aleatorios. Más
Además, el ordenador puede hacer cualquier cosa menos una, es decir, generar un
serie. En este sentido, el uso de redes neuronales y
la gente se las arregla para conseguir, digamos, "la máxima prueba
variables aleatorias" y, de paso, defender todo tipo de ingeniosas tesis doctorales. En tales
Los modelos autorregresivos funcionan bien (en el sentido de estadísticamente bien).
predicciones, puedes probar y ver por ti mismo.





¿Tiene un enlace? Debe tener redes neuronales con un comportamiento caótico.
Autorregresivo que y(n+1)=a0*y(n)+b.ruido. ... ¿Cómo son exactamente buenos?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.ruido da como resultado una neurona lineal + ruido. ¿qué tiene de bueno?


Por cierto, ¿significa su afirmación que el proceso anterior puede predecirse?
 

En realidad quería decir lo siguiente, supongo que k es el número de ciclos:

i1 = fix(rand*N)+1
k=fijo(rand*100000)+1
para j=1:1:k
rand;
Finalizar
i2 = fix(rand*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
fin;

 
D.Will писал (а):
grasn:
a D.Will


La forma de generar una serie aleatoria es muy similar al algoritmo
para generadores lineales congruentes. Hace tiempo que se demostró que este algoritmo (y su
diferentes modificaciones) forma cualquier cosa menos una serie aleatoria. Este
se refiere a la generación de una secuencia "como un todo" y al propio generador de datos aleatorios. Más
Además, el ordenador puede hacer cualquier cosa menos una, es decir, generar un
serie. El uso de redes neuronales y de
la gente se las arregla para conseguir, digamos, "la máxima prueba
variables aleatorias" y, de paso, defender todo tipo de ingeniosas tesis doctorales. En tales
Los modelos autorregresivos funcionan bien (en el sentido de estadísticamente bien).
predicciones, puedes probar y ver por ti mismo.





¿Tienes un enlace? Deben ser redes neuronales con un comportamiento caótico.
Autorregresivos que y(n+1)=a0*y(n)+b.ruido. ... ¿Cómo son exactamente buenos?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.ruido da como resultado una neurona lineal + ruido. ¿qué tiene de bueno?


Por cierto, ¿significa su afirmación que el proceso anterior puede predecirse?

Me dieron el material para conocer, que se llama en las manos. Pero no es porque todo es secreto, creo, es posible encontrar en el Internet.

Hablando de eso, ¿significa su afirmación que el proceso anterior puede predecirse?

Pensé que había escrito claramente:"Los modelos de predicción autorregresiva funcionan bien (en el sentido de estadísticamente bien) en dichas series, puedes probarlo y comprobarlo por ti mismo".

Otra vez. Muy bien predicho (estadísticamente) por los modelos AR, intenta convencerte. A mi humilde entender, una miseria en su generación. ¿Es eso un modelo? Usted mismo ha señalado con razón que no es un modelo. En primer lugar, crea un modelo. En primer lugar, basta con inventar una condición que garantice que el "precio" no sea negativo bajo ninguna condición inicial, para entender que no es tan sencillo. E investigarlo, y lo que estás haciendo ahora es una mierda en el sentido literal. Hay muchos procesos, tanto naturales como técnicos, que se asemejan a las cotizaciones. Usted puede obtener fácilmente una serie de PI's que se asemejan a las cotizaciones con niveles de Fibo, y otros atributos.

PD: Si quieres encontrar el gnomon del fenómeno, entonces - fractals!!!!. :о)