Bernoulli, teorema de Moab-Laplace; criterio de Kolmogorov; esquema de Bernoulli; fórmula de Bayes; desigualdades de Chebyshev; ley de distribución de Poisson; teoremas de Fisher, Pearson, Student, Smirnov, etc., modelos, lenguaje sencillo, sin fórmulas. - página 6

 
sergeyas:

Escuchemos primero la presentación de Alexei, ya que fue el primero en hacerlo.

Yusuf y todos los demás, por favor, no lo toméis como una disminución de vuestros conocimientos sobre el tema.

En lugar de ser coherente, empiezas a acumular terminología adicional y a adelantarte a los acontecimientos.



Es una enfermedad de los comerciantes. Teme no poder pulsar el botón. Yo también soy así.
 

El concepto de distribución normal del capítulo 9 de Bollinger sobre las bandas de Bollinger

 
 

Este hilo promete ser una buena reserva de conocimientos.

Hace tiempo decidí poner en práctica la distribución normal, para lo cual realicé un experimento numérico. Hice 500 series acumulativas de 10.000 pruebas independientes. Obtenemos 500 grafos aleatorios no conectados. Tomamos para ellos el mismo punto de referencia y observamos cómo divergen con el tiempo, o para ser más exactos, con el aumento del número de pruebas. Así que su divergencia obedecerá a la ley de distribución normal y en el conjunto formarán una campana de la distribución normal:

Lo interesante es que la divergencia media será igual a la raíz cuadrada del número de ensayos. Así, después de 1.000 ensayos tenemos derecho a esperar que, por término medio, cualquiera de las series se aleje 32 puntos de su posición cero original, mientras que después de 10.000 ensayos sólo se alejará 100 puntos. Se puede ver por la forma de la campana. Al principio diverge bastante hacia los lados, y luego la "velocidad" de divergencia comienza a disminuir.

Un hecho interesante es que la suma de todas las 500 series, sin importar el número de ensayos que haya en ellas, será aproximadamente cero. Esto se ilustra perfectamente en la imagen: el 50% de las series estaban por encima de cero después de 10.000 ensayos, mientras que el 50% estaban por encima de cero. Así, el estado medio o la expectativa matemática de todos los sistemas tenderá a cero.

Por lo tanto, tengo una pregunta para los entendidos: ¿cómo calcular la desviación de la expectativa matemática real con respecto a la MO teórica y nula? Al fin y al cabo, no hay nada que permita esperar que la suma de todas las pruebas sea claramente igual a 0. Puede ser igual a +3 o -20 o algo así. Y una segunda subpregunta: ¿este valor de error se reducirá a cero al aumentar los ensayos, o se "congelará" en un nivel proporcional a la raíz cuadrada del número de ensayos?

 
C-4:

¿cómo calcular la desviación de la expectativa matemática real con respecto a la MO teórica, cero? Al fin y al cabo, no hay nada que permita esperar que la suma de todas las pruebas sea claramente 0. Puede ser +3 o -20 o algo así. Y una segunda subpregunta: ¿este valor de error se reducirá a cero al aumentar los ensayos, o se "congelará" en un nivel proporcional a la raíz cuadrada del número de ensayos?


sb es la suma de variables aleatorias independientes. Que los incrementos se distribuyan normalmente con mo=0, sko=X. Entonces la suma de N incrementos es también NR con mo=0, sko=SQRT(N)*X, que es lo que tienes en la figura (N ahí es 10000).

Si tomamos la suma de M tales sbs independientes, también se distribuirá normalmente con mo=0, sko=SQRT(M*N)*X

Así, cuando el número de ensayos aumenta, la suma no se congelará ni tenderá a cero, sino que aumentará en proporción a la raíz del número de ensayos. Pero la media aritmética (también dividida por el número de ensayos), convergerá a cero cuando el número de ensayos aumente debido al teorema de Bernoulli ya considerado

 
¿Qué son las "colas" en la distribución? ¿Son valores atípicos que están claramente fuera de la distribución?
 

Если взять сумму M таких независимых сб, то она так же буден распределена нормально с мо=0, ско=SQRT(M*N)*X

Bien, voy a intentar resolver el problema: se dan 10 series acumulativas de 10.000 pruebas cada una. El resultado final de la serie es el siguiente:

1
145
2
-32
3
-80
4
25
5
-172
6
102
7
78
9
-121
10
95
Total
40

La suma de M hermanos independientes es +40. Sustituye el resultado en la fórmula: SQRT(40*10.000) * 100 = 63.245. Resulta algo inadecuado el resultado. Debo haber entendido mal lo que significa "suma de M".

¿O significa que hay que alinear todos los experimentos uno por uno y analizar la desviación del resultado final con respecto al modus operandi?

 
C-4: Hace tiempo decidí obtener una distribución normal en la práctica, para lo cual realicé un experimento numérico. Hice 500 series acumulativas de 10.000 pruebas independientes. Obtenemos 500 grafos aleatorios no relacionados. Tomamos para ellos el mismo punto de referencia y observamos cómo divergen con el tiempo, o para ser más exactos, con el aumento del número de pruebas. Así que su divergencia obedecerá a la ley normal de distribución y en el conjunto formarán una campana de la distribución normal:

No es una buena idea ilustrar una distribución normal. No estoy seguro de que detener el proceso en, digamos, 10.000 dé exactamente una distribución normal en la sección transversal. Además, esta distribución tiene parámetros que cambian constantemente.

Si me equivoco, dame un enlace en el que se afirme que la distribución de la "sección transversal" (es decir, las divergencias respecto a cero) es al menos asintóticamente normal.

SProgrammer: Comprender esto es la clave para entender el 90% del teorema.

Sin fórmulas, no se podrá sentir al hígado. Tú mismo lo sabes. Pero aquí no se pueden utilizar fórmulas.

yosuf: Esto demuestra que las soluciones de las ecuaciones de balance de materiales y las leyes teóricas coinciden y se complementan mutuamente en la interpretación de los resultados del análisis de los fenómenos.

¿No has oído que la función gamma se encuentra en todo tipo de campos de la ciencia y la ingeniería?

No veo nada sobrenatural en su aparición a la hora de resolver difuros. Y sólo has sacado la distribución gamma porque has visto cómo se llama esta función en Excel. ¡¿Pues qué conexión en tus diphuras con un terver, Yusuf?!

SProgrammer dice correctamente que hay muy pocas distribuciones realmente usadas en el terver/matstat - aunque puedes inventarlas tanto como quieras. Así que te recomiendo, si sigues tan cautivado por (18), que intentes pensar en Erlang y de dónde lo has sacado. Intenta exponer tus reflexiones no en forma de conclusiones concisas como la citada anteriormente, sino de forma más completa.

He buscado Feller, vol. 2. Hay algo sobre la distribución gamma, pero tiene fórmulas horribles y sólo un par de palabras sobre Erlang. Así que aquí no.

Pero hay algo interesante en la distribución exponencial (Feller, vol. 2, p. 69):


Esto es especialmente interesante porque la distribución de los rendimientos de los precios está bien aproximada por la distribución de Laplace.
 
C-4:

Bien, voy a intentar resolver el problema: se dan 10 series acumulativas de 10.000 pruebas cada una. El resultado final de la serie es el siguiente:

1
145
2
-32
3
-80
4
25
5
-172
6
102
7
78
9
-121
10
95
Total
40

La suma de M hermanos independientes es +40. Sustituye el resultado en la fórmula: SQRT(40*10.000) * 100 = 63.245. Resulta algo inadecuado el resultado. Debo haber entendido mal lo que significa "suma de M".

¿O significa que hay que encadenar todos los experimentos uno por uno y analizar la desviación del resultado final respecto al modus operandi?


Basil, empecemos por el principio. ¿Has modelado un paseo aleatorio como una suma acumulada de incrementos de tipo moneda? Dos resultados +1 y -1 con probabilidades iguales 0,5/0,5. Esta variable aleatoria no se distribuye normalmente, es una distribución discreta con 2 valores. Su MO=0 y RMS=SQRT(0.5*0.5)=0.5

Entonces ya consideramos el paseo aleatorio como una suma de estos incrementos. Supongamos que tomamos incrementos de 10000 como tú. ¿A qué será igual? Obviamente es una variable aleatoria (la segunda). Si los incrementos son independientes, esta distribución convergerá a la normal con un número creciente de ensayos con MO=0, RMS=SQRT(10000)*0.5=50. De esto y de la regla del 3x sigma, por ejemplo, se puede deducir que más del 99% de las realizaciones de este SV caerán en el intervalo -150...+150. Es decir, fuera de este intervalo menos de 10000*0,01=100 realizaciones de CB.

Entonces ya se considera la suma de estos CBs. Tienes en la columna la suma de 10 realizaciones de este CB. Será la nueva (ya tercera) SA, que también se distribuye normalmente con MO=0, RMS=50*SQRT(10) =158. Lo que tienes en total +40 es sólo una realización de este tercer SV. Pero varía bastante. De nuevo, el 99% de los datos se situarán en el rango -474...+474

 
Las ballenas teóricas han olvidado mi pequeña pregunta(