Teorema de Bernoulli, Moab-Laplace; critério Kolmogorov; esquema de Bernoulli; fórmula Bayes; desigualdades Chebyshev; lei de distribuição Poisson; teoremas Fisher, Pearson, Student, Smirnov etc., modelos, linguagem simples, sem fórmulas. - página 10

 

Se A e B são variáveis aleatórias independentes, então a variância da soma destas variáveis é igual à soma de suas variâncias.

Imho, apenas uma questão de aritmética. Conveniente :)

 
Não, a condição é menos rígida - variáveis aleatórias devem ser não correlacionadas, a independência é opcional.
 
Alexei, eu dei uma definição, mas esqueci de colocar as vírgulas invertidas :)
 
o homem estava desenvolvendo uma direção, ele começou com aritmética - ou mais precisamente - com condições. Eu começaria com o mesmo...
 

Acho que já resolvio problema por mim mesmo em.

Vamos introduzir uma pseudo-definição:

Pseudo-Medidade dispersão de uma variável aleatória(estimativa relativa) - distância entre dois conjuntos comensuráveis (ou seja, conjuntos do mesmo tamanho): conjunto original e um conjunto "ideal" composto apenas de "médias ", normalizadas para o espaço ao qual o conjunto original pertence.

Se substituirmos definido a partir do espaço linear por esta definição, obtemos RMS. Mas se o conjunto for de um espaço não linear, então...

Aqui, obviamente, foi minha pergunta subconsciente que me incomodou sobre variância - Por que o quadrado do RMS passou para variância, que é uma definição mais geral da medida de dispersão de uma variável aleatória ?