Estatísticas de dependência entre aspas (teoria da informação, correlação e outros métodos de seleção de características) - página 9

 
Avals:


não para mim)))) se for necessária independência, por que uma coisa como entropia condicional, por exemplo?

Se a seqüência de símbolos do alfabeto não é independente (por exemplo, em francês a letra "q" é quase sempre seguida por "u", e a palavra "vanguarda" nos jornais soviéticos era geralmente seguida por "produção" ou "mão-de-obra"), a quantidade de informação que a seqüência de tais símbolos carrega (e, portanto, a entropia) é obviamente menor. Aentropia condicional é usada para contabilizar tais fatos. https://ru.wikipedia.org/wiki/Информационная_энтропия

Oh sim, entropia condicional. Está claro que há um espaço fechado de resultados de qualquer maneira? E todas as cartas são claramente contadas, etc. Na verdade, estamos falando de uma simples extensão do alfabeto original de 26 caracteres para um alfabeto de quantas sílabas. Isso é uma aproximação grosseira.
 
HideYourRichess:
Oh sim, entropia condicional. É claro que há um espaço fechado de resultados de qualquer maneira? E todas as cartas são claramente contadas, etc. Na verdade, estamos falando de uma simples extensão do alfabeto original de 26 caracteres para um alfabeto de quantas sílabas. Isso é uma aproximação grosseira.


então esse é aproximadamente o ponto de entropia)))) Ou o grau de compressão por um arquivador perfeito.

 
Mathemat:

Desculpe, HideYourRichess, mas você parece ter saído do fundo do poço. Eu não sei o que discutir com você agora que você insiste tanto em tolices. Sua lógica de raciocínio

é completamente incompreensível para mim.

Não vou acreditar nisso. Mostre-me a fonte que afirma que

A noção de testes independentes, derivada de Bernoulli, será suficiente? Ou aqui, uma formulação da lei de grandes números: Que haja uma sequência infinita de variáveis aleatórias igualmente distribuídas e não correlacionadas. Que haja uma sequência infinita de variáveis aleatórias independentes igualmente distribuídas.
 
Avals:


então esse é aproximadamente o ponto de entropia)))) Ou no grau de compressão por um arquivador perfeito

Somente no contexto de um alfabeto conhecido.
 

HideYourRichess, se você pensa que todos os tervers são reduzidos à série de Bernoulli ou à lei dos grandes números, você está muito enganado.

Pare de brincar e familiarize-se com o conceito de probabilidade condicional, que é usado diretamente na determinação da entropia condicional e da informação mútua.

 
Mathemat:

HideYourRichess, se você acha que todo o terver está reduzido à série de Bernoulli ou à lei dos grandes números, você está muito enganado.

Eu não penso assim, eu sei disso de fato.

 
HideYourRichess:
A noção de testes independentes, derivada de Bernoulli, será suficiente? Ou aqui, uma formulação da lei de grandes números: Que haja uma sequência infinita de variáveis aleatórias igualmente distribuídas e não correlacionadas. Que haja uma sequência infinita de variáveis aleatórias independentes igualmente distribuídas.

Sugiro pegar as próprias publicações e leituras da Shannon. Acho que os oponentes desta linha estão apenas escolhendo uma "luta" sem nenhuma razão em particular. Eu estudei teoria da probabilidade na universidade, embora minha educação não seja matemática. Até onde me lembro, a estacionaridade das variáveis aleatórias em estudo é uma característica importante.

E eu direi mais de minha própria educação, não matemática. Tomemos a teoria da comunicação como aplicada à qual a TI foi desenvolvida. Há um fio que transporta sinais, seu significado não é importante para nós. Queremos calcular as perdas de informação neste fio e consideramos a fonte e o transmissor (DIREITO: transmissor e receptor) como duas variáveis aleatórias. Eles não estão conectados a priori? Eu observo - supõe-se que eles estejam conectados pelo fio proverbial. O que você diz a isso?

 
Mathemat:

HideYourRichess,

Pare de brincar e familiarize-se com o conceito de probabilidade condicional, que é usado diretamente na determinação da entropia condicional e da informação mútua.

Você não entende que estamos falando de uma seqüência de eventos independentes?
 

Mais uma coisa a acrescentar para a HideYourRichess

A informação mútua conta para variáveis muito fortemente relacionadas e correlacionadas e determina a quantidade tanto da própria informação quanto de sua perda. Portanto, o acoplamento de eventos no nível físico é um elemento de toda a teoria. Ou Schennom estava errado...

 
Mathemat:

HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.

Acho que não, eu sei disso de fato.

Esse é cinco! Eu quero dois!
HideYourRichess: Você não percebe que estamos falando de uma seqüência de eventos independentes lá?

De que eventos independentes você está falando? Sobre uma seqüência de caracteres alfabéticos da fonte? Não, eles não são necessariamente independentes, isso já foi explicado a você. Um texto literário russo comum é uma seqüência de letras dependentes. Se fossem independentes, os textos literários seriam muito pior comprimidos pelo arquivador do que realmente são. Pegue e embaralhe algum texto literário e compare os resultados de arquivamento do texto original e embaralhado.

Ou você acha que os conjuntos fonte e receptor são variáveis independentes?