Estatísticas de dependência entre aspas (teoria da informação, correlação e outros métodos de seleção de características) - página 9
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
não para mim)))) se for necessária independência, por que uma coisa como entropia condicional, por exemplo?
Se a seqüência de símbolos do alfabeto não é independente (por exemplo, em francês a letra "q" é quase sempre seguida por "u", e a palavra "vanguarda" nos jornais soviéticos era geralmente seguida por "produção" ou "mão-de-obra"), a quantidade de informação que a seqüência de tais símbolos carrega (e, portanto, a entropia) é obviamente menor. Aentropia condicional é usada para contabilizar tais fatos. https://ru.wikipedia.org/wiki/Информационная_энтропия
Oh sim, entropia condicional. É claro que há um espaço fechado de resultados de qualquer maneira? E todas as cartas são claramente contadas, etc. Na verdade, estamos falando de uma simples extensão do alfabeto original de 26 caracteres para um alfabeto de quantas sílabas. Isso é uma aproximação grosseira.
então esse é aproximadamente o ponto de entropia)))) Ou o grau de compressão por um arquivador perfeito.
Desculpe, HideYourRichess, mas você parece ter saído do fundo do poço. Eu não sei o que discutir com você agora que você insiste tanto em tolices. Sua lógica de raciocínio
é completamente incompreensível para mim.
Não vou acreditar nisso. Mostre-me a fonte que afirma que
então esse é aproximadamente o ponto de entropia)))) Ou no grau de compressão por um arquivador perfeito
HideYourRichess, se você pensa que todos os tervers são reduzidos à série de Bernoulli ou à lei dos grandes números, você está muito enganado.
Pare de brincar e familiarize-se com o conceito de probabilidade condicional, que é usado diretamente na determinação da entropia condicional e da informação mútua.
HideYourRichess, se você acha que todo o terver está reduzido à série de Bernoulli ou à lei dos grandes números, você está muito enganado.
Eu não penso assim, eu sei disso de fato.
A noção de testes independentes, derivada de Bernoulli, será suficiente? Ou aqui, uma formulação da lei de grandes números: Que haja uma sequência infinita de variáveis aleatórias igualmente distribuídas e não correlacionadas. Que haja uma sequência infinita de variáveis aleatórias independentes igualmente distribuídas.
Sugiro pegar as próprias publicações e leituras da Shannon. Acho que os oponentes desta linha estão apenas escolhendo uma "luta" sem nenhuma razão em particular. Eu estudei teoria da probabilidade na universidade, embora minha educação não seja matemática. Até onde me lembro, a estacionaridade das variáveis aleatórias em estudo é uma característica importante.
E eu direi mais de minha própria educação, não matemática. Tomemos a teoria da comunicação como aplicada à qual a TI foi desenvolvida. Há um fio que transporta sinais, seu significado não é importante para nós. Queremos calcular as perdas de informação neste fio e consideramos a fonte e o transmissor (DIREITO: transmissor e receptor) como duas variáveis aleatórias. Eles não estão conectados a priori? Eu observo - supõe-se que eles estejam conectados pelo fio proverbial. O que você diz a isso?
HideYourRichess,
Pare de brincar e familiarize-se com o conceito de probabilidade condicional, que é usado diretamente na determinação da entropia condicional e da informação mútua.
Mais uma coisa a acrescentar para a HideYourRichess
A informação mútua conta para variáveis muito fortemente relacionadas e correlacionadas e determina a quantidade tanto da própria informação quanto de sua perda. Portanto, o acoplamento de eventos no nível físico é um elemento de toda a teoria. Ou Schennom estava errado...
HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.
Acho que não, eu sei disso de fato.
De que eventos independentes você está falando? Sobre uma seqüência de caracteres alfabéticos da fonte? Não, eles não são necessariamente independentes, isso já foi explicado a você. Um texto literário russo comum é uma seqüência de letras dependentes. Se fossem independentes, os textos literários seriam muito pior comprimidos pelo arquivador do que realmente são. Pegue e embaralhe algum texto literário e compare os resultados de arquivamento do texto original e embaralhado.
Ou você acha que os conjuntos fonte e receptor são variáveis independentes?