引文中的依赖性统计(信息论、相关和其他特征选择方法)。 - 页 9

 
Avals:


not to me)))),如果要求独立,为什么要有条件熵这种东西,比如说?

如果字母表的符号序列不是独立的 (例如,在法语中,字母 "q "后面几乎总是 "u",而苏联报纸中的 "先锋队 "一词后面通常是 "生产 "或 "劳动"),那么这种符号序列所携带的信息量(以及由此产生的熵)显然要少一些。条件熵是用来说明这种事实的。https://ru.wikipedia.org/wiki/Информационная_энтропия

哦,是的,条件熵。反正有一个封闭的结果空间,这很清楚吗?而且所有的字母都算得很清楚,等等。事实上,我们谈论的是将原来的26个字符的字母表简单扩展到多少个音节的字母表。那是一个粗略的近似值。
 
HideYourRichess:
哦,是的,条件熵。是否清楚那里有一个封闭的结果空间呢?而且所有的字母都算得很清楚,等等。事实上,我们谈论的是将原来的26个字符的字母表简单扩展到多少个音节的字母表。那是一个粗略的近似值。


所以这大概就是熵的意义)))或者一个完美的存档者的压缩程度。

 
Mathemat:

对不起,HideYourRichess,但你似乎已经走到了深渊。我不知道现在该和你讨论什么,你是如此坚持公然胡说八道。你的推理逻辑

对我来说是完全不可理解的。

我不会相信的。让我看看有什么资料表明

从伯努利衍生出来的独立测试的概念,这就够了吗?或者在这里,大数法则的表述。 假设有一个无限序列的平等分布和不相关的随机变量... 设有一个无限的独立等分布的随机变量序列...
 
Avals:


所以这大概就是熵的意义)))或者在一个完美的存档者的压缩程度中

只有在已知的字母表的背景下。
 

HideYourRichess,如果你认为所有的硫化物都被简化为伯努利数列或大数定律,你就大错特错了。

不要再胡闹了,熟悉一下条件概率 的概念吧,它直接用于确定条件熵和互信息。

 
Mathemat:

HideYourRichess,如果你认为整个服务器被简化为伯努利数列或大数定律,你就大错特错了。

我不认为如此,我知道这是一个事实。

 
HideYourRichess:
从伯努利衍生出来的独立测试的概念,这就够了吗?或者在这里,大数法则的表述。 假设有一个无限序列的平等分布和不相关的随机变量...设 一个无限的独立等分布的随机变量序列...

我建议拿起Shannon 自己的出版物来阅读。我认为这个话题的反对者只是无缘无故地挑起一场 "斗争"。我在大学学习了概率论,尽管我的教育不是数学。在我的记忆中,被研究的随机变量的静止性是一个重要的特征。

而我将从我自己的、非数学的教育中说更多。让我们把通信理论作为应用于TI的发展。有一根线在传输信号,它们的意义对我们来说并不重要。我们想计算这条线的信息损失,我们把源头和发射器(RIGHT:发射器和接收器)视为两个随机变量。它们不是先验地联系在一起吗?我注意到--假设它们是由众所周知的电线连接的。你对此怎么说?

 
Mathemat:

HideYourRichess,

不要再胡闹了,熟悉一下条件概率 的概念吧,它直接用于确定条件熵和互信息。

难道你不明白我们在谈论的是一连串的独立事件吗?
 

HideYourRichess 再补充一件事

相互信息对关系非常密切的相关变量进行统计,并决定了信息本身的数量和其损失。因此,物理层面上的事件耦合是整个理论的一个要素。还是申诺姆错了...

 
Mathemat:

HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.

我不这么认为,我知道这是一个事实。

那一个是五!我想要两个!
HideYourRichess: 你难道没有意识到,我们正在谈论一连串独立的事件吗?

你说的是什么独立事件?关于来源的一连串的字母字符?不,它们不一定是独立的,这已经向你解释过了。一个普通的俄罗斯文学文本是一连串的从属字母。如果它们是独立的,文学文本被存档者压缩的情况会比实际情况差很多。取出并洗刷一些文学文本,比较原始文本和洗刷后的文本的存档结果。

还是你认为信源和接收方的组合是独立变量?