Abhängigkeitsstatistik in Anführungszeichen (Informationstheorie, Korrelation und andere Methoden der Merkmalsauswahl) - Seite 9

 
Avals:


nicht für mich)))) wenn Unabhängigkeit erforderlich ist, warum gibt es dann zum Beispiel so etwas wie bedingte Entropie?

Wenn die Reihenfolge der Symbole des Alphabets nicht unabhängig ist (zum Beispiel folgt auf den Buchstaben "q" im Französischen fast immer ein "u", und auf das Wort "Avantgarde" in den sowjetischen Zeitungen folgt in der Regel "Produktion" oder "Arbeit"), ist die Menge an Informationen, die die Folge solcher Symbole enthält (und damit die Entropie), natürlich geringer. Diebedingte Entropie wird verwendet, um solchen Tatsachen Rechnung zu tragen. https://ru.wikipedia.org/wiki/Информационная_энтропия

Ach ja, die bedingte Entropie. Ist es klar, dass es überhaupt einen geschlossenen Raum von Ergebnissen gibt? Und alle Buchstaben sind ganz klar gezählt, usw. Tatsächlich handelt es sich um eine einfache Erweiterung des ursprünglichen Alphabets mit 26 Zeichen auf ein Alphabet mit wie vielen Silben. Das ist eine grobe Annäherung.
 
HideYourRichess:
Ach ja, die bedingte Entropie. Ist es klar, dass es dort sowieso einen geschlossenen Raum von Ergebnissen gibt? Und alle Buchstaben sind ganz klar gezählt, usw. Tatsächlich handelt es sich um eine einfache Erweiterung des ursprünglichen Alphabets mit 26 Zeichen auf ein Alphabet mit wie vielen Silben. Das ist eine grobe Annäherung.


das ist also in etwa der Sinn der Entropie))) Oder der Grad der Komprimierung durch einen perfekten Archivierer.

 
Mathemat:

Tut mir leid, HideYourRichess, aber du scheinst den Bogen überspannt zu haben. Ich weiß nicht, worüber ich mit Ihnen diskutieren soll, da Sie so hartnäckig auf völligem Unsinn bestehen. Ihre Logik der Argumentation

ist für mich völlig unverständlich.

Ich werde es nicht glauben. Zeigen Sie mir die Quelle, die besagt, dass

Der von Bernoulli abgeleitete Begriff der unabhängigen Tests - reicht das aus? Oder hier, eine Formulierung des Gesetzes der großen Zahlen: Es sei eine unendliche Folge von gleichverteilten und unkorrelierten Zufallsvariablen... Es sei eine unendliche Folge von unabhängigen, gleichverteilten Zufallsvariablen...
 
Avals:


das ist also in etwa der Sinn der Entropie))) Oder im Grad der Komprimierung durch einen perfekten Archivierer

Nur im Zusammenhang mit einem bekannten Alphabet.
 

HideYourRichess, wenn Sie glauben, dass sich alle Terverse auf die Bernoulli-Reihe oder das Gesetz der großen Zahlen reduzieren lassen, irren Sie sich gewaltig.

Hören Sie auf, herumzualbern, und machen Sie sich mit dem Konzept der bedingten Wahrscheinlichkeit vertraut, das direkt zur Bestimmung der bedingten Entropie und der gegenseitigen Information verwendet wird.

 
Mathemat:

HideYourRichess, wenn Sie glauben, dass sich der gesamte Terver auf die Bernoulli-Reihe oder das Gesetz der großen Zahlen reduzieren lässt, liegen Sie völlig falsch.

Ich glaube es nicht, ich weiß es ganz genau.

 
HideYourRichess:
Der von Bernoulli abgeleitete Begriff der unabhängigen Tests - reicht das aus? Oder hier, eine Formulierung des Gesetzes der großen Zahlen: Es sei eine unendliche Folge von gleichverteilten und unkorrelierten Zufallsvariablen... Es sei eine unendliche Folge von unabhängigen, gleichverteilten Zufallsvariablen...

Ich empfehle, Shannons eigene Veröffentlichungen zu lesen. Ich denke, dass die Gegner dieses Themas nur einen "Kampf" ohne besonderen Grund austragen. Ich habe an der Universität Wahrscheinlichkeitstheorie studiert, obwohl meine Ausbildung nicht mathematisch ist. Soweit ich mich erinnere, ist die Stationarität der untersuchten Zufallsvariablen ein wichtiges Merkmal.

Und ich werde mehr aus meinem nicht-mathematischen Hintergrund heraus sagen. Nehmen wir die Kommunikationstheorie, für die TI entwickelt wurde. Es gibt einen Draht, der Signale überträgt, deren Bedeutung für uns nicht wichtig ist. Wir wollen die Informationsverluste in dieser Leitung berechnen und betrachten die Quelle und den Sender (RICHTIG: Sender und Empfänger) als zwei Zufallsvariablen. Sind sie nicht a priori miteinander verbunden? Ich merke an - es wird davon ausgegangen, dass sie durch den sprichwörtlichen Draht verbunden sind. Was sagen Sie dazu?

 
Mathemat:

HideYourRichess,

Hören Sie auf, herumzualbern, und machen Sie sich mit dem Konzept der bedingten Wahrscheinlichkeit vertraut, das direkt zur Bestimmung der bedingten Entropie und der gegenseitigen Information verwendet wird.

Verstehen Sie nicht, dass es sich um eine Abfolge von unabhängigen Ereignissen handelt?
 

Noch eine Anmerkung zu HideYourRichess

Die gegenseitige Information gilt für sehr stark verwandte, korrelierte Variablen und bestimmt sowohl den Umfang der Information selbst als auch deren Verlust. Die Kopplung von Ereignissen auf der physikalischen Ebene ist also ein Element der gesamten Theorie. Oder hat sich Schennom geirrt...

 
Mathemat:

HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.

Das glaube ich nicht, das weiß ich ganz sicher.

Das ist ein Fünfer! Ich will zwei!
HideYourRichess: Ist Ihnen nicht klar, dass es sich hier um eine Abfolge von unabhängigen Ereignissen handelt?

Von welchen unabhängigen Veranstaltungen sprechen Sie? Über eine Folge von alphabetischen Zeichen aus der Quelle? Nein, sie sind nicht unbedingt unabhängig, das wurde Ihnen bereits erklärt. Ein gewöhnlicher russischer literarischer Text ist eine Folge von abhängigen Buchstaben. Wären sie unabhängig, würden literarische Texte vom Archivar viel schlechter komprimiert werden, als sie es tatsächlich sind. Nehmen Sie einen literarischen Text und mischen Sie ihn und vergleichen Sie die Archivierungsergebnisse des ursprünglichen und des gemischten Textes.

Oder denken Sie, dass die Quellen- und Empfängergruppen unabhängige Variablen sind?