Statistiche di dipendenza nelle citazioni (teoria dell'informazione, correlazione e altri metodi di selezione delle caratteristiche) - pagina 9
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
non a me)))) se l'indipendenza è richiesta, perché una cosa come l'entropia condizionata, per esempio?
Se la sequenza dei simboli dell'alfabeto non è indipendente (per esempio, in francese la lettera "q" è quasi sempre seguita da "u", e la parola "avanguardia" nei giornali sovietici era solitamente seguita da "produzione" o "lavoro"), la quantità di informazione che la sequenza di tali simboli porta (e, quindi, l'entropia) è ovviamente minore. L'entropia condizionata è usata per rendere conto di questi fatti. https://ru.wikipedia.org/wiki/Информационная_энтропия
Oh sì, l'entropia condizionata. È chiaro che c'è comunque uno spazio chiuso di risultati? E tutte le lettere sono contate abbastanza chiaramente, ecc. In effetti stiamo parlando di una semplice estensione dell'alfabeto originale di 26 caratteri a un alfabeto di quante sillabe. Questa è un'approssimazione.
quindi questo è più o meno il punto dell'entropia))) O il grado di compressione di un perfetto archivista.
Scusa, HideYourRichess, ma mi sembra che tu sia uscito dal seminato. Non so di cosa discutere con te ora che sei così insistente con delle vere e proprie sciocchezze. La tua logica di ragionamento
è completamente incomprensibile per me.
Non ci crederò. Mostrami la fonte che afferma che
quindi questo è più o meno il punto dell'entropia))) O nel grado di compressione di un perfetto archivista
HideYourRichess, se pensi che tutti i tervers si riducano alla serie di Bernoulli o alla legge dei grandi numeri, ti sbagli di grosso.
Smettila di scherzare e familiarizza con il concetto di probabilità condizionata, che è direttamente usato per determinare l'entropia condizionata e l'informazione reciproca.
HideYourRichess, se pensi che tutto il mondo si riduca alla serie di Bernoulli o alla legge dei grandi numeri, ti sbagli di grosso.
Non lo penso, lo so per certo.
La nozione di prove indipendenti, derivata da Bernoulli, sarà sufficiente? O qui, una formulazione della legge dei grandi numeri: Sia una sequenza infinita di variabili casuali equamente distribuite e non correlate... Sia una sequenza infinita di variabili casuali indipendenti equamente distribuite...
Suggerisco di prendere le pubblicazioni di Shannon e leggere. Penso che gli oppositori di questo thread stiano solo cercando una "lotta" senza una ragione particolare. Ho studiato la teoria della probabilità all'università, anche se la mia formazione non è matematica. Per quanto mi ricordo, una caratteristica importante è la stazionarietà delle variabili casuali studiate.
E dirò di più dal mio background non matematico. Prendiamo la teoria della comunicazione applicata alla quale è stato sviluppato TI. C'è un filo che porta dei segnali, il loro significato non è importante per noi. Vogliamo calcolare le perdite d'informazione in questo filo e consideriamo la fonte e il trasmettitore (GIUSTO: trasmettitore e ricevitore) come due variabili casuali. Non sono collegati a priori? Noto - il presupposto è che sono collegati dal proverbiale filo. Cosa risponde a questo?
HideYourRichess,
Smettila di scherzare e familiarizza con il concetto di probabilità condizionata, che è direttamente usato per determinare l'entropia condizionata e l'informazione reciproca.
Un'altra cosa da aggiungere per HideYourRichess
L'informazione reciproca conta per le variabili fortemente correlate e correlate e determina la quantità di informazione stessa e la sua perdita. Quindi l'accoppiamento degli eventi a livello fisico è un elemento di tutta la teoria. O Schennom si è sbagliato...
HideYourRichess, если Вы думаете, что весь тервер сводится к сериям Бернулли или закону больших чисел, то Вы сильно ошибаетесь.
Non credo, lo so per certo.
Di quali eventi indipendenti sta parlando? Su una sequenza di caratteri alfabetici della fonte? No, non sono necessariamente indipendenti, ti è già stato spiegato. Un testo letterario russo ordinario è una sequenza di lettere dipendenti. Se fossero indipendenti, i testi letterari sarebbero molto più compressi dall'archivista di quanto lo siano realmente. Prendete e mischiate un testo letterario e confrontate i risultati dell'archiviazione del testo originale e di quello mischiato.
O pensi che gli insiemi sorgente e ricevitore siano variabili indipendenti?