Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Quindi è lisciante.
)
È un'approssimazione di mix gaussiano...
)
È un'approssimazione di mix gaussiano...
L'approssimazione per mix è un po' diversa.
)
È un'approssimazione con un mix di gaussiane...
Beh, mi interessa il risultato finale, non le singole gaussiane.
Allora devi trovare la "statistica applicata" di Kobzar e guardare il secondo capitolo).
Cercato, ma anche una parola come "approssimazione" non ha trovato)
In generale, è strano. Ci sono un milione di modi complicati di stima. Tranne uno, il più chiaro, semplice e preciso: l'approssimazione.
Forse non capisco qualcosa?
Ho cercato, ma non ho trovato nemmeno la parola "approssimazione").
È strano. Ci sono un milione di modi intelligenti di stima là fuori. Tranne uno, che è il più chiaro, il più semplice e il più accurato: l'approssimazione.
Forse non capisco qualcosa?
È possibile arrivare a un numero enorme di stime diverse. Basta poi stabilire la loro coerenza e imparzialità, come minimo. Questo non è vero per tutti gli stimatori "precisi, semplici e diretti", un esempio tipico è il denominatore n-1 in uno stimatore di varianza imparziale.
Se la stima esistente è anche efficiente e sufficiente, allora l'invenzione di nuove stime o è del tutto inutile, o deve avere qualche base supplementare. Di solito si tratta di considerazioni di robustezza, che hanno a che fare con piccoli campioni, outlier, valori mancanti, ecc.
Ciò che si intende non è una serie temporale, ma un istogramma vicino alla normalità.
Quanto in profondità negli approcci probabilistici la gente va qui e dimentica persino che un istogramma è solo un "metodo di rappresentazione grafica di dati tabulari" (Wiki), che non dice nulla sul contenuto dei dati. Per quanto posso indovinare state parlando di una tabella di frequenze campionarie relative (relative alla loro somma totale) Ciao di qualche evento x>xi, presumibilmente vicino a una distribuzione di probabilità normale. E di sostituirlo con valori di probabilità della distribuzione normale in modo che l'errore sia minimo in un certo senso. Cosa non ti piace delle formule per il calcolo diretto di questi parametri, aspettativa e varianza secondo la loro definizione?
Se xi nella tabella sono equidistanti, allora:
- l'aspettativa è montata semplicemente come la media aritmetica di tutte le realizzazioni = la media ponderata dei valori della tabella con pesi uguali a Íi di quella tabella;
- dispersione - come radice quadrata della deviazione standard (i pesi sono gli stessi Hi), o, se si desidera una maggiore precisione di stima, non la deviazione standard, ma la deviazione standard (l'unica differenza è se dividere per n o per n-1). La stima della deviazione standard è imparziale.
...
Qui, sull'asse delle x, si può vedere quanti passi la persona ha fatto dal punto di partenza, da -10 (sinistra) a +10 (destra) e la % di probabilità con cui l'ha fatto. Come si fa a trovare quale era la probabilità di girare ad ogni passo?
Il tuo esempio è molto probabilmente il risultato di una simulazione della venerabile tavola Galton con riflettori.
In ogni caso, è molto simile.
è molto plausibile al 10
iterazioni (cioè una scheda di tipo 'casa') per una catena di Markov con matrice di probabilità di transizione -
0.75 0.25 0 0 ... 0
0.25 0.5 0.25 0 ... 0
...
0 ... 0.25 0.5 0.25
0 ... 0 0.25 0.75
stato iniziale 0 0 0 0 0 1000 0 0 0 0 0. cioè dallo zero relativo)
Perché non sei contento delle formule per calcolare direttamente questi parametri, l'aspettativa e la varianza secondo la loro definizione?
Per esempio, non mostrano la coda grassa.
Per esempio, non mostrano la coda grassa. E le gaussiane, basate su di esse, è probabile che non convergano con i dati né nelle code né al centro.
Ma tuttavia la differenza significativa è solo nei bunker più esterni. Come ho detto sopra, questo è dovuto alle pareti riflettenti).
Per esempio, non mostrano una coda spessa.
Non sono i modi di stimare i parametri di una distribuzione normale (adattamento, approssimazione) che lo mostrano affatto. È la distribuzione normale stessa che non ha code spesse. Chiedi ad Alexander_K2, lui stava cercando quelle code. Basta guardare la tabella con i parametri delle unità. Ci sono tabelle in ogni libro di testo sulla TV, credo, e in ogni libro di riferimento di matematica. Non importa come lo regoli, devi cambiare la distribuzione delle varianti per catturare le code grasse. E perché avete bisogno di una distribuzione di tipo esattamente? Esattamente la distribuzione di probabilità? Perché questi timbri per "alcuni dati"? O non si tratta affatto di dati, ma piuttosto di frequenze relative di campioni, come avevo intuito?
Forse il punto è che la rappresentazione probabilistica non descrive affatto i vostri dati? Ricordate, come l'aspettativa balla sulle immagini di Yuriy Asaulenko https://www.mql5.com/ru/forum/221552/page162#comment_6399653 sui tassi Forex. Non volete usare la rappresentazione probabilistica per loro? Allora è chiaro da dove vengono le code pesanti.