Regressione bayesiana - Qualcuno ha fatto un EA usando questo algoritmo? - pagina 35

 

Cosa, non abbastanza ????

Beh, per di più:

Dipendente: AUDNZD Multiplo R = .83469441 F = 3845.556

R?= .69671476 df = 1.1674

Numero di casi: 1676 R?aggiustato = .69653358 p = .000000

Errore standard della stima: .053321255

Intercetta: 6.047516031 Errore standard: .0782142 t( 1674) = 77.320 p = 0.0000


 

Controllo alla testa:

Dipendente: NZDCAD multiplo R = .87619213 F = 5532.591

R?= .76771265 df = 1.1674

Numero di casi: 1676 R?aggiustato = .76757389 p = .000000

Errore standard della stima: .032035522

Intercetta: -2.664033151 Errore standard: .0469913 t( 1674) = -56.69 p = 0.0000


 
Дмитрий:

R^2 è già "molto basso"?

C'è una correlazione?

La correlazione non è rilevabile. R è debole. Mi capita di usare R2 molto attivamente nella valutazione della qualità azionaria delle mie strategie e credetemi, ho visto centinaia di grafici in cui R2 era simile a quello che viene presentato qui. Questo è assolutamente insignificante, indistinguibile da SB.

 
Vasiliy Sokolov:

La relazione non è rilevabile. R è debole. Si dà il caso che io stesso sia molto attivo nell'uso di R2 per valutare la qualità azionaria delle mie strategie, e credetemi, ho visto centinaia di grafici il cui R2 era più o meno quello che viene presentato qui. Questo è assolutamente insignificante, indistinguibile da SB.

))))))))))))))))))))))))))0
 

Ricordo di aver fatto una cosa del genere in R-project: generare mille traiettorie di mercato casuali, mille misure ciascuna. Poi ho fatto una regressione lineare su ognuno di loro e ho ottenuto il suo R^2. Come risultato, il vettore risultante dei valori R^2 è risultato essere un valore uniformemente distribuito da zero a 0,99... Con una media di circa 0,5. Suggerisco a tutti di ripetere il mio risultato, e pensare all'essenza di ciò che stiamo contando.

s.w. Peccato che non ho R o questi codici a portata di mano, altrimenti una foto varrebbe più di mille parole...

 
Vasiliy Sokolov:
Ricordo di aver fatto una cosa del genere in R-project: ho generato mille traiettorie di mercato casuali, mille misure ciascuna. Poi ho fatto una regressione lineare su ognuno di loro e ho ottenuto il suo R^2. Come risultato, il vettore risultante dei valori R^2 è risultato essere un valore uniformemente distribuito da zero a 0,99... Con una media di circa 0,5. Invito tutti a ripetere il mio risultato, e a pensare all'essenza di ciò che stiamo contando.

И?

Qual è il senso di ciò che è scritto? Che l'analisi di regressione non dovrebbe essere usata sulla base del fatto che una delle ennesime serie PRNG generate può mostrare un grande R^2?

Quindi è necessario buttare via tutti i metodi di statistica e di previsione.

 
Vasiliy Sokolov:

Sono stupito dall'alto livello di padronanza dei metodi matematici da parte dei relatori e dalla loro completa mancanza di comprensione dei principi della loro applicabilità. Qualsiasi analisi di regressione ha correlato i dati. Se non c'è correlazione, allora la regressione non è applicabile. Se la distribuzione delle quantità in studio è diversa da quella normale, anche i metodi di statistica parametrica non sono applicabili. Il mercato non ha la proprietà della normalità. Anche il mercato come processo non dipende dal tempo. Entrambi cancellano l'idea stessa di analisi di regressione, non importa quale sia alla radice.

Il problema è che molti partecipanti, compreso te, non capiscono la regressione e usano definizioni oscure. Non c'è limite alla distribuzione degli errori in una corretta definizione dell'analisi di regressione. La cosa principale è che gli errori devono essere statisticamente indipendenti l'uno dall'altro per permettere di rappresentare l'errore di regressione totale come la somma delle funzioni dei singoli errori. Tutto il resto sono casi speciali di regressione. Per esempio, il requisito di normalità dell'errore si applica solo alla regressione RMS, cioè quando l'errore di regressione totale è rappresentato come la somma dei quadrati dei singoli errori. Questo è il metodo di regressione più semplice e porta a risolvere un sistema di equazioni lineari. Se non volete assumere la normalità degli errori, usate qualsiasi altra distribuzione. Invece della somma dei quadrati, l'errore totale sarà rappresentato dalla somma di qualche altra funzione di errori individuali.

Lasciatemi provare a spiegarlo in questo modo. Supponiamo di avere delle misurazioni y e dei dati di input x. Tracciamo y su x. I punti di y(x) formano una nuvola. Se questa nuvola è circolare con una densità uniforme di punti in tutte le direzioni, allora non importa come si torce e si avvita la distribuzione degli errori, il modello y(x) non esiste poiché y e x sono indipendenti. Se questa nuvola si estende in qualche direzione, allora possiamo costruire un modello. In questo caso abbiamo diverse scelte di modelli:

1. Costruire una lineare y_mod(x) = a + b*x o una non lineare y_mod(x) = F(x) = esempio = a0 + a1*x + a2*x^2 +... modelli.

2. Assumendo l'indipendenza degli errori di misura e[i] = y[i] - y_mod[i], assumiamo la loro normalità err_sum = SUM e[i]^2, o la non normalità err_sum = SUM G(e[i]) dove G() è una qualsiasi funzione "non quadrata", per esempio G(e) = |e|, o nel caso generale G(e) = |e|^p. Possiamo fare un po' di confusione e creare una funzione di errore in cui viene dato più peso ai valori negativi di y[i], per esempio. Qualunque sia la scelta di G(e) non influisce sulla prevedibilità di y in funzione di x. Influisce solo su come tracciamo una linea retta attraverso la nuvola y(x). Per esempio, se G(e) = e^10, allora questa linea retta sarà più vicina a valori più grandi di y.

La scelta di una lineare y_mod(x) = a + b*x o un polinomio y_mod(x) = a0 + a1*x + a2*x^2 +... dipende dalla forma della nostra nuvola allungata. In entrambi i casi possiamo usare la regressione al quadrato medio, che porterà a un sistema di equazioni lineari che si risolve rapidamente.

Ora parliamo del tempo. Se y(t) e x(t) dipendono dal tempo, cosa che accade in quasi tutti i casi di regressione poiché le misurazioni sono fatte in punti diversi nel tempo, non cambia la questione. Possiamo ancora parlare di regressione y(t) = F(x(t)). Se la funzione y(t) = F(x(t)) è dipendente dal tempo, cioè y(t) = F(x(t),t), allora la regressione statica y=F(x) sull'intero intervallo di tempo non è applicabile. Si dovrebbe usare un modello dinamico y=F(x,t).

 
Vladimir:
Secondo una ricerca di un matematico (non ricordo il suo cognome, lavora per la FINAM), la distribuzione è vicina alla normale con code allungate (ma si capisce perché). Quindi la regressione lineare, imho, domina la giornata.
 
Yuriy Asaulenko:
Secondo la ricerca di un matematico (non ricordo il suo cognome, lavora per la FINAM), la distribuzione è vicina alla normale con code allungate (ma si capisce perché). Quindi la regressione lineare, imho, è abbastanza buona.
Ho provato molte distribuzioni di errori diverse. Non ho notato alcuna differenza particolare nei risultati, ma il tempo di calcolo aumenta significativamente. Ecco perché uso la regressione root-mean-square. Ho paura di chiamarla lineare, perché la funzione y(x) può essere non lineare nella variabile x, ma lineare nei coefficienti del modello, nel qual caso la regressione ai quadrati medi dà ancora una notevole accelerazione dei calcoli. Invece di spendere tanto tempo sulle teorie di applicabilità della normalità e della regressione, è molto più importante parlare della preparazione dei dati di input come posso disegnare questa nuvola y(x) o renderla circolare con una semplice trasformazione di input x e misure y. Come tracciamo una linea retta o una parabola attraverso questa nuvola e calcoliamo gli errori di modellazione (quadrati o valori assoluti) è una questione secondaria.
 

Mi appello agli scettici.

Signore e signori, signore e signori, compagni! C'è troppo sangue nel sistema di circolazione dell'alcol.(C)

Cosa puoi modellare matematicamente su R se non hai deciso le domande concettuali per la formula di Bayes: qual è il mercato a destra della barra dello zero. Ed è un mercato? O forse un buon simulatore di gioco con un algoritmo appropriato? Quale distribuzione e funzione di verosimiglianza prendere?

Il mondo non è arrivato a una fine felice con la distribuzione normale. Bayes era morto quando è nato Gauss. Ho suggerito di prendere la distribuzione normale perché voi scettici l'avete dimostrata in modo convincente. E se voi scettici dite che non va bene, che non si applica, allora per favore proponete qualcosa che vada bene, oltre a ciò che è già proposto. La vostra funzione di verosimiglianza e la legge di distribuzione possono essere applicate alla formula di Bayes, per esempio come ho descritto a p.31 nel post dell'8 marzo sotto il bouquet. E vedere cosa succede.