Regressione bayesiana - Qualcuno ha fatto un EA usando questo algoritmo? - pagina 39

 
-Aleks-:
È a questo che devi pensare - perché i dati siano simili - dovresti prendere un modello, secondo me, piuttosto che una semplice finestra di n barre.
Sono assolutamente d'accordo. Quante barre prendere per l'analisi è il tallone d'Achille non solo delle regressioni discusse. Anche se voglio calcolare non la regressione, ma le probabilità usando la formula di Bayes. Per il momento, prenderò stupidamente l'attuale finestra di n barre. E nella fase di test e prove, per la funzione di verosimiglianza e le probabilità a priori, prenderò i periodi da picco di volatilità a picco di volatilità. Questo è di solito l'intervallo tra eventi di notizie importanti.
 
Alexey Burnakov:
Recentemente stavo discutendo la storia e lo sviluppo della regressione lineare con dei colleghi. Per farla breve, inizialmente c'erano pochi dati e pochi predittori. Regressione lineare ordinaria gestita con alcune ipotesi. Poi con lo sviluppo della tecnologia dell'informazione la quantità di dati è aumentata e il numero di predittori può facilmente superare le decine di migliaia. In queste condizioni la regressione lineare ordinaria non sarà d'aiuto - sovra-apprendere. Quindi sono apparse versioni regolarizzate, versioni robuste ai requisiti delle distribuzioni, ecc.
Questo è parzialmente corretto. La regolarizzazione L2 non aiuta a ridurre il numero di predittori nel modello. Il neurocomputing ha inizialmente utilizzato la regola di apprendimento di Hebb, che ha portato alla crescita illimitata dei pesi delle reti neurali. Poi, rendendosi conto che il cervello ha risorse limitate per crescere e mantenere i pesi delle subunità neurali, la regolarizzazione L2 è stata aggiunta negli anni 60 e 80. Questo ha permesso di limitare i pesi, ma c'era ancora un sacco di pesi trascurabili. Questo non è il caso del cervello. Nel cervello, i neuroni non sono collegati a tutti gli altri neuroni, anche se con pesi trascurabili. C'è solo un numero limitato di connessioni. Poi, negli anni 2000, sono state introdotte le regolarizzazioni L1 e L0 che hanno permesso connessioni dimesse. Moltissimi scienziati hanno cominciato a usare la programmazione lineare con regolarizzazione L1 per tutto, dalla codifica delle immagini ai modelli neurali, che descrivevano abbastanza bene i processi cerebrali. Gli economisti sono ancora in ritardo rispetto al resto delle scienze a causa della loro "arroganza" (tutto è già stato inventato prima di noi) o semplicemente della loro scarsa comprensione della matematica.
 
Vladimir:
È parzialmente corretto. La regolarizzazione L2 non aiuta a ridurre il numero di predittori nel modello. Nel neurocalcolo all'inizio si usava la regola di apprendimento di Hebb che portava alla crescita illimitata dei pesi delle reti neurali. Poi, rendendosi conto che il cervello ha risorse limitate per crescere e mantenere i pesi delle subunità neurali, la regolarizzazione L2 è stata aggiunta negli anni 60 e 80. Questo ha permesso di limitare i pesi, ma c'era ancora un sacco di pesi trascurabili. Questo non è il caso del cervello. Nel cervello, i neuroni non sono collegati a tutti gli altri neuroni, anche se con pesi trascurabili. C'è solo un numero limitato di connessioni. Poi, negli anni 2000, sono state introdotte le regolarizzazioni L1 e L0 che hanno permesso connessioni dimesse. Moltissimi scienziati hanno cominciato a usare la programmazione lineare con regolarizzazione L1 per tutto, dalla codifica delle immagini ai modelli neurali, che descrivevano abbastanza bene i processi cerebrali. Gli economisti sono ancora indietro rispetto al resto delle scienze a causa della loro "arroganza" (tutto è già stato inventato prima di noi) o semplicemente una scarsa comprensione della matematica.
Potrei scambiare L2 solo per limitare i pesi. E si tratta di regressione di cresta (Tikhonov). https://www.quora.com/What-is-the-difference-between-L1-and-L2-regularization

Ma a volte L1 diventa preferibile anche a causa dell'aggiunta della penalizzazione degli errori assoluti e dei non quadrati. i quadrati degli errori possono dare code troppo lunghe, cioè, nel caso di citazioni che hanno code pesanti, l'aggiunta dei quadrati dei residui può avere un cattivo effetto sulla qualità del modello. Beh, sono solo chiacchiere.
 
Vladimir:
Gli economisti sono ancora in ritardo rispetto al resto delle scienze a causa della loro "arroganza" (tutto è già stato inventato prima di noi) o semplicemente una scarsa comprensione della matematica.
Sì. Ho parlato personalmente con un manager (swd manager) che lavorava per un agente di cambio. Ha detto che gli incrementi di prezzo sono considerati normali e questo è tutto. Si usano i metodi e le idee sbagliate del secolo scorso. Gli ho detto che lì non c'è normalità. Non passa neanche un test. Non sa nemmeno di cosa stiamo parlando. Ma non è un matematico hardcore, è un manager dello sviluppo.
 
Ho il sospetto che la linea dell'indicatore (se non si va troppo in profondità, la stessa mashka, per esempio) sia più o meno una linea di regressione. Almeno, è un'approssimazione approssimativa
 
Alexey Burnakov:
Sì. Ho parlato personalmente con un manager (swd manager) che lavorava per un agente di cambio. Ha detto che gli aumenti di prezzo sono considerati normali e basta. Si usano i metodi e le idee sbagliate del secolo scorso. Gli ho detto che lì non c'è normalità. Non passa neanche un test. Non sa nemmeno di cosa stiamo parlando. Ma non è un matematico hardcore, è un manager dello sviluppo.
E se non c'è normalità? Anche qualche responsabile dello sviluppo ne scrive, Vladimir ne ha scritto qui. Come si fa a usare la regressione se non se ne comprendono i principi o il significato? Vai in giro come uno zombie nella notte buia con questa normalità/normalità. Può essere una distribuzione in cubi, quadrati, zigzag o in forma di immagine di Repin. La capacità di prevedere la regressione non dipende da questo.
 
Dmitry Fedoseev:
E se non c'è normalità? Anche il capo di un certo sviluppo ne scrive, Vladimir ne ha scritto qui. Come si fa a usare la regressione se non se ne comprendono affatto i principi o il significato? Vai in giro come uno zombie nella notte buia con questa normalità/normalità. Può essere una distribuzione in cubi, quadrati, zigzag o in forma di immagine di Repin. La capacità di prevedere la regressione non dipende da questo.
Ecco perché lo fa. È più facile pensare di notte. Anche i dirigenti lo sanno. )
 
Yuri Evseenkov:
Totalmente d'accordo. Quante barre analizzare è il tallone d'Achille non solo delle regressioni in discussione. Anche se non voglio calcolare la regressione, ma le probabilità usando la formula di Bayes. Per il momento, prenderò stupidamente l'attuale finestra di n barre. E nella fase di test e prove, per la funzione di verosimiglianza e le probabilità a priori, prenderò i periodi da picco di volatilità a picco di volatilità. Questo è di solito l'intervallo tra eventi di notizie importanti.

E la probabilità esprimerà cosa, la previsione per la prossima barra, o il vettore di movimento delle prossime barre?

 
In generale, dovremmo prima definire lo scopo della regressione: trovare una curva che descriva più accuratamente la fetta di mercato selezionata, o prevedere la posizione futura del prezzo? Come può la qualità dell'approssimazione determinare la precisione della previsione?
 
Vasiliy Sokolov:
Prima di tutto, dovremmo decidere lo scopo della costruzione della regressione: scegliere una curva che descriva più accuratamente il blocco di mercato selezionato, o prevedere la posizione futura del prezzo? Come può la qualità dell'approssimazione determinare la precisione della previsione?

E come si può costruire una curva che sia la più accurata possibile nel descrivere il passato e la più accurata possibile nel prevedere il futuro?

O come si può prevedere il futuro senza analizzare il passato?

L'approssimazione è l'analisi del passato