L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3339

 
СанСаныч Фоменко #:

Abbandonate l'abitudine di leggere solo i titoli: un libro non è un post su Twitter.

Ho letto più della metà del libro, quindi posso giudicare da solo il contenuto; ci sono sezioni che sono per l'80% codice.

Ecco un elenco dei pacchetti utilizzati per scrivere il codice del libro.

In termini di contenuto, il libro è una presentazione sistematica dei problemi e delle soluzioni di quello che viene chiamato "machine learning", in questo sito è molto utile in quanto il "machine learning" è solitamente inteso come un semplice modello.

Sì, è un buon libro.

Visto che ne hai letto metà.

Probabilmente potresti scrivere una riga di codice.

Il più memorabile per te?

P.Z.

Consiglio a tutti di studiare il libro.

 
Maxim Dmitrievsky #:
apprendimento statistico

kozul è autopromozione, un nuovo adesivo su vecchi pantaloni.

Maxim Dmitrievsky #:
Dove si trova l'output statistico dopo il ricampionamento e la cv? E la costruzione del classificatore finale. Prendete questo argomento e sviluppatelo. Questa è la base di Kozul.

Tuls per la creazione di modelli efficienti, il confronto di modelli multipli e il ricampionamento. Il prossimo argomento dovrebbe essere qualcosa come l'inferenza statistica e la costruzione di modelli imparziali.

Abbiamo bisogno dell'inferenza statistica. Fornisce alcuni risultati rispetto allo stesso RL e ad altri metodi.

Ricerca in R: apprendimento statistico, apprendimento supervisionato debole, apprendimento ad incremento funzionale.

Kozul è pubblicità sleale, un nuovo adesivo su vecchi pantaloni.

Tuls per creare modelli efficaci, confrontare modelli multipli rispetto al ricampionamento. Il prossimo dovrebbe essere qualcosa come l'inferenza statistica e la costruzione di modelli imparziali.

Questo è lo standard dell'apprendimento automatico e gran parte del libro tratta proprio questi problemi, che sono vecchi di molti anni e per i quali sono stati inventati molti strumenti. La terza parte del libro si intitola: Strumenti per la creazione di modelli efficaci, con i seguenti contenuti:

- 10 Il ricampionamento per la valutazione delle prestazioni

- 11 Confronto tra modelli con il ricampionamento

- 12 La messa a punto del modello e i pericoli dell'overfitting

- 13 Ricerca a griglia

- 14 Ricerca iterativa

- 15 Visualizzazione di più modelli

Inoltre, il capitolo 20"Ensemble di modelli" spiega come costruire il modello finale.

Abbiamo bisogno di conoscenze statistiche.

Per favore: CRAN Task View: Machine Learning & Statistical Learning

10 Resampling for Evaluating Performance | Tidy Modeling with R
10 Resampling for Evaluating Performance | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Gli ensemble sono già più vicini a kozul, almeno si può pareggiare il bias, con un aumento della varianza.

Ma avrete ancora molto rumore nelle previsioni (perché la varianza è maggiore), cosa ne farete? Cioè, il TS anche sulla linea avrà, ad esempio, solo il 60% di operazioni redditizie. E lo stesso o meno nel test.

Si inizierà a puntare per correggere questo rumore... beh, provateci.
 
Maxim Dmitrievsky #:
Questo è un consiglio per i principianti, è necessario un kozul e la capacità di pensare

Ecco, andate all'ufficio statistica, non affollate la reception.

Posso avere una tesi su come costruire il modello finale, secondo questo libro? Sono al telefono, non posso guardarla ora.

Un modello d'insieme, in cui le previsioni di più apprendenti singoli vengono aggregate per ottenere una previsione, può produrre un modello finale ad alte prestazioni. I metodi più diffusi per creare modelli d'insieme sono il bagging(Breiman 1996a), la foresta casuale(Ho 1995;Breiman 2001a) e il boosting(Freund e Schapire 1997). Ognuno di questi metodi combina le previsioni di più versioni dello stesso tipo di modello (ad esempio, gli alberi di classificazione). Tuttavia, uno dei primi metodi per la creazione di ensemble è ilmodel stacking(Wolpert 1992;Breiman 1996b).

Il model stacking combina le previsioni di più modelli di qualsiasi tipo. Ad esempio, una regressione logistica, un albero di classificazione e una macchina vettoriale di supporto possono essere inclusi in un ensemble di stacking.

Questo capitolo mostra come impilare i modelli predittivi utilizzando il pacchetto stacks. Riutilizzeremo i risultati del capitolo15, in cui sono stati valutati più modelli per prevedere la resistenza alla compressione delle miscele di calcestruzzo.

Il processo di costruzione di un ensemble impilato è il seguente:

  1. Assemblare l'insieme di addestramento delle previsioni hold-out (prodotte tramite ricampionamento).
  2. Creare un modello per fondere queste previsioni.
  3. Per ogni membro dell'ensemble, si adatta il modello all'insieme di addestramento originale.


20.5 RIASSUNTO DEL CAPITOLO

Questo capitolo ha dimostrato come combinare diversi modelli in un ensemble per ottenere migliori prestazioni predittive. Il processo di creazione dell'ensemble può eliminare automaticamente i modelli candidati per trovare un piccolo sottoinsieme che migliori le prestazioni. Il pacchetto stacks ha un'interfaccia fluida per combinare i risultati del ricampionamento e della messa a punto in un meta-modello.



Questo è il punto di vista dell'autore sul problema, ma non è l'unico modo per combinare più modelli: esistono pacchetti stacks in R per combinare i modelli. Per esempio, caretEnsemble: Ensemble di modelli di Caret

20 Ensembles of Models | Tidy Modeling with R
20 Ensembles of Models | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Abbiamo bisogno di un ensemble e di uno stacking, cioè di un bounce sui classificatori. L'ensemble elimina le distorsioni e lo stacking elimina la varianza. In teoria può funzionare, in pratica non l'ho fatto. E ci saranno molti modelli, il che è spiacevole in produzione.

Perché quando si arriva alla produzione, ci si ritrova con molti modelli. E tu ne vuoi uno o due.

Inoltre non risolve il problema che non è sempre necessario essere sul mercato. Il modello sarà sempre in produzione. A causa di queste, diciamo, sfumature, l'intero ciclo dallo sviluppo all'implementazione si rompe.
Il collaudatore sarà lento a testare, tutto sarà lento, ovattato.
 
Nel libro sembra esserci anche una confusione tra ensemble e stacking. In breve, è un approccio normale, ma può essere stravagante in produzione. E non richiede una montagna di pacchetti.

Inoltre non risolve il problema più importante del markup.
 
Come il recente link all'articolo di Vladimir. È un esempio della creazione più stravagante di TC. Quando si è fatto un sacco di lavoro, trasformazioni, e l'output è un modello che si può ottenere con la forza bruta senza fare nulla. È interessante, ma improduttivo.
 
Maxim Dmitrievsky #:
tutto sarà lento, cotone.
Maxim Dmitrievsky #:
Sembra inoltre che il libro confonda l'assemblaggio e l'impilamento. In breve, si tratta di un approccio normale, ma che può essere di cotone nella produzione.
Maxim Dmitrievsky #:
Come avete recentemente dato un link all'articolo di Vladimir. Un esempio della creazione TC più stravagante .

Che tipo di cotonatura?

 
Forester #:

Che cos'è questa cotonosità?

Un sinonimo di lento
 

Suggerisco di tornare a kozul, all'apprendimento statistico e all'IA affidabile.

P.Z.

Scoprire i dettagli più fini.