L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3338

 
Maxim Dmitrievsky #:
È interessante notare che se si pratica il MO da più o meno tempo, si giunge a conclusioni simili. Un processo naturale di evoluzione dell'approccio. È così che sono arrivato a kozul, all'apprendimento statistico e all'IA affidabile. Se cercate su Google queste parole, potete trovare materiale utile.

Sì, è un processo normale - un campo di informazione comune. La storia conosce scoperte a distanza di un paio d'anni l'una dall'altra, e le opere che le descrivono vengono pubblicate in ritardo - dopo controlli, revisioni e, in generale, la traduzione in un linguaggio comprensibile.

 
Aleksey Vyazmikin #:

La classificazione è più o meno scritta qui. Tuttavia, CatBoost ha una formula leggermente diversa, ma forse è il costo delle trasformazioni matematiche....

E un link a un video dallo stesso posto, credo.


Nessun codice. E a giudicare dalle immagini, gli alberi successivi sono addestrati non esattamente 0 e 1, valori di errore ass. come 0,21, 1,08, -0,47 ..... come nella regressione.
 
Aleksey Vyazmikin #:

È possibile guardare un video sull'argomento

È un po' un pasticcio. Il logloss cresce quando si rimuovono i cattivi campioni, non diminuisce. Se si rimuovono i campioni buoni, cresce anche.

Se non lo fate voi, nessuno lo farà per voi.
 
Tidy Modeling with R
Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
СанСаныч Фоменко #:

Un buon libro con molto codice. Fornisco il link. Purtroppo il file .PDF è troppo grande

//---------------------------------------


Perdon .Ho affrontato l'argomento1 Softwareper lamodellazione. Era sufficiente.

Non ho trovato grandi quantità di codice. Credo che tu abbia commesso un errore. Siete stati abilmente ingannati.

È solo questo, un bel libro, con molte parole intelligenti.

P.Z.

Copiato da altri libri.

Senza alcun sistema.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon .Ho affrontato l'argomento1 Softwareper lamodellazione. È stato sufficiente.

Non ho trovato grandi quantità di codice. Credo che tu abbia commesso un errore. Sei stato abilmente ingannato.

È solo un bel libro con molte parole intelligenti.

P.Z.

Copiato da altri libri.

Senza alcun sistema.

Toglietevi l'abitudine di leggere solo i titoli: un libro non è un post su Twitter.

Ho letto più della metà del libro, quindi posso giudicare da solo il contenuto; ci sono sezioni che sono per l'80% codice.

Ecco un elenco dei pacchetti utilizzati per scrivere il codice del libro.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
Per quanto riguarda il contenuto, il libro è una presentazione sistematica dei problemi e delle soluzioni di quello che viene chiamato "apprendimento automatico"; in questo sito è molto utile, dato che per "apprendimento automatico" si intende di solito solo un modello.
 
Lorarica #:

Perdon .Ho affrontato l'argomento1 Softwareper lamodellazione. È stato sufficiente.

Non ho trovato grandi quantità di codice. Credo che tu abbia commesso un errore. Sei stato abilmente ingannato.

È solo un bel libro con molte parole intelligenti.

P.Z.

Copiato da altri libri.

Senza alcun sistema.

Nella sezione software cercava molto codice...))))

E molte "parole intelligenti" e immagini sono uno svantaggio per lei. ..))))

La pagliacciata
 
СанСаныч Фоменко #:
È un grande libro, ma non c'è nessuno che lo legga.
 
Dove si trova l'output statistico dopo il ricampionamento e la cv? E la costruzione del classificatore finale. Prendete questo argomento e sviluppatelo. È la base di kozul.

TULS per la creazione di modelli efficaci, per il confronto di modelli multipli e per il ricampionamento. Poi ci dovrebbe essere qualcosa come l'inferenza statistica e la costruzione di modelli imparziali.

Abbiamo bisogno dell'inferenza statistica. Fornisce alcuni risultati rispetto allo stesso RL e ad altri metodi.

Cercate in R: statistical learning, weak supervised learning, functional augmentation learning.
 
Esiste una libreria snorkel in python. Sul loro sito c'è un confronto tra l'apprendimento con un insegnante e quello con un controllo debole. Che il secondo supera il primo. Anche questo è utile da sapere.