Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3338

 
Maxim Dmitrievsky #:
É interessante notar que, se você estiver fazendo MO há mais ou menos tempo, chegará a conclusões semelhantes. É um processo natural de evolução da abordagem. Foi assim que cheguei ao kozul, ao aprendizado estatístico e à IA confiável. Se você pesquisar essas palavras no Google, poderá encontrar coisas úteis.

Sim, é um processo normal - um campo de informações comum. A história conhece descobertas com alguns anos de diferença, e os trabalhos que as descrevem são publicados tardiamente - após verificações, revisões e, em geral, tradução para uma linguagem compreensível.

 
Aleksey Vyazmikin #:

A classificação está mais ou menos escrita aqui. No entanto, o CatBoost tem uma fórmula ligeiramente diferente, mas talvez seja o custo das transformações matemáticas....

E um link para um vídeo do mesmo lugar, eu acho.


Sem código. E, a julgar pelas imagens, as árvores subsequentes são treinadas não exatamente com valores de erro 0 e 1, abs. como 0,21, 1,08, -0,47 ..... como na regressão.
 
Aleksey Vyazmikin #:

Você pode assistir a um vídeo sobre o assunto

É um pouco confuso. O logloss aumenta ao remover amostras ruins, não diminui. Se você remover amostras boas, ele também aumenta.

Se você não fizer isso sozinho, ninguém o fará por você.
 
Tidy Modeling with R
Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
СанСаныч Фоменко #:

Um bom livro com muito código. Eu forneci o link. Infelizmente, o tamanho do arquivo .PDF é muito grande

//---------------------------------------


Perdon: Analisei o tópico1 Softwareparamodelagem. Foi suficiente.

Não encontrei grandes quantidades de código. Acho que você cometeu um erro. Você foi enganado de forma inteligente.

É apenas isso, um belo livro, com muitas palavras inteligentes.

P.Z.

Copiado de outros livros.

Sem nenhum sistema.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon: Analisei o tópico1 Softwareparamodelagem. Isso foi suficiente.

Não encontrei grandes quantidades de código. Acho que você cometeu um erro. Você foi enganado de forma inteligente.

É apenas um livro bonito com muitas palavras inteligentes.

P.Z.

Copiado de outros livros.

Sem nenhum sistema.

Deixe de lado o hábito de ler apenas os títulos: um livro não é uma postagem no Twitter.

Eu li mais da metade do livro, então posso julgar o conteúdo por mim mesmo; há seções que são 80% código.

Aqui está uma lista de pacotes que foram usados para escrever o código no livro.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
Em termos de conteúdo, o livro é uma apresentação sistemática dos problemas e das soluções para o que é chamado de "aprendizado de máquina", o que é muito útil neste site, pois o "aprendizado de máquina" geralmente é entendido apenas como um modelo.
 
Lorarica #:

Perdon: Analisei o tópico1 Softwareparamodelagem. Isso foi suficiente.

Não encontrei grandes quantidades de código. Acho que você cometeu um erro. Você foi enganado de forma inteligente.

É apenas um livro bonito com muitas palavras inteligentes.

P.Z.

Copiado de outros livros.

Sem nenhum sistema.

Na seção de software, ela estava procurando por muitos códigos... ))))

E muitas "palavras inteligentes" e imagens são uma desvantagem para ela. ...))))

Palhaçada
 
СанСаныч Фоменко #:
É um ótimo livro, mas não há ninguém aqui para lê-lo
 
Onde está o resultado estatístico após a reamostragem e o cv? E a construção do classificador final. Pegue esse tópico e o desenvolva. É a base do kozul.

Tuls para a criação de modelos eficazes, comparação de vários modelos e reamostragem. Depois, deve haver algo como inferência estatística e construção de modelos imparciais.

Precisamos de inferência estatística. Ela fornece alguns resultados em comparação com a mesma RL e outros métodos.

Procure no R: aprendizado estatístico, aprendizado supervisionado fraco, aprendizado de aumento funcional.
 
Há uma biblioteca snorkel em python. Em algum lugar do site, há uma comparação entre o aprendizado com um professor e o aprendizado com controle fraco. O último supera o primeiro. Também é útil saber isso.