L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3338

 
Maxim Dmitrievsky #:
Il est intéressant de noter que si vous pratiquez vous-même la MO depuis plus ou moins longtemps, vous parvenez à des conclusions similaires. Il s'agit d'un processus naturel d'évolution de l'approche. C'est ainsi que j'ai découvert le kozul, l'apprentissage statistique et l'IA fiable. Si vous tapez ces mots sur Google, vous trouverez des informations utiles.

Oui, il s'agit d'un processus normal - un champ d'information commun. L'histoire connaît des découvertes espacées de quelques années, et les ouvrages qui les décrivent sont publiés tardivement - après vérification, révision et, en général, traduction dans un langage compréhensible.

 
Aleksey Vyazmikin #:

La classification est en quelque sorte écrite ici. Cependant, CatBoost a une formule légèrement différente, mais c'est peut-être le coût des transformations mathématiques....

Et un lien vers une vidéo du même endroit, je crois.


Pas de code. Et à en juger par les images, les arbres suivants ne sont pas formés exactement à 0 et 1, avec des valeurs d'erreur abs. comme 0,21, 1,08, -0,47 ..... comme dans la régression.
 
Aleksey Vyazmikin #:

Vous pouvez visionner une vidéo sur le sujet

C'est un peu n'importe quoi. La perte de logarithme augmente lorsque l'on retire de mauvais échantillons, elle ne diminue pas. Si vous retirez de bons échantillons, elle augmente également.

Si vous ne le faites pas vous-même, personne ne le fera pour vous.
 
Tidy Modeling with R
Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
СанСаныч Фоменко #:

Un bon livre avec beaucoup de code. Je donne le lien. Malheureusement, la taille du fichier .PDF est trop importante

//---------------------------------------


Perdon .a parcouru le sujet1 Logicieldemodélisation. C'était suffisant.

Je n'ai pas trouvé de grandes quantités de code. Je pense que vous avez fait une erreur. Vous avez été habilement trompé.

Ce n'est qu'un beau livre, avec beaucoup de mots intelligents.

P.Z.

Copié sur d'autres livres.

Sans aucun système.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon a parcouru le thème1 Logicieldemodélisation. C'était suffisant.

Je n'ai pas trouvé de grandes quantités de code. Je pense que vous avez fait une erreur. Vous avez été habilement trompé.

Ce n'est qu'un beau livre avec beaucoup de mots intelligents.

P.Z.

Copié sur d'autres livres.

Sans aucun système.

Perdez l'habitude de ne lire que les titres : un livre n'est pas un post Twitter.

J'ai lu plus de la moitié du livre, je peux donc juger du contenu par moi-même ; certaines sections sont composées à 80 % de code.

Voici une liste des paquets qui ont été utilisés pour écrire le code dans le livre.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
En termes de contenu, le livre est une présentation systématique des problèmes et des solutions de ce que l'on appelle "l'apprentissage automatique", sur ce site c'est très utile, car "l'apprentissage automatique" est généralement compris comme un simple modèle.
 
Lorarica #:

Perdon a parcouru le thème1 Logicieldemodélisation. C'était suffisant.

Je n'ai pas trouvé de grandes quantités de code. Je pense que vous avez fait une erreur. Vous avez été habilement trompé.

Ce n'est qu'un beau livre avec beaucoup de mots intelligents.

P.Z.

Copié sur d'autres livres.

Sans aucun système.

Dans la section des logiciels, elle recherchait beaucoup de code...))))

Et beaucoup de "mots intelligents" et d'images est un inconvénient pour elle. ..))))

Clowness
 
СанСаныч Фоменко #:
C'est un grand livre, mais il n'y a personne pour le lire.
 
Où se trouve la sortie stat après rééchantillonnage et cv ? Et la construction du classificateur final. Prenez ce sujet et développez-le. C'est la base du kozul.

Tuls pour la création de modèles efficaces, la comparaison de modèles multiples et le rééchantillonnage. Ensuite, il devrait y avoir quelque chose comme l'inférence statistique et la construction de modèles non biaisés.

Nous avons besoin de l'inférence statistique. Elle donne des résultats comparés au même RL et à d'autres méthodes.

Cherchez dans R : apprentissage statistique, apprentissage faiblement supervisé, apprentissage par augmentation fonctionnelle.
 
Il existe une librairie snorkel en python. Il y a quelque part sur leur site une comparaison entre l'apprentissage avec un professeur et l'apprentissage avec un contrôle faible. Cette dernière est plus performante que la première. C'est également utile de le savoir.