L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3339

 
СанСаныч Фоменко #:

Abandonnez l'habitude de ne lire que les gros titres : un livre n'est pas un message sur Twitter.

J'ai lu plus de la moitié du livre, je peux donc juger moi-même de son contenu ; certaines sections sont composées à 80 % de code.

Voici une liste des paquets utilisés pour écrire le code du livre.

En termes de contenu, le livre est une présentation systématique des problèmes et des solutions de ce que l'on appelle "l'apprentissage automatique". Sur ce site, c'est très utile car "l'apprentissage automatique" est généralement compris comme un simple modèle.

Oui, c'est un bon livre.

Puisque vous en avez lu la moitié.

Vous pourriez probablement écrire une ligne de code.

Le plus mémorable pour vous ?

P.Z.

Je conseille à tout le monde d'étudier ce livre.

 
Maxim Dmitrievsky #:
apprentissage statistique

kozul est une auto-promotion, un nouvel autocollant sur un vieux pantalon.

Maxim Dmitrievsky #:
Où se trouve la sortie statistique après le rééchantillonnage et le cv ? Et la construction du classificateur final. Prenez ce sujet et développez-le. C'est la base du kozul.

Tuls pour la création de modèles efficaces, la comparaison de plusieurs modèles par rapport au rééchantillonnage. Le prochain sujet devrait être quelque chose comme l'inférence statistique et la construction de modèles sans biais.

Nous avons besoin de l'inférence statistique. Elle donne des résultats en comparaison avec le même RL et d'autres méthodes.

Recherche dans R : apprentissage statistique, apprentissage faiblement supervisé, apprentissage par augmentation fonctionnelle.

Kozul est une publicité déloyale, un nouvel autocollant sur un vieux pantalon.

Tuls pour la création de modèles efficaces, la comparaison de modèles multiples par rapport au rééchantillonnage. La prochaine étape devrait être quelque chose comme l'inférence statistique et la construction de modèles sans biais.

C'est la norme de l'apprentissage automatique et une grande partie du livre traite de ces questions, qui datent de plusieurs années et pour lesquelles de nombreux outils ont été inventés. La troisième partie du livre s'intitule : Tools for Creating Effective Models (Outils pour la création de modèles efficaces) et présente le contenu suivant :

- 10 Le rééchantillonnage pour l'évaluation des performances

- 11 Comparaison de modèles avec rééchantillonnage

- 12 L' ajustement des modèles et les dangers du surajustement

- 13 Recherche en grille

- 14 Recherche itérative

- 15 Visualisation de plusieurs modèles

En outre, le chapitre 20"Ensembles de modèles" explique comment construire le modèle final.

Nous avons besoin d'un apprentissage statistique.

Besoin ? S'il vous plaît : CRAN Task View : Machine Learning & Statistical Learning

10 Resampling for Evaluating Performance | Tidy Modeling with R
10 Resampling for Evaluating Performance | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Les ensembles sont déjà plus proches de kozul, au moins vous pouvez égaliser le biais, avec une variance accrue.

Mais vous aurez toujours beaucoup de bruit dans les prédictions (parce que la variance est plus grande), qu'allez-vous en faire ? En d'autres termes, le TS, même sur l'entraînement, n'aura, disons, que 60 % de transactions rentables. Et la même chose ou moins sur le test.

Oui, vous allez commencer à jalonner pour corriger ce bruit... eh bien, essayez.
 
Maxim Dmitrievsky #:
Ces conseils s'adressent aux débutants, vous avez besoin d'un kozul et de la capacité de penser
.

Ici, allez au bureau des statistiques, ne vous bousculez pas à l'accueil.

Puis-je obtenir une thèse sur la façon de construire le modèle final, conformément à ce livre ? Je suis sur mon téléphone, je ne peux pas le regarder pour l'instant.

Un modèle d'ensemble, dans lequel les prédictions de plusieurs apprenants uniques sont regroupées pour former une prédiction, peut produire un modèle final très performant. Les méthodes les plus populaires pour créer des modèles d'ensemble sont le bagging(Breiman 1996a), la forêt aléatoire(Ho 1995;Breiman 2001a) et le boosting(Freund et Schapire 1997). Chacune de ces méthodes combine les prédictions de plusieurs versions du même type de modèle (par exemple, les arbres de classification). Cependant, l'une des premières méthodes de création d'ensembles est l'empilement de modèles(Wolpert 1992;Breiman 1996b).

L'empilement de modèles combine les prédictions de plusieurs modèles de n'importe quel type. Par exemple, une régression logistique, un arbre de classification et une machine à vecteurs de support peuvent être inclus dans un ensemble d'empilage.

Ce chapitre montre comment empiler des modèles prédictifs à l'aide du paquetage stacks. Nous réutiliserons les résultats du chapitre15 plusieurs modèles ont été évalués pour prédire la résistance à la compression des mélanges de béton.

Le processus de construction d'un ensemble empilé est le suivant :

  1. Assembler l'ensemble d'apprentissage des prédictions retenues (produites par rééchantillonnage).
  2. Créer un modèle pour mélanger ces prédictions.
  3. Pour chaque membre de l'ensemble, ajuster le modèle sur l'ensemble d'apprentissage original.


20.5 RÉSUMÉ DU CHAPITRE

Ce chapitre a montré comment combiner différents modèles dans un ensemble pour obtenir de meilleures performances prédictives. Le processus de création de l'ensemble peut éliminer automatiquement les modèles candidats pour trouver un petit sous-ensemble qui améliore les performances. Le paquetage stacks dispose d'une interface fluide pour combiner les résultats de rééchantillonnage et de réglage dans un méta-modèle.



C'est le point de vue de l'auteur sur le problème, mais ce n'est pas la seule façon de combiner plusieurs modèles - il existe des packages stacks dans R pour combiner les modèles. Par exemple, caretEnsemble : Ensembles de modèles Caret.

20 Ensembles of Models | Tidy Modeling with R
20 Ensembles of Models | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Nous avons besoin d'un ensemble et d'un empilement, c'est-à-dire d'un regroupement des classificateurs. L'ensemble supprime le biais et l'empilement supprime la variance. En théorie, cela peut fonctionner, mais en pratique, je ne l'ai pas fait. Et il y aura beaucoup de modèles, ce qui est désagréable en production.

En effet, une fois en production, vous vous retrouverez avec un grand nombre de modèles. Et vous n'en voulez qu'un ou deux.

De plus, cela ne résout pas le problème de ne pas avoir toujours besoin d'être sur le marché. Le modèle sera en permanence sur le marché. À cause de ces nuances, disons, le cycle complet du développement à la mise en œuvre s'interrompt.
Le testeur sera lent à tester, tout sera lent, comme du coton.
 
Il semble également y avoir une confusion entre l'ensemble et l'empilement dans le livre. En bref, il s'agit d'une approche normale, mais qui peut s'avérer farfelue en production. Et elle ne nécessite pas une montagne de paquets.

Oh, elle ne résout pas non plus le problème de balisage le plus important.
 
Comme le lien récent vers l'article de Vladimir. Il s'agit d'un exemple de la création de CT la plus farfelue. Lorsque vous avez fait beaucoup de travail, de transformations, et que le résultat est un modèle que vous pouvez obtenir par force brute aléatoire sans rien faire. C'est intéressant, mais improductif.
 
Maxim Dmitrievsky #:
tout sera lent, coton.
Maxim Dmitrievsky #:
Il semble également que le livre confonde ensemble et empilement. Bref, c'est une approche normale, mais qui peut être coton en production.
Maxim Dmitrievsky #:
Comme vous avez récemment donné un lien vers l'article de Vladimir. Un exemple de création de CT des plus loufoques .

Quel genre de coton ?

 
Forester #:

C'est quoi ce côté cotonneux ?

Un synonyme de lent
 

Je propose de revenir au kozul, à l'apprentissage statistique et à l'IA fiable.

P.Z.

En régler les moindres détails.