L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3339
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Abandonnez l'habitude de ne lire que les gros titres : un livre n'est pas un message sur Twitter.
J'ai lu plus de la moitié du livre, je peux donc juger moi-même de son contenu ; certaines sections sont composées à 80 % de code.
Voici une liste des paquets utilisés pour écrire le code du livre.
En termes de contenu, le livre est une présentation systématique des problèmes et des solutions de ce que l'on appelle "l'apprentissage automatique". Sur ce site, c'est très utile car "l'apprentissage automatique" est généralement compris comme un simple modèle.Oui, c'est un bon livre.
Puisque vous en avez lu la moitié.
Vous pourriez probablement écrire une ligne de code.
Le plus mémorable pour vous ?
P.Z.
Je conseille à tout le monde d'étudier ce livre.
apprentissage statistique
kozul est une auto-promotion, un nouvel autocollant sur un vieux pantalon.
Où se trouve la sortie statistique après le rééchantillonnage et le cv ? Et la construction du classificateur final. Prenez ce sujet et développez-le. C'est la base du kozul.
Kozul est une publicité déloyale, un nouvel autocollant sur un vieux pantalon.
Tuls pour la création de modèles efficaces, la comparaison de modèles multiples par rapport au rééchantillonnage. La prochaine étape devrait être quelque chose comme l'inférence statistique et la construction de modèles sans biais.
C'est la norme de l'apprentissage automatique et une grande partie du livre traite de ces questions, qui datent de plusieurs années et pour lesquelles de nombreux outils ont été inventés. La troisième partie du livre s'intitule : Tools for Creating Effective Models (Outils pour la création de modèles efficaces) et présente le contenu suivant :
- 10 Le rééchantillonnage pour l'évaluation des performances
- 11 Comparaison de modèles avec rééchantillonnage
- 12 L' ajustement des modèles et les dangers du surajustement
- 13 Recherche en grille
- 14 Recherche itérative
- 15 Visualisation de plusieurs modèles
En outre, le chapitre 20"Ensembles de modèles" explique comment construire le modèle final.
Nous avons besoin d'un apprentissage statistique.
Besoin ? S'il vous plaît : CRAN Task View : Machine Learning & Statistical Learning
Ces conseils s'adressent aux débutants, vous avez besoin d'un kozul et de la capacité de penser
.
Un modèle d'ensemble, dans lequel les prédictions de plusieurs apprenants uniques sont regroupées pour former une prédiction, peut produire un modèle final très performant. Les méthodes les plus populaires pour créer des modèles d'ensemble sont le bagging(Breiman 1996a), la forêt aléatoire(Ho 1995;Breiman 2001a) et le boosting(Freund et Schapire 1997). Chacune de ces méthodes combine les prédictions de plusieurs versions du même type de modèle (par exemple, les arbres de classification). Cependant, l'une des premières méthodes de création d'ensembles est l'empilement de modèles(Wolpert 1992;Breiman 1996b).
L'empilement de modèles combine les prédictions de plusieurs modèles de n'importe quel type. Par exemple, une régression logistique, un arbre de classification et une machine à vecteurs de support peuvent être inclus dans un ensemble d'empilage.
Ce chapitre montre comment empiler des modèles prédictifs à l'aide du paquetage stacks. Nous réutiliserons les résultats du chapitre15 où plusieurs modèles ont été évalués pour prédire la résistance à la compression des mélanges de béton.
Le processus de construction d'un ensemble empilé est le suivant :
20.5 RÉSUMÉ DU CHAPITRE
Ce chapitre a montré comment combiner différents modèles dans un ensemble pour obtenir de meilleures performances prédictives. Le processus de création de l'ensemble peut éliminer automatiquement les modèles candidats pour trouver un petit sous-ensemble qui améliore les performances. Le paquetage stacks dispose d'une interface fluide pour combiner les résultats de rééchantillonnage et de réglage dans un méta-modèle.
C'est le point de vue de l'auteur sur le problème, mais ce n'est pas la seule façon de combiner plusieurs modèles - il existe des packages stacks dans R pour combiner les modèles. Par exemple, caretEnsemble : Ensembles de modèles Caret.
tout sera lent, coton.
Il semble également que le livre confonde ensemble et empilement. Bref, c'est une approche normale, mais qui peut être coton en production.
Comme vous avez récemment donné un lien vers l'article de Vladimir. Un exemple de création de CT des plus loufoques .
Quel genre de coton ?
C'est quoi ce côté cotonneux ?
Je propose de revenir au kozul, à l'apprentissage statistique et à l'IA fiable.
P.Z.
En régler les moindres détails.