L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1704
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Une erreur n'est pas seulement une erreur. Une petite erreur peut avoir un impact important.
Et on ne demande pas à NS de saisir des données répétitives. On lui demande d'identifier des modèles cachés afin d'obtenir le bon résultat en l'absence de données répétitives. Comprendre la généralisation. Lorsque nous avons un domaine fini de données, mais que nous ne disposons que de 50% de ces données. Le réseau apprend et l'identification d'un modèle peut construire le reste des données qu'il n'a pas vues. C'est comme la reconstruction d'une vieille séquence vidéo avec des pixels manquants que le réseau reconstruit lui-même.
C'est une approche statistique ! Par exemple, j'ai 20 photos de triangles différents. Sur le 21ème, il manque l'hypoténuse dans le triangle. Je peux facilement déterminer qu'il s'agit d'un triangle non dessiné sur la base des statistiques recueillies - chaque photo contient un triangle. En d'autres termes, une erreur dans le dessin du triangle n'est pas critique pour moi, car je dispose déjà de statistiques en général. Ce principe ne fonctionne-t-il pas avec les NS ?
Enfin, en gros, sauf si l'on compte que dans les 21 photos, il n'y a qu'un coin dessiné et qu'il n'y est pas question de triangle...
Pour comprendre l'essence et la base théorique des réseaux neuronaux, la connaissance de la théorie de Kolmogorov, Arnold et Hecht-Nielson est essentielle.
Pour la pratique, cette connaissance n'est pas particulièrement nécessaire, mais une compréhension générale de celle-ci ne ferait pas de mal.
Je vous ai donné un lien pour voir les splits à partir des données du JOT. C'est là que le modèle complet est téléchargé dans un fichier. Ensuite, les splits sont lus à partir de celui-ci.
Les arbres déjà asymétriques peuvent sûrement être déchargés ?
Dans le boosting, par définition, tous les arbres sont importants. Chaque arbre successif affine tous les précédents. Si vous éliminez un arbre au milieu, tous les arbres suivants fonctionneront avec des données erronées - ils doivent être réentraînés, sans tenir compte de l'arbre éliminé. Dans ce cas, le premier arbre sera une réplique très fidèle de celui qui a été écarté.
Non, ce n'est pas tout à fait vrai. Lorsque le modèle est prêt, on y trouve un tas de feuilles d'arbre, ce qui donne une probabilité proche de 0,5 - ce qui, par essence, n'est rien.
Oui. Les feuilles individuelles du binning sont incomplètes, car elles sont complétées par les réponses des feuilles d'autres arbres de raffinage. Et seul le cumul des réponses, par exemple 100 arbres, donne la bonne réponse.
Essayer d'obtenir quelque chose de fiable à partir d'une seule feuille du modèle de dynamisation est impossible.
Dans le boosting, les 100 réponses de 100 arbres sont additionnées, chacune donnant par exemple 0,01 au total = 1. La valeur de 1 feuille = 0,01 - que voulez-vous en tirer ? Il n'y a rien dedans. Seule la somme de 100 feuilles donnera la bonne réponse.
En effet, là le 1er arbre est fort et donne par exemple 0,7, les autres ramènent la somme plus proche de 1. Si l'on ne considère que les feuilles du premier arbre séparément, mais je pense qu'elles sont plus faibles que n'importe quel arbre de la forêt aléatoire, en raison d'une profondeur moindre.
Dans une forêt aléatoire, on trouve la moyenne, par exemple chaque feuille de 100 arbres = 1, la moyenne aussi = 1. Dans cette forêt, les renards sont complets, mais avec des écarts aléatoires. Mais une foule de 100 réponses, donne la moyenne comme une réponse raisonnablement précise.
Il est possible d'obtenir des informations utiles à partir d'un seul arbre, mais c'est rare.
Même le premier arbre ne sera pas le meilleur.
La dynamisation est rapide, mais il faut sélectionner soigneusement les modèles, ce qui nécessite un grand échantillon, ce qui pose problème.
Pour comprendre l'essence et la base théorique des réseaux neuronaux, la connaissance de la théorie de Kolmogorov, Arnold et Hecht-Nielson est essentielle.
Pour la pratique, cette connaissance n'est pas particulièrement nécessaire, mais une compréhension générale de celle-ci ne ferait pas de mal.
Spc.
L'absence de théorie rigoureuse relative à ces modèles de réseaux neuronaux n'empêche pas d'étudier les possibilités de leur application à des problèmes pratiques.
Les arbres déjà asymétriques peuvent sûrement être déchargés ?
J'ai essayé un exemple, en ajoutant grow_policy='Lossguide'.
Voici un morceau de modèle contenant des fentes :
Il y a aussi des scissions avec Depthwise. Mais c'est sur Python, je n'ai pas vu de moyen de décharger le modèle sur R. Mais je pense qu'il est possible d'enregistrer un modèle dans R au format interne, de l'ouvrir dans Python et de le décharger en JSON. Et à partir de tout cela, vous devez utiliser
Collègues. Le sujet est intéressant, mais je ne comprends pas la différence entre l'apprentissage automatique et la simple optimisation des paramètres dans un testeur ? L'objectif sera approximativement le même - prendre une décision sur l'entrée (la sortie) du marché lorsque les paramètres d'entrée (de sortie) coïncident. Les deux méthodes cessent de fonctionner lorsque le marché change fortement. Ils doivent être ré-entraînés et optimisés. En bref et sans philosophie.
La différence réside dans la flexibilité de l'outil. Le réseau neuronal peut s'adapter à n'importe quelle série. Regardez le polynôme ci-dessous. La largeur des coefficients ainsi que leur nombre peuvent être absolument différents.
Imaginez maintenant le nombre de variantes, aucun conseiller expert multi-paramètres ne peut se targuer d'une telle flexibilité. On dit aussi qu'ils sont capables de généraliser, mais ce n'est pas certain :-)