L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1535

 
Maxim Dmitrievsky:

incréments

Je finirai le connecteur ce week-end et le mettrai à l'épreuve. Je prévois de télécharger le modèle sur le nuage et de récupérer les signaux à partir du terminal. Je vais mettre le modèle dans le nuage et prendre les signaux du terminal. Plus tard, vous pouvez également le tester, qui veut. Je peux envoyer le client mt5 plus tard
Pour le début, il serait intéressant de n'utiliser que la démo pendant quelques mois.
Je m'investissais alors dans la copie ou la répétition de la méthode.
Mes expériences avec la forêt Alglib et l'arbre unique avec des incréments de prix à l'entrée et avec des cibles TP/SL - n'ont rien montré d'intéressant.
 
elibrarius:
Il est intéressant de ne regarder la démo que pendant quelques mois pour commencer.
Et ensuite, investissez pour copier ou répéter la méthode.
Mes expériences sur la forêt alglib et l'arbre unique avec des incréments de prix en entrée et une cible marquée par TP/SL - n'ont rien montré d'intéressant.

Ce n'est qu'au bout d'un an que j'ai réussi à construire correctement des objectifs, et en modifiant leurs paramètres, on peut modifier l'acuraci de manière prévisible.

sur la démo, oui, les tests le montreront.

La forêt d'alglib a un problème que je ne comprends pas - plus il y a d'échantillons, plus il y a sur-entraînement.

Il serait peut-être judicieux de faire un "van hot" pour cela, c'est-à-dire de convertir les caractéristiques en catégories. Les arbres ne seraient pas si grands
 
Maxim Dmitrievsky:

La forêt d'alglib a un problème que je ne comprends pas - plus il y a d'échantillons, plus il y a sur-entraînement.

il y a peut-être un sens à faire un van hot pour cela, c'est-à-dire à convertir les caractéristiques en catégories. Les arbres ne seront pas si énormes

sur le sujet

Certains écrivent que le vanchot est mauvais pour les échafaudages car il rend les arbres asymétriques, d'autres écrivent qu'il empêche le surpiquage. J'ai choisi le deuxième :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

Splitting on categorical predictors in random forests
Splitting on categorical predictors in random forests
  • www.ncbi.nlm.nih.gov
This is an open access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, reproduction and adaptation in any medium and for any purpose provided that it is properly attributed. For attribution, the original author(s), title, publication source (PeerJ) and either DOI or...
 
Maxim Dmitrievsky:

en effet

Certains écrivent que le vanchot est mauvais pour les forêts car il provoque des arbres asymétriques, d'autres écrivent qu'il empêche le surpiquage. J'ai choisi le deuxième :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

Vous pouvez simplement discrétiser les données d'entrée, par exemple en convertissant 5 chiffres en 4 chiffres. Et les données seront déjà par groupes de 10.
Ou, comme je l'ai suggéré précédemment, vous pouvez intégrer la forêt d'alglib pour arrêter le branchement lorsque la profondeur ou le nombre d'exemples souhaités dans la feuille est atteint.

 
elibrarius:

Vous pouvez simplement discrétiser les données d'entrée, par exemple en convertissant une valeur à 5 chiffres en une valeur à 4 chiffres. Et les données seront déjà par groupes de 10.
Ou, comme je l'ai déjà suggéré, vous pouvez intégrer la forêt d'alglib pour arrêter le branchement lorsque la profondeur ou le nombre d'exemples souhaités dans la feuille est atteint.

c'est différent, vous devez faire des catégories pour que leurs valeurs ne puissent pas être comparées entre elles.

Je verrai l'article plus tard, je l'ai mis de côté pour ne pas l'oublier.
 
Maxim Dmitrievsky:

Les grandes entreprises comme Yandex travaillent et font des choses. Ils disent de le faire et que tout ira bien. Faites-le de cette façon et ne faites pas de travail d'amateur. Sinon, vous vous noierez dans les formulations et les différentes approches.

Il montre le changement au fur et à mesure qu'il avance dans la pente, en construisant des arbres.

Il y a des changements quand on ajoute un arbre, n'est-ce pas, alors que je dois regarder l'échantillon, comme si j'ajoutais une nouvelle ligne à l'échantillon - probablement pour que vous puissiez comprendre quelles zones/situations s'avèrent difficiles à apprendre, et en conséquence penser aux prédicteurs qui peuvent surmonter ces zones difficiles à apprendre.

 
elibrarius:
Pas mal ! Augmentez les volumes et on peut déjà gagner quelque chose)

C'est ainsi que les feuilles sont sélectionnées et combinées en un seul modèle pour augmenter le volume, c'est-à-dire le nombre d'entrées, c'est-à-dire le rappel.

Peut-être que cette méthode fonctionnerait aussi avec votre échantillon, mais si elle était accélérée...

De tels résultats sont donnés par l'arbre avec une profondeur de 5-7 divisions, mais il ne révèle qu'un certain modèle - généralement 3-4 feuilles vont à -1 et 1, et le reste à zéro.

 
Maxim Dmitrievsky:

incréments

Combien de prédicteurs y a-t-il au total ?

 
elibrarius:

Vous pouvez simplement discrétiser les données d'entrée, par exemple en convertissant 5 chiffres en 4 chiffres. Et les données seront déjà par groupes de 10.
Ou, comme je l'ai suggéré plus tôt, vous pouvez intégrer la forêt alglib pour arrêter le branchement lorsque la profondeur ou le nombre d'exemples souhaités dans la liste est atteint.

Bien entendu, il convient d'élaguer ou simplement d'interdire la ramification en fonction du nombre d'exemples (complétude - rappel) dans une seule feuille. En outre, les arbres peuvent être écartés si leurs valeurs de précision et d'exhaustivité sont inférieures à la plinthe.

 
Maxim Dmitrievsky:

c'est différent, vous devez faire des catégories pour que leurs valeurs ne puissent pas être comparées entre elles.

Je copierai l'article plus tard, pour ne pas l'oublier.

Au fait, quels sont vos paramètres pour la formation du modèle ?