L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 487
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Les forêts aléatoires sont censées avoir une faible erreur, car toutes les variables sont utilisées dans les arbres de décision et il n'y a pas de restriction d'utilisation de la mémoire comme dans les réseaux neuronaux - le nombre de neurones. Là, vous ne pouvez utiliser que des opérations distinctes pour "brouiller" le résultat, comme la restriction de niveau, l'élagage des arbres ou le backgammon. Je ne sais pas si l'implémentation d'alglib de MQ a l'élagage, mais la mise en sac le fait.
Si cette variable est inférieure à 1, l'erreur devrait augmenter.
c'est le cas, mais l'erreur était toujours affichée en moyenne, comme décrit ci-dessus... maintenant c'est normal
D'ailleurs, même en diminuant r de 0,1, l'erreur augmente beaucoup. Supérieur à r 0,9 inférieur à 0,8
A r = 0.66 (comme dans la version classique RF)
Et les résultats montrent que la table de multiplication résout déjà mal
Les forêts aléatoires sont censées avoir une faible erreur, car toutes les variables sont utilisées dans les arbres de décision et il n'y a pas de restriction d'utilisation de la mémoire comme dans les réseaux neuronaux - le nombre de neurones. Là, vous ne pouvez utiliser que des opérations distinctes pour "brouiller" le résultat, comme la restriction de niveau, l'élagage des arbres ou le backgammon. Je ne sais pas si l'implémentation d'alglib par MQ a un système d'élagage, mais backgammon en a un.
Si cette variable est inférieure à 1, l'erreur devrait augmenter.
vous devez faire une mauvaise transaction sur 5000000000000000000.c'est impossible dans n'importe quel instrument.
mon respect.
pour que l'erreur soit aussi faible que celle de @Maxim Dmitrievsky
J'ai besoin d'une mauvaise transaction par 5000000000000000000 . il est impossible de le faire sur n'importe quel instrument.
Sincèrement.
Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il peut n'y avoir aucune erreur dans un ensemble d'apprentissage avec un échantillonnage de 100%, c'est-à-dire R=1.
Oui, c'est de l'ajustement excessif, mais c'est ainsi que l'algorithme fonctionne, c'est pourquoi ils utilisent toutes sortes d'astuces dans les forêts aléatoires.
Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il pourrait n'y avoir aucune erreur dans un échantillonnage à 100%, c'est-à-dire R=1.
pour cela vous devez regarder hors du sac, pour estimer le modèle, mais alors vous devriez fixer r=0.66 max.
Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il ne peut y avoir aucune erreur à un échantillonnage de 100%, c'est-à-dire R=1.
avec respect.
pour cela il faut regarder hors du sac, pour évaluer le modèle, mais alors r=0.66 max mettre oui
Il est probablement nécessaire d'améliorer la situation, mais le balisage seul n'est pas une technologie très solide pour la prédiction, à mon avis.
Eh bien, c'est à peu près tout pour le moment... :) ensuite, si je trouve une librairie décente avec un diplôme, je le regarderai.
mais la vitesse !
c'est le cas, mais l'erreur était toujours affichée en moyenne, comme décrit ci-dessus... maintenant c'est normal
D'ailleurs, même lorsque r est réduit de 0,1, l'erreur augmente considérablement. Supérieur à r 0,9 inférieur à 0,8
A r = 0.66 (comme dans la version classique RF)
Et je peux voir d'après les résultats que la table de multiplication résout déjà très mal.
Sincèrement.
Je ne suis pas entré dans le fonctionnement de la forêt. mais d'après vos paroles, je comprends que chaque arbre mémorise un modèle, qui par la suite ne peut pas se répéter. dans ce cas (puisqu'il n'y a pas de répétition), nous ne pouvons pas dire quelle est la probabilité qu'il ait fonctionné dans le plus et le prendre comme une probabilité axiomatique de 1, au lieu de le prendre à 0,5 parce qu'il est essentiellement inconnu.
respectueusement.
Lorsque j'ai augmenté le seuil du signal, NS l'a compensé en augmentant le nombre d'entrées requises. En conséquence, l'erreur a diminué, mais il y avait également moins d'options pour les entrées.
Sincèrement.
Il s'agit de bien choisir les jetons et la cible, même s'il semble qu'il n'y ait rien de plus simple qu'une table de multiplication, mais il n'y a pas de petite erreur non plus...