L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3043
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Le principal problème lié à l'utilisation de matstat pour de telles tâches est que la recherche de TS est effectuée par sélection à partir d'un grand nombre de variantes. Il est toujours possible de choisir quelque chose de très beau à partir d'un grand ensemble de variantes - par un exemple simple, j'ai montré ici qu'en modélisant les prix comme un CB, vous pouvez toujours "trouver" une bonne heure de la semaine pour le trading. Et il ne s'agit que de 120 variantes parmi lesquelles choisir.
Le matstat ne dit pas que le TS sélectionné est nécessairement mauvais, il dit seulement qu'un tel résultat PEUT (PAS DOIT) être simplement le résultat d'une sélection à partir du SB.
Je ne comprends toujours pas, il n'y a aucun moyen de dire avec certitude si le résultat final est statistiquement significatif ou non ? TC ou non ?
J'obtiens une erreur lors du lancement de
1) Les données sont-elles les mêmes que dans l'exemple ?
2) Peut-être que dans le nouveau R, les noms des arguments des fonctions ont changé.
L'une des orientations pourrait consister à rechercher non pas les meilleurs, mais les paramètres les plus stables du TS, c'est-à-dire à écarter les variantes dont les résultats varient à différents moments de l'histoire.
Une solution consiste à inclure des indicateurs de stabilité des résultats dans les critères d'évaluation.
Il existe un excellent logiciel sur l'optimisation bayésienne...
Vous pouvez faire de l'optimisation multicritère, de l'optimisation sur des fonctions avec du bruit et beaucoup d'autres choses, un package très intéressant.
J'ai réalisé un petit exemple de la manière dont l'algorithme recherche un minimum dans un vecteur unidimensionnel.
Je ne comprends toujours pas, il n'y a aucun moyen de dire avec certitude si les résultats finaux sont statistiquement significatifs ou non. ou non ?
Ne mélangez pas deux choses qui sont liées à l'utilisation du même indicateur :
1) L'évaluation du résultat d'un TS par cet indicateur.
2) La sélection d'un TS parmi un grand nombre d'options en maximisant cet indicateur.
Dans le premier cas, la valeur de l'indicateur peut être statistiquement significative, mais dans le second cas, c'est peu probable.
Je ne comprends toujours pas, il n'y a aucun moyen de dire avec certitude si les résultats finaux sont statistiquement significatifs ou non. ou non ?
1) Les données sont-elles les mêmes que dans l'exemple ?
2) Peut-être que dans le nouveau R, les noms des arguments des fonctions ont changé.
1. oui
2. Peut-être - j'ai activé la version 3.5.0 - j'ai demandé la bibliothèque - je l'ai installée et j'ai de nouveau eu des erreurs.
1. oui
2. Peut-être - j'ai activé la version 3.5.0 - j'ai demandé la bibliothèque - je l'ai installée et j'ai de nouveau eu des erreurs.
voir quels arguments la fonction prend
dans la version qui avait l'erreur avec cette fonction.
C'est moi qui l'ai écrite !
Ne mélangez pas deux choses qui impliquent l'utilisation du même indicateur :
1) L'évaluation du résultat d'une CT sur cet indicateur.
2) Sélection d'un TS parmi un grand nombre d'options en maximisant cet indicateur.
Dans le premier cas, la valeur de l'indicateur peut avoir une signification statistique, mais dans le second cas, c'est loin d'être le cas.
En d'autres termes, si j'évalue une TS en fonction de sa signification statistique, elle est bonne,
si j'ai 100 TS et que je choisis le meilleur selon le même critère, c'est mauvais ?
J'ai dû mal comprendre quelque chose ? ça ne peut pas être juste non plus ?
L'une des orientations pourrait consister à rechercher non pas les meilleurs, mais les paramètres les plus stables du TS, c'est-à-dire à écarter les variantes dont les résultats varient à différents moments de l'histoire.
Une solution consiste à inclure des indicateurs de stabilité des résultats dans les critères d'évaluation.
voir quels sont les arguments pris par la fonction
dans la version dans laquelle il y a eu une erreur avec cette fonction.
C'est moi qui l'ai écrite !
C'est bien, cela devrait fonctionner.
Vous êtes sûr de ne pas avoir modifié le code ? Montrez-moi le code où l'erreur se produit.