L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 31
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Yuri, le premier essai sur vos données :
Deux ensembles différents de valeurs de paramètres pour la formation. Il convient de noter que l'AUC est inférieure à la plinthe lors de la validation croisée.
Globalement, une précision de 51,5 % sur le test est le meilleur résultat obtenu.
Je ne sais même pas comment tu arrives à contourner 60%.
Nous devrions jeter cet ensemble de prédicteurs.
Si nous prenons stupidement tous les incréments de pas et quelques oscillateurs, plus de 100 prédicteurs avec plus de 5000 observations, c'est-à-dire H1, alors à partir d'un tel ensemble nous pouvons choisir 10-15 prédicteurs qui non seulement donneront moins de 40% d'erreur de prédiction, mais surtout ne donneront pas un modèle RÉFÉRÉ.
Nous devrions jeter cet ensemble de prédicteurs.
Si nous prenons stupidement des incréments de tout avec quelques oscillateurs sur 100 prédicteurs avec plus de 5000 observations, c'est-à-dire H1, à partir d'un tel ensemble nous pouvons choisir 10-15 prédicteurs qui non seulement donneront une erreur de prédiction inférieure à 40%, mais surtout ne donneront PAS un modèle REPROVÉ.
En général, je n'ai jamais obtenu une précision de classification supérieure à 51,5 %. Par conséquent, le reste de la métrique sera également proche de l'estimation aléatoire.
L'équilibre des réponses au test est presque parfaitement 50/50.
Yuri, j'attends avec impatience vos révélations.
En général, je n'ai jamais obtenu une précision de classification supérieure à 51,5 %. Par conséquent, le reste de la métrique sera également proche de l'estimation aléatoire.
Les réponses équilibrées sur le test sont presque parfaitement 50/50.
Yuri, j'attends vos révélations.
Je ne cache rien. Pour l'ancienne version dont j'ai déjà donné les résultats ci-dessus, toutes les informations sont en accès libre :
Description de la méthode de construction du classificateur binaire : https://sites.google.com/site/libvmr/
Code source Java avec commentaires : https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
Constructions : https://sourceforge.net/projects/libvmr/files/
Yuri, merci.
Si l'ensemble est linéairement séparable, alors le nombre d'hyperplans de séparation potentiels est infini. Dans un tel cas, nous devons trouver un critère pour identifier un hyperplan adéquat. Un tel critère a été formulé pour la méthode des vecteurs de référence dans le livre : Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscou : Nauka, 1974. Plus précisément, de nombreux critères différents sont examinés dans cet ouvrage.
Les deux SVM et VMR sont des méthodes vectorielles de référence.
On peut discuter longtemps de la meilleure ou de la pire méthode. Cependant, on peut prendre et vérifier la généralisabilité et alors tout se mettra en place.
Si l'ensemble est linéairement séparable, alors le nombre d'hyperplans de séparation potentiels est infini. Dans ce cas, il est nécessaire de trouver un critère permettant d'identifier un hyperplan adéquat. Un tel critère a été formulé pour la méthode des vecteurs de référence dans le livre : Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscou : Nauka, 1974. Plus précisément, de nombreux critères différents sont examinés dans cet ouvrage.
Les deux SVM et VMR sont des méthodes vectorielles de référence.
On peut discuter longtemps de la meilleure ou de la pire méthode. Cependant, il est possible de prendre et de vérifier la capacité de généralisation, et alors tout se tiendra sur les lieux.
Les problèmes doivent être résolus au fur et à mesure qu'ils se présentent, et mettre la charrue (le modèle) avant les bœufs (les prédicteurs) est un exercice absolument futile. D'autant plus pour comparer des chariots, alors que l'on ne sait pas ce qui y est attelé et si c'est le cas.
Avant d'appliquer tout type de modèle, il est nécessaire de débarrasser la liste des prédicteurs du bruit, en ne laissant que les prédicteurs qui sont "pertinents" pour la variable cible. Si cela n'est pas fait, on peut facilement se laisser aller à construire des modèles basés sur les anneaux de Saturne, le marc de café et d'autres prédicteurs qui ont été largement utilisés dans la pratique depuis plusieurs centaines d'années.
LeDr. Trader ci-dessus a essayé de faire le travail de suppression du bruit de son ensemble de prédicteurs.
Le résultat est négatif.
Je pense que la raison du résultat négatif est le petit nombre d'observations avec un très grand nombre de prédicteurs. Mais c'est la direction à creuser avant d'appliquer TOUT modèle.
Si l'ensemble est linéairement séparable, alors le nombre d'hyperplans de séparation potentiels est infini. Dans ce cas, il est nécessaire de trouver un critère permettant d'identifier un hyperplan adéquat. Un tel critère a été formulé pour la méthode des vecteurs de référence dans le livre : Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Moscou : Nauka, 1974. Plus précisément, de nombreux critères différents sont examinés dans cet ouvrage.
Les deux SVM et VMR sont des méthodes vectorielles de référence.
On peut discuter longtemps de la meilleure ou de la pire méthode. Cependant, il est possible de prendre et de vérifier la capacité de généralisation, et alors tout se tiendra sur les lieux.
R a tout ce dont vous avez besoin. Voir fTrading::sharpeRatio.
Oh, et PerformanceAnalitics ne ferait pas de mal non plus.
Bonne chance