L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 75

Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est pourquoi Dr. Trader n'a pas pu exécuter une libVMR complète réécrite en R - trop de calculs et trop de consommation de mémoire.
J'avais une erreur dans mon code dans la fonction de conversion des grands noyaux. Atach a la même vieille version 3.01 mais avec des corrections. La mémoire est maintenant ok, ainsi que le gros noyau. Mais il sera plus lent que java.
J'avais un bug dans mon code dans la fonction de conversion des grands noyaux. Atach a la même vieille version 3.01, mais avec un correctif. La mémoire est OK maintenant, ainsi que la grosse machine à noyaux. Mais la vitesse est plus lente qu'en java.
Le plus dégoûtant, c'est que la vitesse est en dessous de la plinthe.
De plus, libVMR est un classificateur binaire, ce qui n'est pas bon. Ternary peut faire un bel objet avec de la merde :
Dans le prédicteur lui-même, le niveau de généralisation des données est de 90 %, mais dans le modèle non chargé, il n'est que de 47 %. Ce n'est pas clair..... Et cela n'a pas encore fonctionné dans MQL.....
Lentement, j'ai augmenté le niveau de généralisation du modèle jusqu'à 100%, voyons comment cela fonctionne dans le futur :-)
La généralisation à 100% n'est pas la limite. Nous pouvons encore l'améliorer en sélectionnant les prédicteurs par biais. Si deux classificateurs ternaires ont une capacité de généralisation de 100%, mais des biais différents, alors le classificateur avec le biais le plus faible sera meilleur - il a plus de prédicteurs significatifs.
Plus le biais est faible, moins les exemples de l'échantillon de test sont marqués d'un tiret (incertitude).
La généralisation à 100% n'est pas la limite. Nous pouvons encore améliorer ce résultat en sélectionnant les prédicteurs par biais. Si deux classificateurs ternaires ont une généralisabilité de 100% mais des biais différents, le classificateur avec le biais le plus faible sera le meilleur, car il a plus de prédicteurs significatifs.
Plus le biais est faible, moins les exemples de l'échantillon de test sont marqués par des tirets (incertitude).
Je m'interroge et me demande depuis longtemps. Que signifie l'indicateur du paramètre de Reshetov et qu'est-ce qu'il signifie ? Qu'est-ce que cela signifie ?
Le fait est qu'il s'agit d'un bon indicateur de la capacité d'apprentissage, mais qu'il n'a aucune signification pour la capacité de généralisation. C'est pourquoi je vais le supprimer dans les prochaines versions de jPrediction, afin qu'il ne soit pas une nuisance.
Le fait est qu'il s'agit d'un bon indicateur pour la capacité d'apprentissage, mais qu'il n'a aucun sens pour la capacité de généralisation. C'est pourquoi dans les prochaines versions de jPrediction je le supprimerai pour le rendre moins gênant.
Yuri, une question. Un prédicteur peut-il donner des probabilités au lieu de classes ?
Yuri, une question. Un prédicteur peut-il produire des probabilités au lieu de classes ?
Non, les probabilités étaient calculées dans les toutes premières versions de libVMR, mais il y avait un gros problème : tous les prédicteurs doivent être strictement indépendants les uns des autres pour calculer correctement la valeur de la probabilité. Et l'application d'une telle condition dans de nombreux domaines d'application n'est pas du tout réaliste. Par exemple, presque tous les indicateurs et oscillateurs utilisés dans le commerce sont corrélés les uns aux autres, c'est-à-dire qu'ils ne sont pas indépendants. En outre, la condition d'indépendance dans l'algorithme, en son absence dans les données, a un impact négatif sur la capacité de généralisation. Il fallait donc abandonner une telle direction sans issue.
Maintenant, jPrediction ne prête aucune attention à l'indépendance des prédicteurs, mais seulement à la valeur de la généralisabilité. En effet, plusieurs prédicteurs peuvent se compléter, c'est-à-dire que certains exemples donneront de bons résultats pour certains prédicteurs, d'autres pour d'autres, et des combinaisons de prédicteurs pour d'autres. Le calcul des probabilités dans ces conditions peut avoir une marge d'erreur très importante et très discutable.