L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 552
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
alors je ne sais pas quoi croire dans cette vie... tout doit être revérifié
+1 - J'ai commencé sans supprimer les valeurs aberrantes, et j'ai obtenu de forts décalages au centre (ou au zéro) des données. Après avoir supprimé les valeurs aberrantes, tout est devenu plus stable.
Ce n'est donc pas jPredictor finalement ? :)
Pourquoi exactement avec lui.... Il construit de meilleurs modèles que les bibliothèques et ainsi de suite. Parce qu'il secoue les données en profondeur...
Pourquoi lui exactement.... Il construit de meilleurs modèles que les bibliothèques et ainsi de suite. Parce qu'il secoue les données en profondeur...
mais ça prend beaucoup de temps... :)
+1 - Je l'ai fait initialement sans supprimer les valeurs aberrantes, et j'ai obtenu de forts décalages au centre (ou au zéro) des données attrminées. Après avoir supprimé les valeurs aberrantes, tout est devenu plus stable.
Eh bien, parfois il y a un problème avec le décalage à cause de la normalisation, donc j'ai toutes les entrées à travers les logarithmes des incréments et là le centre sera toujours à zéro si elles doivent être normalisées.
mais en général, les pointes sont enlevées plus pour que les échelles ne se décalent pas trop aux anomalies... et les échafaudages, par exemple, ne s'en soucient pas du tout
mais ça prend beaucoup de temps... :)
C'est pourquoi je réduis statistiquement le nombre d'entrées et la formation devient adéquate avec le temps. En un jour de travail, j'ai fait le modèle + le boosting de niveau 4. Maintenant je vais faire un autre modèle de rebond et ça devrait marcher pendant des semaines. Du moins, je l'espère...
Eh bien, parfois il y a un problème avec le décalage à cause de la normalisation, donc j'ai toutes les entrées à travers les logarithmes des incréments et là le centre sera toujours à zéro si elles doivent être normalisées.
mais en général, les pointes sont enlevées plus pour que le NS ne déplace pas les poids lourdement sur les anomalies... et l'échafaudage par exemple ne s'en soucie pas du tout
En fait, le logarithme fait quelque chose de similaire, sauf qu'il ne rejette pas, et apporte, de fortes émissions. Cependant, je ne les rejette pas non plus, mais je les assimile au maximum. si(v>max){v=max;}
En général, je veux définir à l'avance une fourchette acceptable pour chaque prédicteur et réaliser toutes mes expériences dans cette fourchette. Parce que même avec ma méthode et celle du logarithme, il y aura un décalage des données d'un échantillon à l'autre.
En fait, le logarithme fait quelque chose de similaire, sauf qu'il n'élimine pas les pics forts mais les approxime. Cependant, je ne les écarte pas non plus, mais je les assimile au maximum. si(v>max){v=max;}
Oh oui, c'est vrai... je suppose)
Je prends d'abord des séries comme log(close[0]/close[n])
et ensuite
et si nous prenons de petits échantillons,nous pouvons la définir de manière préliminaire sur le grand échantillon, donc elle ne changera pas.Oh oui, c'est vrai... je suppose)
Je prends d'abord des séries comme log(close[0]/close[n])
et ensuite
Si le min et le max ne sont pas en miroir (par exemple -100 et 90), vous aurez alors une normalisation, par exemple de -1 à 0,9. Mais le centre sera toujours à 0. C'est une approche intéressante pour dévier les décalages.
Et apparemment, vous devez prendre
Sinon, un min négatif va tout chambouler.
Si le min et le max ne sont pas mis en miroir (par exemple -100 et 90), vous aurez une normalisation de -1 à 0,9, par exemple. Mais le centre sera toujours à 0. Une approche intéressante pour lutter contre les décalages.
Et apparemment, nous devrions.
Sinon, un min négatif mettrait tout sens dessus dessous.
Oui, il est important que le centre ne se déplace pas.
Il y a déjà des abysses pour max et min.
Les abysses pour max et min sont déjà en haut.
Manqué)
Une dernière chose, si vous prenez par exemple non pas 0, mais par exemple 0,5 - même avec votre méthode, il "flottera" d'un échantillon à l'autre.
Le seul moyen d'y remédier est de définir manuellement et de manière rigide la plage de valeurs pour chaque entrée. Mais la manière de le déterminer n'est pas claire. Par exemple, vous pouvez exploiter des données pendant un an et rejeter 1 à 5 % des valeurs aberrantes. Et travaillez avec eux pendant l'année. Même s'ils changeront dans un an.