L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 472

Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
en d'autres termes, tout dans mt5 n'a pas encore été testé :)
Je ne comprends pas ça. ( Pourquoi même essayer quelque chose qui est déjà dans MT ?
S'il y a un concept de CT, nous prenons une boîte à outils. S'il y en a un dans MT et qu'il interagit bien avec le reste du système - nous l'utilisons. Il interagit mal - nous utilisons le logiciel externe.
Ce n'est pas du tout razzo d'envoyer des informations dans les deux sens juste pour utiliser la fonctionnalité MT existante.
Je ne comprends pas ça. ( Pourquoi même essayer quelque chose qui est déjà dans MT ?
S'il y a un concept de CT, nous prenons une boîte à outils. S'il y en a un dans MT et qu'il interagit bien avec le reste du système - nous l'utilisons. Il interagit mal - nous utilisons le logiciel externe.
Il n'est pas utile d'envoyer des informations dans les deux sens simplement pour utiliser la fonctionnalité MT existante.
Il n'y a donc jamais de concept prêt dès le départ, tout se fait à l'instinct, plus il y a d'outils, mieux c'est.
Je commence par un concept, je l'élabore sur un logiciel (Excel, SciLab, MatLab, R - parfois tous ensemble). Là, je le teste avec mon testeur (je n'ai pas remarqué de différence significative avec le vrai logiciel). Ensuite, j'en transfère une partie vers le terminal, et le reste vers C++/C# et je connecte des bibliothèques externes.
Mes premiers systèmes (depuis 2008) étaient basés sur VBA-Excel, et ils coopéraient parfaitement avec le terminal. Aucun problème de performance, même avec la lenteur de VBA. De toute façon, un retard de 50 ms, même pour 1 TF, ce n'est pas du temps.
Au fait, vous vous souvenez que dans votre article sur le séquençage, vous suggériez de compter plusieurs signaux à la suite, en les retournant... superposition de signaux.
J'ai trouvé une solution intéressante pour mettre en œuvre quelque chose comme cela par le biais de la logique floue et l'intégrer dans le processus d'apprentissage ... Je posterai quelque chose plus tard :)
Ouais ouais c'est juste à partir de cet article..... Peut-être que cela n'a pas été clairement expliqué là-bas, mais personne n'a annulé le fait de la séparation.
Nous devons voir clairement la division entre les bons et les mauvais, si le modèle perd ou gagne régulièrement, c'est déjà un indicateur, l'essentiel est la stabilité de la division, pas sa justesse......
SanSanych.
Jetez un coup d'œil à la discussion intéressante sur le "suréquipement".
Bonne chance
SanSanych.
Jetez un coup d'œil à la discussion intéressante sur le "suréquipement".
Bonne chance
Tout ce que j'écris ici et que j'utilise dans ma pratique est une sorte d'astuce pour réduire d'une manière ou d'une autre l'impact du problème de cognition de base, qui est ici appelé overfitting, surentraînement.
Le problème de l'overfitting des modèles n'est PAS résolu en principe, il n'est pas résolu théoriquement et cela est connu depuis très longtemps. Un modèle est toujours une approximation, une grossièreté de la réalité, du monde extérieur. Par conséquent, un modèle reflète TOUJOURS un objet avec une certaine erreur. C'est la force et la faiblesse de tout modèle. Il s'ensuit qu'il est impossible de créer un modèle sans étudier en profondeur l'objet à modéliser.
Si nous prenons un devis.
Qu'est-ce que nous modélisons ?
Dans le cas de la forêt aléatoire, nous automatisons la recherche de modèles.
Si GARCH, alors nous modélisons les caractéristiques statistiques d'une cotation.
Il y aura TOUJOURS une erreur en le faisant. Et j'ai suggéré ici une sorte d'heuristique selon laquelle cette erreur ne devrait PAS changer sur des morceaux successifs de la série temporelle. Si le modèle donne littéralement une erreur différente dans le chunk suivant, alors il est surentraîné (surajusté) et ne peut pas être utilisé en principe.
Pour les forêts aléatoires, j'ai constaté que si vous supprimez les prédicteurs bruyants, le modèle formé donne la même erreur beaucoup plus longtemps qu'avec les prédicteurs bruyants. Mais je ne connais pas de solutions qui permettraient de créer un modèle pour tous les temps, et je n'en ai pas besoin. Je suis d'accord pour ré-entraîner le modèle sur la sortie des dernières données. Mais la formation doit commencer par la vérification des prédicteurs de bruit - leur ensemble change avec le temps. C'est-à-dire que non seulement le modèle lui-même change, mais aussi l'ensemble des données d'entrée. Je faisais des fenêtres le long de séries temporelles, donc sur mes 25 prédicteurs, il y a un échantillonnage constant de 10 à 15 prédicteurs et la composition de ce groupe change, c'est-à-dire que quelque chose se transforme en bruit puis revient. L'erreur est très stable et varie de 23% à 27% = toujours moins de 30%. Si l'erreur est inférieure à 20% sur mes prédicteurs, je n'utilise pas ce modèle et j'attends.
PS.
D'après ce que j'ai dit, vous pouvez voir la raison pour laquelle je ne suis pas intéressé par d'autres modèles.
Tout ce que j'écris ici et que j'utilise dans ma pratique est une sorte de technique visant à réduire d'une manière ou d'une autre l'impact du problème fondamental de la cognition, que l'on appelle ici le surajustement, le surapprentissage.
La position est claire.
Bonne chance.
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full