L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1881
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Le problème est que le système de préparation des données semble s'être essoufflé, avec pas plus de 65-66% de bonnes réponses, et il faut faire plus. Je cherche un moyen de briser ce mur.
Quelle est votre cible ?
quelle est votre cible ?
65% de bonnes réponses est le niveau d'un bon indicateur, c'est ce que montre actuellement le neuro. Si la réponse est de 70% et plus, nous pouvons essayer d'ouvrir une position.
je comprends, mais quel est l'objectif ? que prévoyez-vous avec les filets ? un renversement ? une tendance ? si c'est une tendance, qu'avez-vous décrit comme une tendance ?
je comprends mais quel est l'objectif ? que prévoyez-vous avec les filets ? un renversement ? une tendance ? si c'est une tendance, qu'avez-vous décrit comme une tendance ?
La tâche consiste, par exemple, à distinguer un chat d'un chien sur une photo. Quelle est la bonne option de formation ?
1. Montrer des photos de chats et de chiens uniquement, c'est-à-dire une classification binaire.
2. Apprendre séparément seulement les chats et "pas les chats" (chaos protos) + séparément aussi les chiens et "pas les chiens", c'est-à-dire deux cycles d'apprentissage et deux modèles à la sortie.
3. Faites une classification par trois - chats, chiens et chaos. C'est-à-dire qu'il y aura un seul modèle, mais la réponse est une classification de trois options.
Pour l'instant, j'ai la première option et elle est clairement de travers. Le problème est que le neuro n'apprend bien qu'une seule des variantes, qu'il ne voit conventionnellement bien que les "chats" et qu'il reconnaît mal les chiens. Par exemple, sur les backtests, les modèles sont bons pour détecter un mouvement de prix à la hausse et ignorent un mouvement à la baisse. Si l'estimation à la hausse atteint 67 %, le même modèle n'estime que 55 % à la baisse. "Up" et "down" d'un modèle à l'autre peuvent changer de place.
je comprends mais quel est l'objectif ? que prévoyez-vous avec les filets ? un renversement ? une tendance ? si c'est une tendance, qu'avez-vous décrit comme une tendance ?
Au fait, peut-être que les experts peuvent vous aider. Voici une question :
La tâche consiste, par exemple, à distinguer un chat d'un chien sur une photo. Quelle est la bonne façon d'apprendre ?
1. Montrer des photos de chats et de chiens uniquement, c'est-à-dire une classification binaire.
2. Enseigner séparément seulement les chats et "pas les chats" (chaos protos) + séparément aussi les chiens et "pas les chiens", c'est-à-dire deux cycles d'apprentissage et deux modèles à la sortie.
3. Faites une classification par trois - chats, chiens et chaos. C'est-à-dire qu'il y aura un seul modèle, mais la réponse est une classification de trois options.
Pour l'instant, j'ai la première option et elle est clairement de travers. Le problème est que le neuro n'apprend bien qu'une seule des variantes, qu'il ne voit conventionnellement bien que les "chats" et qu'il reconnaît mal les chiens. Par exemple, dans les backtests, les modèles sont bons pour détecter les mouvements de prix à la hausse et ignorent les mouvements à la baisse. Si le modèle fait une estimation à la hausse de 67 %, le même modèle ne fait qu'une estimation à la baisse de 55 %. Les motifs "haut" et "bas" peuvent changer de place d'un modèle à l'autre.
Le problème ici ne concerne pas les variantes de classification mais le déséquilibre des exemples pour la formation, déséquilibre soit en nombre soit en propriétés caractéristiques des exemples.
Un réseau convolutif ?
Au fait, peut-être que les experts peuvent vous aider. Voici une question :
La tâche consiste, par exemple, à distinguer un chat d'un chien sur une photo. Quelle est la bonne façon d'apprendre ?
1. Montrer des photos de chats et de chiens uniquement, c'est-à-dire une classification binaire.
2. Apprendre séparément seulement les chats et "pas les chats" (chaos protos) + séparément aussi les chiens et "pas les chiens", c'est-à-dire deux cycles d'apprentissage et deux modèles à la sortie.
3. Faites une classification par trois - chats, chiens et chaos. C'est-à-dire qu'il y aura un seul modèle, mais la réponse est une classification de trois options.
Pour l'instant, j'ai la première option et elle est clairement de travers. Le problème est que le neuro n'apprend bien qu'une seule des variantes, qu'il ne voit conventionnellement bien que les "chats" et qu'il reconnaît mal les chiens. Par exemple, sur les backtests, les modèles sont bons pour détecter un mouvement de prix à la hausse et ignorent un mouvement à la baisse. Si l'estimation à la hausse atteint 67 %, le même modèle n'estime que 55 % à la baisse. "Up" et "down" d'un modèle à l'autre peuvent changer de place.
Il y a deux ensembles de points, je ne me souviens pas comment ces points sont appelés, toute reconnaissance à partir de la photo consiste à identifier les points des yeux, du nez, de la bouche, des oreilles, de la zone des joues et la distance et la position entre eux. C'est aussi simple que cela. Donc si tu montres juste un chat, ce n'est pas ça. Il faut d'abord s'entraîner à reconnaître un chat d'un chat, un chien d'un chien, et ensuite seulement distinguer.
Et oui, pas seulement 2 cycles, mais plus en formation s'il y a plus de 2 classes.
Le problème ici n'est pas lié aux options de classification, mais au déséquilibre des exemples pour l'entraînement, déséquilibrant soit le nombre, soit les propriétés caractéristiques des exemples.
Un réseau convolutif ?
Des exemples d'apprentissage déséquilibrés peuvent très bien en être la cause, mais je pense que vous devez jouer avec la fonction d'activation. La réponse tombe dans le mauvais trou, et il y a beaucoup de trous. Je dois apprendre TensorBoard pour la magie, mais c'est une telle douleur...
En bref, je n'ai pas assez de connaissances.
Non, pas la convolution, je ne montre pas de vraies images).
Des exemples d'apprentissage déséquilibrés peuvent très bien en être la cause, mais je pense que vous devez jouer avec la fonction d'activation. La réponse tombe dans le mauvais trou, et il y a beaucoup de trous. Je dois apprendre TensorBoard pour la magie, mais c'est une telle douleur...
Je n'en sais pas assez.