L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2727
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Vos hypothèses semblent trop fortes. En ce sens que s'il était possible de les mettre en œuvre, ce serait pratiquement un graal. Je voudrais résoudre un problème plus modeste et plus spécifique - trouver un moyen général de trouver un compromis entre la longueur suffisante de la trayne et l'absence d'exemples obsolètes dans celle-ci.
À mon avis, cette question est fondamentale pour les applications de MO et de matstat dans notre domaine.
N'avez-vous pas essayé expérimentalement ? Après tout, selon votre approche théorique de cette question, après une augmentation critique de la taille de l'échantillon, les modèles de l'échantillon seront anciens, ne fonctionneront plus, ce qui signifie que l'apprentissage devrait se détériorer d'un point de vue qualitatif et que les résultats sur de nouvelles données seront moins bons lorsque l'échantillon est augmenté.
Nous obtenons une analyse a posteriori d'un modèle déjà entraîné. J'aimerais la compléter par une analyse a priori pour l'étape de sélection de l'échantillon d'entraînement.
C'est également ce que je pense. J'ai décidé d'utiliser le dernier sommet formé du zigzag pour des raisons de simplicité, mais j'aimerais quelque chose de plus élaboré.
Je commence à extraire des nouvelles données uniquement les éléments qui fonctionnent et j'applique un filtre sous la forme d'un deuxième modèle qui fonctionne à la fois sur les anciennes et les nouvelles données, puis je le vérifie sur d'autres nouvelles données, comme dans l'article.
Il s'agit également d'une sorte d'ajustement, mais sur la base des erreurs de modèle. Comme si nous sélectionnions au moins les variantes qu'il est capable de bien classer, de sorte qu'il y a quelque chose en elles en plus du hasard (au moins sur l'entraînement et la validation et sur une autre validation).
Si l'on pose quelque chose a priori, il est probablement judicieux de prendre n'importe quel suivi de longue durée, qui donnera au moins un balisage adéquat. Détecter les signes.
J'ai mis au point un nouveau spammeur de caractéristiques et de cibles (il semble être instructif, et il l'est, comparé à l'échantillonnage aléatoire habituel). Mais il y a quelques variantes, je ne l'ai pas encore testé.
N'avez-vous pas essayé expérimentalement ? Après tout, selon votre approche théorique dans cette question, après une augmentation critique de la taille de l'échantillon, les modèles dans l'échantillon deviendront anciens, ne fonctionneront plus, et donc l'apprentissage devrait se détériorer dans un sens qualitatif et sur de nouvelles données, les résultats seront pires lorsque l'échantillon est augmenté.
Vous vous rendez probablement compte qu'il s'agit d'une tâche informatique gigantesque que de s'entraîner sur un grand nombre de variantes pour la durée de l'historique et pour un grand nombre de points dans le temps. Même si, par miracle, vous parvenez à collecter toutes ces statistiques, la question de la systématisation significative de cette pile d'informations se posera. Il est certain qu'une durée différente de l'historique s'avérera optimale pour chaque moment. Et comment interpréter cela et, surtout, comment extrapoler dans l'avenir ?
J'aimerais aller dans l'autre sens - trouver des heuristiques pour réduire radicalement le nombre de variantes pour la longueur de l'historique de formation (littéralement jusqu'à quelques variantes).
Je commence par extraire uniquement des morceaux de nouvelles données et j'applique le filtre en tant que deuxième modèle pour qu'il fonctionne à la fois sur les anciennes et les nouvelles données, puis je le vérifie sur d'autres nouvelles données, comme dans l'article.
Il s'agit également d'une sorte d'ajustement, mais sur la base des erreurs de modèle. Comme si nous sélectionnions au moins les variantes qu'il est capable de bien classer, de sorte qu'il y a quelque chose en elles en plus du hasard (au moins sur l'entraînement et la validation et sur une autre validation).
Si l'on pose quelque chose a priori, il est probablement judicieux de prendre n'importe quel suivi de longue durée, qui donnera au moins un balisage adéquat. Relevez les signes.
J'ai mis au point un nouveau spammeur de caractéristiques et de cibles (il semble être instructif, et c'est pourquoi il est comparé à l'échantillonnage aléatoire habituel). Mais il y a quelques variantes, je ne l'ai pas encore testé.
Je vais devoir y réfléchir. Je ne comprends pas vraiment comment le traduire dans mes propres idées et concepts.
Je dois y réfléchir. Je ne sais pas vraiment comment le traduire dans le langage de mes perceptions et de mes concepts.
De plus, le fait de passer des ticks aux barres réduit considérablement le pouvoir prédictif.
mais supprime les conflits potentiels avec les dts).
De plus, le passage des ticks aux barres réduit considérablement la capacité de prédiction.
mais supprime les conflits potentiels avec les dts :)
Par ailleurs, il s'agit d'une question pratique importante et d'une question théorique intéressante. Vous pouvez la formuler comme une dépendance de l'écart réel entre le cours acheteur et le cours vendeur par rapport au volume (liquidité, volatilité), calculer la régression correspondante, comparer le forex avec les instruments boursiers, etc. Par ailleurs, cette question n'est intéressante que pour les opérateurs dont les volumes négociés sont importants.)
Vous vous rendez probablement compte que l'entraînement d'un grand nombre de variantes pour un grand nombre de moments dans le temps et pour toute la durée de l'histoire représente une tâche informatique absolument immense. Même si, par miracle, vous parvenez à collecter toutes ces statistiques, la question de la systématisation significative de cette pile d'informations se posera. Il est certain qu'une durée différente de l'historique s'avérera optimale pour chaque moment. Et comment l'interpréter et, surtout, comment l'extrapoler dans l'avenir ?
J'aimerais aller dans l'autre sens - trouver des heuristiques pour réduire radicalement le nombre de variantes pour la durée de l'historique de formation (littéralement à quelques variantes).
Le problème de l'expérience peut être résolu, j'ai fait quelque chose de similaire.
À l'époque, j'ai eu l'idée de m'orienter vers des méthodes d'estimation de la comparabilité de l'échantillon. Mais je n'ai pas pu la mettre en œuvre - je ne comprenais pas la formule.
Le problème de l'expérience peut être résolu, j'ai fait quelque chose de similaire.
Il est techniquement tout à fait soluble, probablement. La question est de savoir comment interpréter les résultats d'une telle expérience.
J'ai alors eu l'idée que nous devrions nous pencher sur les méthodes d'évaluation de la comparabilité d'un échantillon. Mais je n'ai pas pu le réaliser - je ne comprenais pas la formule.
Matstat propose de nombreux tests pour vérifier l'homogénéité des échantillons, par exemple. Si je comprends bien sûr votre terminologie.
Soit dit en passant, il s'agit également d'une question pratique importante et d'une question théorique intéressante. Elle peut être formulée comme une dépendance de l'écart réel entre les cours acheteur et vendeur par rapport au volume (liquidité, volatilité), calculer la régression correspondante, comparer le forex avec les instruments boursiers, etc. En outre, cette question n'est intéressante que pour ceux dont les ST négocient des volumes importants).
Oh, c'est un tel désordre que c'en est incompréhensible. D'où ils tirent ces devis avec des volumes, quels fournisseurs ils utilisent, s'ils existent, et tout le reste. Au final, même si ça marche, ils interdiront un TS aussi toxique que tous les autres sur des principes similaires
Je pense que fxsaber a écrit que les problèmes commencent avec des rotations importantes. Peut-être que vos TS ont été victimes d'une trop grande popularité parmi les copistes)