Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est un objet intéressant à étudier. En réfléchissant à ce sujet, je suis arrivé à la conclusion qu'il est nécessaire d'analyser les données macroéconomiques sur la durée - à mon avis, il ne suffit pas de dire que les demandes d'allocations de chômage ont augmenté, car cela peut être dû à des fluctuations saisonnières et c'est du court terme - le marché peut ou non réagir et cela dépend de la tendance qui prévaut sur le marché. Essayez donc peut-être d'étudier la force des indicateurs en termes de leur capacité à inverser une tendance ? Par exemple, prenez un zigzag, ou identifiez les points de renversement de tendance et de correction sur le graphique et recherchez un renversement des indicateurs macroéconomiques dans les trois jours précédant la rupture, et rassemblez un groupe de ces indicateurs pour analyser ce que ces indicateurs montrent et recherchez ensuite des modèles. Tous les indicateurs ne seront pas à l'origine du retournement du marché - le potentiel, la tendance du marché et l'indicateur des périodes passées sont importants, ainsi que la totalité des autres indicateurs économiques.
C'est une idée intéressante. C'est-à-dire se concentrer uniquement sur les ruptures de tendance et identifier les indicateurs clés qui influencent ces ruptures.
J'ai beaucoup pensé aux valeurs aberrantes. Il faut les ignorer ou, à l'inverse, leur accorder plus d'attention. La théorie classique de la régression enseigne qu'il faut les ignorer. Mais il me semble parfois que les petites fluctuations de prix autour d'une tendance sont un bruit, alors que la régression classique leur donne la plus grande importance. Les virages abrupts dans les tendances (valeurs aberrantes) constituent probablement un signal plus important. Mais toutes mes tentatives pour construire un modèle prêtant davantage attention aux valeurs aberrantes (par exemple en choisissant u>1) ont conduit à une erreur quadratique moyenne de prédiction plus élevée. Le lissage des valeurs aberrantes a permis de réduire l'erreur de prédiction.
Vous devez donc examiner manuellement toute la liste des variables d'entrée et décider intuitivement, ou sur la base d'une autre considération, que "cette variable d'entrée est susceptible d'avoir un effet et que celle-ci ne l'aura probablement pas".
...Sélectionner manuellement une liste, puis filtrer par un algorithme et obtenir la liste. Et la valeur d'une telle liste est fondamentale : les modèles utilisant un tel ensemble d'entrées "influentes" (en utilisant 3 types de modèles différents) n'ont PAS la propriété de sur-apprentissage, qui est la principale embuscade. C'est l'adaptation excessive qui est la principale conséquence de l'utilisation de données d'entrée "bruitées".
Avez-vous échantillonné sur la parcelle d'histoire dans l'échantillon et testé sur la parcelle hors échantillon ? Si vous sélectionnez des prédicteurs dans l'ensemble du graphique et que vous calculez ensuite l'erreur hors échantillon dans une partie de ce même graphique, vous vous projetez dans l'avenir.
Encore plus difficile.
Je suis le fil de discussion avec grand intérêt.
Compte tenu du message d'Aleks, il n'est pas clair ce que vous allez prédire : la direction ou la magnitude ? Si l'on parle de "direction", il s'agit alors de modèles de classification, et si l'on parle de "magnitude", il s'agit alors de modèles de régression, et ils ont des problèmes avec différents ARIMA et ARCH. La déstratification avec différenciation ne résout pas complètement le problème, pour tous en macroéconomie la saisonnalité est confuse.....
L'idée des-Aleks- pour la sélection des prédicteurs est très intéressante. En général, lors de la première étape, je fais deux démarches préliminaires :
1. sélectionner par-Aleks- un ensemble assez large de variables indépendantes.
2. Construit une régression et élimine toutes les variables qui ont des coefficients non significatifs.
La dernière étape n'est vraiment pas facile. Tout est comme je l'ai écrit, à condition qu'il n'y ait pas de corrélation entre les variables indépendantes. Et il y a toujours une corrélation supérieure à 0,7 et la liste des prédicteurs écartés dépend de l'ordre dans lequel on procède.
Après cela, on peut l'examiner et décider de ce qu'il faut faire ensuite.
L'exigence de stationnarité est très stricte et totalement injustifiée.
.
Et les modèles "non stationnaires" fonctionnent très bien ;)
On peut dire cela de n'importe quel modèle, non seulement de régression, mais aussi de modèles neuronaux, ARMA et autres. S'il n'y a pas de relation entre les entrées et les sorties, tout modèle générera une prédiction, mais elle sera inexacte.
Une grande ou une petite quantité de données d'entrée est toute relative.
C'est une idée intéressante. C'est-à-dire se concentrer uniquement sur les ruptures de tendance et identifier les indicateurs clés qui influencent ces ruptures.
J'ai beaucoup pensé aux valeurs aberrantes. Il faut les ignorer ou, à l'inverse, leur accorder plus d'attention. La théorie classique de la régression enseigne qu'il faut les ignorer. Mais il me semble parfois que les petites fluctuations de prix autour d'une tendance sont un bruit, alors que la régression classique leur donne la plus grande importance. Les virages abrupts dans les tendances (valeurs aberrantes) constituent probablement un signal plus important. Mais toutes mes tentatives pour construire un modèle prêtant davantage attention aux valeurs aberrantes (par exemple en choisissant u>1) ont conduit à une erreur quadratique moyenne de prédiction plus élevée. Le lissage des valeurs aberrantes a permis de réduire l'erreur de prédiction.
Ainsi, nous pouvons considérer le décalage - et calculer le pourcentage d'écart par rapport à la rupture de prix lorsque l'indicateur économique sort. Il y a encore quelques idées, mais l'évidence de leur utilisation peut être comprise sur place.
En général, beaucoup de données économiques sont relatives au mois ou à l'année précédente, ce qui doit également être pris en compte dans la représentation graphique...
Une autre idée - ce ne sont probablement pas les données elles-mêmes qui influencent le changement de tendance, mais leur déviation par rapport aux données attendues ou à la dynamique passée - ici vous pouvez également vérifier - en comparant la dynamique passée du mouvement de l'indice avec son changement (fort changement le long du vecteur ou contre - au moins en utilisant la SMA) et regarder le changement du vecteur du mouvement du prix avec un décalage.
Je ne suis pas sûr que tout ce travail puisse être effectué par une seule personne - il faut un plan d'action clair et une méthodologie d'analyse des résultats intermédiaires - c'est peut-être le travail d'une vie, qui répondra à la question de savoir comment les performances économiques passées du marché ont été influencées... Cependant, la méthodologie développée vous permettra de rechercher des modèles dans les mouvements actuels du marché.
En développant l'idée, nous devrions diviser les différents indicateurs en fonction de la fréquence de leur publication - probablement, plus l'indicateur est rare, plus il a un impact long sur le marché.
Non. Les plus influents pour les États-Unis sont lespourcentages de l'UR et de laréunion du FOMC. Ils sont mensuels.
Si les données sur le chômage sont formalisées, les minutes des réunions de la Fed ne peuvent numériquement pas être formalisées du tout.
Sinon, ce serait comme deux doigts...
Pour ce nombre de variables, 65 observations, c'est très peu.
Au moins i*10 observations + 15-20% pour un test à terme.
Non. Les plus influents pour les États-Unis sont lespourcentages de l' UR et de laréunion du FOMC. Ils sont mensuels.
Si les données sur le chômage sont formalisées, les minutes des réunions de la Fed ne peuvent numériquement pas être formalisées du tout.
Sinon, ce serait comme deux doigts...