Statistiques de dépendance entre guillemets (théorie de l'information, corrélation et autres méthodes de sélection de caractéristiques) - page 30
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
analyse des résidus pour l'autocorrélation et le type de fonction de densité de probabilité. Et aussi, bien sûr, R^2. Ce sont, en principe, des techniques courantes de prédiction des séries temporelles.
Ce n'est qu'un début et, dans le sens d'une acceptation générale, ce n'est pas complet. Une version complète est présentée ici, bien qu'il ne s'agisse que d'un exemple d'utilisation. Trois groupes d'analyses : coefficients, résidus et stabilité. Si vous pouvez réconcilier les contradictions, vous pouvez obtenir une estimation, qui est toujours une erreur de prédiction, puisque l'objectif est la prédiction et que tout le reste est constitué des résultats intermédiaires.
Oui, je ne pense pas avoir jamais fait une étude académique complète. Comme le temps et les efforts manquent généralement, je choisis la voie la plus courte : construire plusieurs (2 ou plus) modèles prédictifs et effectuer une analyse des résidus, puis choisir un modèle sur la base d'une évaluation équilibrée de la précision et de la qualité de la série de résidus. Je conviens que, avec le temps, on peut approfondir les estimations de la fiabilité des prédicteurs.
À propos, un bon test, relativement peu coûteux, de la précision et de la stabilité d'un prédicteur est la validation croisée, où les périodes d'apprentissage et de validation sont choisies de nombreuses fois de sorte que, finalement, la série originale entière est divisée en petits segments et chaque segment est inclus dans l'échantillon de validation.
Ouais, je ne pense pas avoir jamais fait une étude académique complète. En général, je manque de temps et d'efforts dans mon travail, alors j'emprunte une voie plus courte : construire plusieurs (2 ou plus) modèles prédictifs et faire une analyse des résidus, puis choisir un modèle sur la base d'une évaluation équilibrée de la précision et de la qualité de la série de résidus. Je suis d'accord pour dire que, avec le temps, on peut approfondir les estimations de la fiabilité des prédicteurs.
À propos, un bon test, relativement peu coûteux, de la précision et de la stabilité des prédicteurs est la validation croisée, où les périodes d'apprentissage et de validation sont choisies de nombreuses fois, de sorte que, finalement, la série originale entière est divisée en petits segments et chaque segment est inclus dans l'échantillon de validation.
Depuis très longtemps, je donne les conseils suivants, qui sont le fruit de ma propre expérience. Depuis une trentaine d'années, et surtout aujourd'hui, la manière la plus productive de maîtriser une matière est de suivre un programme prêt à l'emploi axé sur cette matière. J'ai mentionné EViews, mais ce n'est pas le seul paquet. C'est juste que ce paquet est utilisé dans l'enseignement dans nos universités. En utilisant le paquet, vous gagnerez :
Un grand nombre de programmes spécialisés qui ont été exécutés et vérifiés par des millions d'utilisateurs.
schéma d'analyse
l'exhaustivité de l'analyse
les références dont sont issus les algorithmes utilisés.
Après avoir acquis de l'expérience et une perspective, vous pouvez alors passer à des améliorations. Mais ces améliorations seront fondées sur une connaissance systématique du sujet et il ne vous viendra pas à l'esprit de faire appel à Peters ou à quelqu'un d'autre comme Ptolémée, comme certains l'ont fait plus haut.
Depuis très longtemps, je donne les conseils suivants, durement acquis par ma propre expérience. Depuis une trentaine d'années, et surtout aujourd'hui, le moyen le plus productif d'apprendre une matière est de suivre un programme prêt à l'emploi axé sur cette matière. J'ai mentionné EViews, mais ce n'est pas le seul paquet. C'est juste que ce paquet est utilisé dans l'enseignement dans nos universités. En utilisant le paquet vous obtenez :
un grand nombre de programmes spécialisés fonctionnels et testés pour des millions d'utilisateurs
Un cadre d'analyse
Complétude de l'analyse
Listes des références d'où proviennent les algorithmes utilisés.
Une fois que vous avez acquis de l'expérience et une bonne perspective, vous pouvez alors passer à d'éventuelles améliorations. Mais ces améliorations seront fondées sur une connaissance systématique du sujet et il ne vous viendra pas à l'esprit de faire appel à Peters ou à quelqu'un d'autre comme Ptolémée, comme certaines personnes l'ont fait ci-dessus.
Désolé, mais l'essentiel est que l'énoncé du problème et les conclusions soient corrects. Par exemple, ce qui est écrit dans l'article relatif au "Diagnostic des indicateurs" et les conclusions sur la base des résidus que l'indicateur est utile ou non, etc. - n'est pas correct (imha). Tout comme il n'est pas vrai que l'indicateur doit prédire ou être utile du tout sur l'ensemble de la série. Vous n'avez pas besoin de prévoir les prix en permanence pour réaliser des bénéfices, mais seulement à des moments relativement rares. Prédiction dans un certain sens, car il ne s'agit pas d'un changement de prix unique, mais de la robustesse du système et de la répétition des statistiques passées. Et ce ne sont pas les indicateurs qui font des prédictions, mais uniquement le système dans son ensemble.
P.S. L'article est toujours utile, merci :)
Par exemple, ce que vous avez écrit dans l'article en relation avec les "diagnostics d'indicateurs" et les conclusions basées sur les résidus que l'indicateur est utile ou non, etc. - n'est pas correct (imha). Il n'est pas non plus vrai que l'indicateur doit prédire ou être utile du tout sur l'ensemble de la gamme.
Je suis d'accord, l'article est écrit avec une certaine hésitation, car son but était de démontrer l'approche en général, la méthodologie dans son intégralité, pour ainsi dire.
Il n'est pas nécessaire de faire des prévisions de prix en permanence pour réaliser des bénéfices, mais seulement dans des moments relativement rares.
Je ne suis pas du tout d'accord. Toute TS prédit toujours, qu'elle l'admette ou non. Avec la périodicité, une analyse est faite pour prendre des décisions pour le futur : prendre une position, sortir, rester hors du marché ou rester sur le marché. Ces décisions sont fondées sur les prévisions du comportement futur du marché.
Ce n'est pas un changement de prix unique qui est prédit, mais la robustesse du système.
La robustesse n'est pas prédite, elle est construite, tandis que le résultat de la construction est évalué par l'erreur de prévision - si la variance de l'erreur est proche d'une constante, le système sera stable.
Et ce ne sont pas les indicateurs qui prédisent, mais uniquement le système dans son ensemble.
Naturellement. L'article suppose que le système est constitué d'un seul indicateur. Même avec cette simplification, l'article est devenu trop compliqué.
Si vous voulez discuter de l'article en détail, je vous suggère de passer au sujet approprié, peut-être que d'autres se joindront à vous. Ce fil de discussion a un sujet différent après tout.
Il n'est pas nécessaire de prévoir constamment les prix pour réaliser des bénéfices, mais seulement en de relativement rares occasions.
Complètement en désaccord. Toute TS prédit toujours, qu'elle l'admette ou non. Avec la périodicité du TS, une analyse est faite pour prendre des décisions pour le futur : prendre une position, sortir, rester hors du marché ou dans le marché. Ces décisions sont fondées sur une prévision du comportement futur du marché.
Ce n'est pas un changement de prix unique qui est prévu, mais la robustesse du système.
La robustesse n'est pas prédite, mais construite, et le résultat de la construction est évalué par l'erreur de prédiction - si la variance de l'erreur est proche d'une constante, alors le système sera stable.
Il est possible que ce soit le cas. Mais lorsque nous construisons une série de retours de la forme suivante : X[t]-X[t-1], cela ne se voit presque pas. J'utilise les mots retours, incréments, rendements, ce sont tous des séries de prix différenciés.
L'asymétrie de la probabilité dans la direction du changement de signe est minime et insignifiante. Mais si vous calculez l'entropie conditionnelle entre la variable dépendante et les rendements sur deux décalages ou plus, alors toute l'inégalité est prise en compte dans le chiffre résultant, de sorte que l'entropie est réduite.
J'ai essayé d'entraîner NS sur des données horaires et n'ai pris que les lags les plus informatifs (42 variables, sur les lags 1, 2, 23, 23, 25,... 479, 480, 481). Malheureusement, le résultat n'a pas été très bon. Précision de la prédiction du nombre quantile - dans la région de 30-40%. Bien que les irrégularités que le réseau neuronal a été en mesure de traduire à la sortie, mais les dépendances ne sont pas suffisantes pour la prédiction. Tout le problème est que les variables indépendantes sont mutuellement informatives aux lags 1, 2, 24..... et la quantité totale d'informations sur la barre de zéro est vraiment faible. Nous devrions penser comme une option de prendre les cadres quotidiens et supérieurs.
J'ai supposé dès le départ que la technique détecte toutes les dépendances, qu'elles soient utiles ou non pour les prévisions. En ce qui concerne la volatilité, il existe des preuves concrètes pour soutenir une telle hypothèse ici. En d'autres termes, vos décalages "informatifs" peuvent simplement être encombrés de ce type d'informations inutiles pour la prédiction.
Je pense que mon temps dans ce fil est soit terminé, soit pas encore arrivé :). Il est probablement temps pour la fontaine de se reposer :).
J'ai supposé dès le départ que la méthodologie détecte toutes les dépendances, tant celles qui conviennent à la prédiction que celles qui sont inutiles. En ce qui concerne la volatilité, certains éléments viennent étayer cette hypothèse. En d'autres termes, vos décalages "informatifs" peuvent simplement être encombrés de ce type d'informations inutiles pour la prédiction.
Je m'en suis bien rendu compte aussi. Le problème s'est compliqué au point de devoir trouver des signes informatifs d'un changement de prix. Et s'il s'avère qu'aux échéances intrajournalières, les décalages informatifs requis sont cycliques (je soupçonne qu'ils le sont), alors leur information totale sur la direction du mouvement des prix sur la barre zéro sera très faible...
Je vais le vérifier. Ensuite, il y aura : essayer d'étudier les barres quotidiennes et probablement les semaines peuvent encore être statistiquement fiables. Mais si les décalages informatifs sont cycliques là aussi, hélas, je pense que l'idée d'utiliser uniquement les décalages ne fonctionnera pas. Ensuite, vous pouvez essayer les indicateurs.
C'est ce que j'avais prévu dès le départ, d'ailleurs. Mais jusqu'à ce que je le teste, la fontaine ne disparaîtra pas.
"Donc, vos décalages "informatifs" pourraient juste être encombrés de ce genre d'informations inutiles pour la prédiction."
Et qu'est-ce que tu entends par "information inutile" ? OK, bien, la volatilité n'est pas notre amie. Il y a aussi des composantes de bruit. Je pense que vous avez décidé très tôt d'abandonner la méthode. Il faut savoir utiliser n'importe quel outil, j'apprends encore, donc il y a plus d'eau que de calories ici.
Je l'ai déjà suggéré : affichez n'importe quel indicateur et l'objectif qu'il indique. Une condition est qu'il doit être conforme aux formules d'Echel et qu'il doit être possible de jouer avec ses paramètres. L'objectif doit également être spécifique, par exemple, le prix baissera dans un maximum de 6 barres, ou le prix dépassera le prix actuel de 10 points. J'analyserai les données et je vous donnerai un ensemble de paramètres d'indicateurs optimaux en termes d'entropie de l'information.
Il devrait, en réalité, correspondre au moins partiellement aux statistiques de back-test qui nous sont favorables.
Espérer "favorable" ou avoir une expression chiffrée pour ce "favorable". J'ai nommé ci-dessus l'une des valeurs calculées - la variation de la variance de l'erreur de prévision ne doit pas dépasser 5%. Mais ce n'est pas la seule exigence pour un système robuste. Et le test du dos ne fait que donner l'espoir que cela ne changera pas.
Oui, il existe des méthodes pour évaluer la robustesse.
Appliqué au sujet et à votre article : le moyen d'amener toute la série de prix à une forme stationnaire avec un MO positif est de créer un système de retournement rentable et robuste qui est toujours sur le marché. Cela s'applique également à la manière de distinguer une série réelle d'une série aléatoire. C'est, en effet, l'indicateur qui passera vos tests et le critère qui distinguera les vraies séries des SB est l'algorithme de ce système. Il est donc naïf de croire qu'un indicateur pris au hasard ou la méthode de l'information mutuelle constitue un tel algorithme pour les cotations du marché. Cela ne peut arriver que par pur hasard.
La théorie des marchés efficients n' est pas prise en compte dans l'économétrie. Toutes ses hypothèses sont basées sur le fait que le marché n'est pas efficient. L'économétrie ne comprend pas Markowitz et ses apologistes et leurs portefeuilles efficients. L'économétrie existe depuis plus de 100 ans ; elle n'a jamais été réfutée par Peters, Mandelbrot et d'autres, car elle repose à l'origine sur l'hypothèse que le marché est non stationnaire.
C'est l'économétrie qui justifie une prévision un pas en avant et qui montre les raisons de la détérioration fatale de la prévision plusieurs pas en avant.
le problème est que les indicateurs macro peuvent changer périodiquement leur pondération, etc... + la courte période de temps disponible pour une analyse complète...
Je suis d'accord, bien sûr, que la phase doit être présente dans l'analyse...