Économétrie : une prévision d'avance - page 73

 
faa1947:

Oui, 40 est un peu bas. J'ai fait le test et écrit ci-dessus. Après 70 ans, une nouvelle augmentation de l'échantillon n'affecte pas le résultat. Voici le résultat sur la longueur de l'échantillon. Il est à noter. Les coefficients du modèle sont estimés :

EURUSD = C(1)*HP1(-1) + C(2)*HP1(-2) + C(3)*HP1_D(-1) + C(4)*EQ1_HP2(-1) + C(5)*EQ1_HP2(-2) + C(6)*EQ1_HP2(-3) + C(7)*EQ1_HP2_D(-1) + C(8)*EQ1_HP2_D(-2) + C(9)*EQ1_HP2_D(-3) + C(10)*EQ1_HP2_D(-4)

Il y en a 10 au total. Tous les coefficients sont des variables aléatoires. Question : à quelle longueur d'échantillon ils deviendront approximativement une constante. Je vais montrer tous les coefficients dans une seule figure :

Ici, l'échantillon = 80 observations. Vous pouvez voir qu'après la moitié de l'échantillon tout s'ajuste et surtout l'erreur de l'évaluation du coefficient. Pour le premier coefficient je vais donner un plus grand :

Il s'agit d'une estimation du coefficient lui-même - on voit que sa valeur n' est pas une constante.

Et maintenant l'erreur d'estimation du coefficient :

J'en conclus que l'échantillon devrait être supérieur à 60 observations.

Nous avons besoin de coefficients stables avec une petite erreur - c'est une mesure de la longueur de l'échantillon !




La convergence des coefficients du modèle ou de leurs erreurs vers un certain nombre ne détermine pas le nombre d'observations nécessaires. Prenez un LR ordinaire et plus les données sont petites, plus vite il changera ses coefficients, et plus lentement il augmentera. Mais il s'agit d'une propriété de la régression elle-même, et non de sa précision dans la prédiction des séries. Et il ne détermine pas la taille de la fenêtre de calcul de la régression.

Si vous appliquez un critère, qui donne des résultats numériques, vous ne devez pas seulement connaître un chiffre, mais savoir dans quelle mesure vous pouvez lui faire confiance dans ce cas. Par exemple, à cette fin, la statistique mathématique utilise le DI.

 
Avals:

Et d'ailleurs, à propos de l'analyse des résidus pour une distribution normale : 116 observations seulement, c'est très peu pour que les résultats soient fiables. C'est-à-dire que bien sûr, le test peut être appliqué et il attribuera la distribution à la normale avec une certaine probabilité, mais quel est l'intervalle de confiance de cette prédiction ? C'est-à-dire que 25 % est une valeur très approximative qui peut correspondre à l'intervalle de 0 à 50 avec un taux de confiance de 95 %, par exemple, ou à 22 à 28. Cela dépend à la fois du nombre d'observations et de la variance. Il me semble qu'avec 116 observations, l'IC serait énorme.

Je n'analyse pas pour la normalité. Pourquoi ?

Tout d'abord, nous devons extraire du quotient ce que nous pouvons utiliser : la corrélation des observations. Si nous obtenons un résidu sans corrélations, nous devons alors chercher à savoir s'il existe d'autres informations pouvant être utilisées - ARCH. S'il y en a, alors modélisez (écrivez la formule analytique) cette information également. Le résidu idéal est celui dont on ne peut (ne sait pas, ne connaît pas) extraire aucune information pour la modélisation.

 
paukas:
Décidez-vous d'une manière ou d'une autre.....
C'est une très bonne habitude de lire une phrase jusqu'à la fin, ou mieux encore, un paragraphe jusqu'à la fin, ou mieux encore, tout ce que l'auteur écrit.
 
Avals:


La convergence des coefficients du modèle ou de leurs erreurs vers un certain nombre ne détermine pas le nombre d'observations nécessaires. Prenez un LR ordinaire et plus les données sont petites, plus vite il changera ses coefficients, et plus lentement il augmentera. Mais il s'agit d'une propriété de la régression elle-même, et non de sa précision dans la prédiction des séries. Et il ne détermine pas la taille de la fenêtre de calcul de la régression.

Si vous appliquez un critère qui donne des résultats numériques, vous devez connaître non seulement le chiffre, mais aussi la confiance que vous pouvez lui accorder dans un cas donné. Par exemple, la statistique mathématique utilise un DI à cette fin.

Le raisonnement n'est pas très clair : pourquoi augmenter la fenêtre si le coefficient est constant et que le coefficient d'oscillation est constant ? Nous pouvons le constater dans les chiffres.

 
faa1947:
C'est une habitude très utile de lire une phrase jusqu'à la fin, ou mieux encore, un paragraphe jusqu'à la fin, ou mieux encore, tout ce que l'auteur écrit.
Une habitude encore plus utile consiste à écrire d'une manière qui a du sens non seulement pour l'auteur, mais aussi pour l'agriculteur collectif moyen.
 
Reshetov:

Enfin, l'adepte du culte, a révélé le principal secret de la ruse religieuse !

Elémentaire, Watson ! Parce qu'ils sont non stationnaires. On parle de stationnarité lorsque la dispersion et l'espérance sont constantes et ne dépendent pas de l'échantillon sur lequel elles sont mesurées. C'est-à-dire que dans tout autre échantillon indépendant, nous devrions obtenir approximativement les mêmes constantes. Si nous ne les avons pas obtenus, alors l'hypothèse de stationnarité est réfutée.

L'hypothèse de stationnarité peut être testée d'une autre manière en augmentant la dimension de l'échantillon. En cas de stationnarité, la variance et l'espérance doivent également rester constantes.


Oh, allez ! Le principal problème du modèle ne réside pas dans la non-stationnarité du marché, mais dans le modèle lui-même, il ne peut tout simplement pas fonctionner, comme le prouve le testeur de stratégie, ce que le topicstarter ne veut pas admettre, et en même temps il se demande pourquoi son modèle ne fonctionne pas. Il n'est pas nécessaire de faire un tel gâchis avec R^2, etc. quand un simple test est un moyen beaucoup plus objectif de dire ce qui est quoi.

Si vous voulez une telle stationnarité, veuillez utiliser les graphiques d'équivolume. Pourquoi, la volatilité est une constante, la dispersion et le m.o.s. doivent être finis, mais cela ne servira pas à grand-chose, car le modèle ne fonctionnait pas sur les graphiques ordinaires et ne fonctionnera pas non plus sur les graphiques d'équivolume.

 
faa1947:

Je n'analyse pas pour la normalité. Pourquoi ?

Tout d'abord, ce qui peut être utilisé pour extraire du quotient est la corrélation entre les observations. Si nous obtenons un résidu sans corrélation, nous devons alors chercher à savoir s'il existe d'autres informations pouvant être utilisées - ARCH. S'il y en a, alors modélisez (écrivez la formule analytique) cette information également. Le résidu idéal est celui dont on ne peut (ne sait pas comment, ne sait pas) extraire aucune information pour la modélisation.


Comment faites-vous pour ne pas l'analyser ? Vous l'avez écrit dans votre article 1.3. Estimation des résidus d'une équation de régression

Vous obtenez des chiffres précis -

"La probabilité que le résidu soit normalement distribué est de 25,57 %."

ACF, etc. etc.

Mais ces chiffres n'ont aucune valeur sans une indication de la mesure dans laquelle on peut les croire.

Peut-on faire confiance au facteur de profit de 400 transactions comme à celui de 40 ? Il en va de même pour toutes les autres valeurs statistiques et critères numériques - des estimations précises sont nécessaires. L'intervalle de confiance est une façon de le faire. 116 observations ne suffisent pas pour croire les résultats de l'attribution ou de la non-attribution d'une distribution à la normale, quel que soit le critère appliqué.

 
faa1947:

La surdité est stupéfiante.

Je le répète depuis des années - le kotir n'est pas stationnaire et ne peut être prédit.

Je l'ai dit tout au long de ce fil - le quotient est non stationnaire, mais il peut être prédit si le résidu du modèle est stationnaire. Le résidu est intéressant car vous pouvez alors additionner le modèle (analytique) avec un résidu stationnaire. Cette somme est égale au quotient, pas un pip n'est perdu. Je l'ai écrit cent fois ci-dessus. Pas la même chose, les chukchi adeptes qui sont des écrivains mais pas des lecteurs.

Continuez à parler. Le résidu est non stationnaire, car si un modèle ajusté à un seul échantillon est testé sur tout autre échantillon indépendant, le résidu n'est plus une constante. Il est possible de faire des ajustements à d'autres échantillons, mais après ces ajustements, nous obtenons un modèle différent pour chaque échantillon individuel.

Une fois encore, je le répète pour les plus doués : la stationnarité ne peut être révélée que par la coïncidence de données statistiques sur des échantillons différents et indépendants. Et il n'y a pas de telle coïncidence.

L'astuce des manipulations économétriques est qu'ils ont trouvé une méthode pour ajuster un modèle à un échantillon de telle sorte que tous les résidus de cet échantillon soient approximativement égaux. Mais comme une telle astuce ne se produit que pour un seul échantillon et que dans d'autres échantillons le modèle donne des résultats différents, les résidus ne sont pas stationnaires, mais seulement ajustés à un seul échantillon. Les modèles économétriques ne peuvent pas extrapoler l'avenir car ils ne disposent pas encore de données historiques (qui n'apparaîtront que dans le futur) pouvant être ajustées au modèle.

C'est la même chose qu'un indicateur de redécoupage - qui ajuste ses relevés à des données spécifiques, les modifiant rétroactivement.

 
faa1947:

Le raisonnement n'est pas très clair : pourquoi augmenter la fenêtre si le coefficient est constant et que le coefficient osh. est constant ? Nous pouvons le constater dans les chiffres.



Je ne suggère pas que la fenêtre de calcul des coefficients de régression soit élargie. La fenêtre pour cela n'est pas définie par leur convergence vers un nombre. Je parle du nombre d'observations et de la manière dont il affecte la précision de votre critère et de vos estimations statistiques.
 
La règle empirique en matière de statistiques veut qu'il y ait au moins 300 points, ce qui est la limite inférieure.