Ökonometrie: Vorhersage einen Schritt voraus - Seite 73

 
faa1947:

Ja, 40 ist ein bisschen wenig. Habe den Test gemacht und oben geschrieben. Eine weitere Vergrößerung der Probe nach 70 hat keinen Einfluss auf das Ergebnis. Hier ist das Ergebnis der Stichprobenlänge. Das ist erwähnenswert. Die Modellkoeffizienten werden geschätzt:

EURUSD = C(1)*HP1(-1) + C(2)*HP1(-2) + C(3)*HP1_D(-1) + C(4)*EQ1_HP2(-1) + C(5)*EQ1_HP2(-2) + C(6)*EQ1_HP2(-3) + C(7)*EQ1_HP2_D(-1) + C(8)*EQ1_HP2_D(-2) + C(9)*EQ1_HP2_D(-3) + C(10)*EQ1_HP2_D(-4)

Insgesamt gibt es 10. Alle Koeffizienten sind Zufallsvariablen. Frage: Bei welcher Probenlänge werden sie annähernd konstant sein. Ich werde alle Koeffizienten in einer Abbildung darstellen:

Hier ist die Stichprobe = 80 Beobachtungen. Sie können sehen, dass sich nach der Hälfte der Stichprobe alles anpasst, insbesondere der Fehler bei der Bewertung des Koeffizienten. Für den ersten Koeffizienten werde ich einen größeren angeben:

Dies ist eine Schätzung des Koeffizienten selbst - wir sehen, dass sein Wert keine Konstante ist.

Und nun der Fehler bei der Schätzung des Koeffizienten:

Daraus schließe ich, dass die Stichprobe bei über 60 Beobachtungen liegen sollte.

Wir brauchen stabile Koeffizienten mit einem kleinen Fehler - dies ist ein Maß für die Stichprobenlänge!




Die Konvergenz der Modellkoeffizienten oder ihrer Fehler zu einer bestimmten Zahl bestimmt nicht die Anzahl der erforderlichen Beobachtungen. Nehmen wir eine gewöhnliche LR: Je kleiner die Daten sind, desto schneller ändern sich ihre Koeffizienten, und desto langsamer steigen sie. Dies ist jedoch eine Eigenschaft der Regression selbst, nicht ihre Genauigkeit bei der Vorhersage von Reihen. Sie bestimmt auch nicht die Größe des Regressionsberechnungsfensters.

Wenn Sie ein Kriterium anwenden, das numerische Ergebnisse liefert, sollten Sie nicht nur eine Zahl kennen, sondern auch wissen, inwieweit Sie ihr in diesem Fall vertrauen können. Zu diesem Zweck verwendet die mathematische Statistik zum Beispiel die DI.

 
Avals:

Und übrigens, was die Analyse der Residuen bei Normalverteilung angeht: Nur 116 Beobachtungen sind sehr wenig, um zuverlässige Ergebnisse zu erhalten. D.h. natürlich kann der Test angewendet werden und er wird die Verteilung mit einer gewissen Wahrscheinlichkeit als normal einstufen, aber wie groß ist das Konfidenzintervall dieser Vorhersage? D.h. 25% ist wiederum ein sehr ungefährer Wert und kann z.B. der Bereich von 0...50 mit einem Konfidenzniveau von 95% sein oder 22...28. Er hängt sowohl von der Anzahl der Beobachtungen als auch von der Varianz ab. Mir scheint, dass der CI bei 116 Beobachtungen sehr groß ist.

Ich analysiere nicht nach Normalität. Und warum?

Zunächst einmal müssen wir aus dem Quotienten herausfinden, was wir verwenden können: die Korrelation der Beobachtungen. Wenn wir ein Residuum ohne Korrelationen erhalten, müssen wir herausfinden, ob es irgendwelche anderen Informationen gibt, die verwendet werden können - ARCH. Wenn ja, dann modellieren Sie auch diese Information (schreiben Sie eine analytische Formel). Das ideale Residuum ist dasjenige, aus dem wir keine Informationen für die Modellierung extrahieren können (nicht kennen, nicht wissen).

 
paukas:
Entscheiden Sie sich irgendwie.....
Es ist eine sehr gute Angewohnheit, einen Satz bis zum Ende zu lesen, oder noch besser, einen Absatz bis zum Ende, oder noch besser, alles, was der Autor schreibt.
 
Avals:


Die Konvergenz der Modellkoeffizienten oder ihrer Fehler zu einer bestimmten Zahl bestimmt nicht die Anzahl der erforderlichen Beobachtungen. Nehmen wir eine gewöhnliche LR: Je kleiner die Daten sind, desto schneller ändern sich ihre Koeffizienten, und desto langsamer steigen sie. Dies ist jedoch eine Eigenschaft der Regression selbst, nicht ihre Genauigkeit bei der Vorhersage von Reihen. Sie bestimmt auch nicht die Größe des Regressionsberechnungsfensters.

Wenn Sie ein Kriterium anwenden, das numerische Ergebnisse liefert, müssen Sie nicht nur die Zahl kennen, sondern auch wissen, wie sehr Sie ihr in einem bestimmten Fall vertrauen können. In der mathematischen Statistik wird zu diesem Zweck zum Beispiel eine DI verwendet.

Die Argumentation ist nicht ganz klar: Warum sollte man das Fenster vergrößern, wenn der Koeffizient konstant ist und der Schwingungskoeffizient konstant ist? Dies lässt sich an den Zahlen ablesen.

 
faa1947:
Es ist eine sehr nützliche Gewohnheit, einen Satz bis zum Ende zu lesen, oder noch besser, einen Absatz bis zum Ende, oder noch besser, alles, was der Autor schreibt.
Eine noch nützlichere Angewohnheit ist es, so zu schreiben, dass es nicht nur für den Autor, sondern auch für den durchschnittlichen Großbauern Sinn macht.
 
Reshetov:

Endlich hat der Adept der Sekte das Hauptgeheimnis des religiösen Tricks gelüftet!

Elementar, Watson! Weil sie nicht stationär sind. Stationarität liegt vor, wenn Streuung und Erwartung konstant sind und nicht von der Stichprobe abhängen, an der sie gemessen werden. D.h. in jeder anderen unabhängigen Stichprobe sollten wir ungefähr die gleichen Konstanten erhalten. Wenn wir sie nicht erhalten haben, ist die Stationaritätshypothese widerlegt.

Die Stationaritätshypothese kann auf andere Weise getestet werden, indem der Stichprobenumfang erhöht wird. Im Falle der Stationarität müssen auch Varianz und Erwartungswert konstant bleiben.


Ach, komm schon! Das Hauptproblem des Modells liegt nicht in der Nicht-Stationarität des Marktes, sondern im Modell selbst, es kann einfach nicht funktionieren, wie der Strategietester beweist, was der Themenstarter nicht wahrhaben will, und gleichzeitig wundert er sich, warum sein Modell nicht funktioniert. Es gibt keinen Grund, ein solches Durcheinander mit R^2 usw. zu veranstalten, wenn einfache Tests eine viel objektivere Methode sind, um zu zeigen, was was ist.

Wenn Sie eine solche Stationarität wünschen, verwenden Sie bitte Äquivolumen-Charts. Warum auch immer, die Volatilität ist eine Konstante, die Streuung und der M.O.S. müssen endlich sein, aber es wird wenig nützen, da das Modell auf gewöhnlichen Charts nicht funktioniert hat und auch auf Äquivolumen-Charts nicht funktionieren wird.

 
faa1947:

Ich analysiere nicht nach Normalität. Und warum?

Aus dem Quotienten lässt sich zunächst die Korrelation zwischen den Beobachtungen ablesen. Wenn wir ein Residuum ohne Korrelationen erhalten, müssen wir herausfinden, ob es irgendwelche anderen Informationen gibt, die verwendet werden können - ARCH. Wenn ja, dann modellieren Sie auch diese Information (schreiben Sie eine analytische Formel). Das ideale Residuum ist eines, aus dem wir keine Informationen für die Modellierung extrahieren können (wir wissen nicht wie, wir wissen es nicht).


Wie kann man das nicht analysieren? Sie haben es in Ihrem Artikel 1.3 geschrieben. Schätzung der Residuen aus einer Regressionsgleichung

Sie erhalten konkrete Zahlen -

"Die Wahrscheinlichkeit, dass das Residuum normalverteilt ist, beträgt 25,57 %."

ACF, etc. etc.

Aber diese Zahlen sind wertlos, wenn man nicht weiß, inwieweit man ihnen Glauben schenken kann.

Kann man dem Gewinnfaktor von 400 Geschäften ebenso vertrauen wie dem von 40? Das gilt auch für alle anderen statistischen Werte und numerischen Kriterien - genaue Schätzungen sind erforderlich. Das Konfidenzintervall ist eine Möglichkeit, dies zu tun. 116 Beobachtungen reichen nicht aus, um die Ergebnisse der Zuordnung oder Nicht-Zuordnung einer Verteilung zur Normalverteilung zu glauben, unabhängig davon, welches Kriterium angewandt wird.

 
faa1947:

Die Taubheit ist verblüffend.

Ich weise schon seit Jahren darauf hin, dass der Kotir nicht stationär ist und nicht vorhergesagt werden kann.

Ich habe schon die ganze Zeit gesagt, dass der Quotient nicht stationär ist, aber er kann vorhergesagt werden, wenn das Residuum des Modells stationär ist. Das Residuum ist von Interesse, weil man dann das (analytische) Modell mit einem stationären Residuum aufaddieren kann. Diese Summe ist gleich dem Quotienten, kein einziger Pip geht verloren. Das habe ich oben schon hundertmal geschrieben. Nicht dasselbe, versierte Tschuktschen, die zwar Schriftsteller, aber keine Leser sind.

Reden Sie weiter. Das Residuum ist nicht stationär, denn wenn das an eine einzelne Stichprobe angepasste Modell an einer anderen unabhängigen Stichprobe getestet wird, ist das Residuum nicht mehr konstant. Es ist möglich, Anpassungen an andere Proben vorzunehmen, aber nach diesen Anpassungen erhalten wir ein anderes Modell für jede einzelne Probe.

Ich wiederhole es noch einmal für die besonders Begabten: Stationarität kann nur durch den Zufall statistischer Daten über verschiedene, unabhängige Stichproben nachgewiesen werden. Und es gibt keinen solchen Zufall.

Der Trick bei ökonometrischen Manipulationen besteht darin, dass sie eine Methode gefunden haben, um ein Modell so an eine Stichprobe anzupassen, dass alle Residuen in dieser Stichprobe ungefähr gleich sind. Da ein solcher Trick jedoch nur für eine einzige Stichprobe gilt und das Modell in anderen Stichproben andere Ergebnisse liefert, ist das Residuum nicht stationär, sondern nur an eine einzige Stichprobe angepasst. Ökonometrische Modelle können die Zukunft nicht extrapolieren, da sie noch nicht über historische Daten verfügen (die erst in der Zukunft erscheinen werden), die an das Modell angepasst werden können.

Es ist dasselbe wie bei einem neu gezeichneten Indikator - er passt seine Messwerte an bestimmte Daten an und ändert sie rückwirkend.

 
faa1947:

Die Argumentation ist nicht ganz klar: Warum sollte das Fenster vergrößert werden, wenn der Koeffizient konstant ist und der Osh-Koeffizient konstant ist? Dies lässt sich an den Zahlen ablesen.



Ich schlage nicht vor, dass das Fenster für die Berechnung der Regressionskoeffizienten vergrößert werden sollte. Das Zeitfenster dafür ist nicht durch ihre Konvergenz zu einer Zahl definiert. Ich spreche von der Anzahl der Beobachtungen und wie sie sich auf die Genauigkeit Ihrer Kriterien und statistischen Schätzungen auswirkt.
 
Die Faustregel in der Statistik besagt, dass mindestens 300 Punkte erreicht werden sollten, was die Untergrenze darstellt.