Abhängigkeitsstatistik in Anführungszeichen (Informationstheorie, Korrelation und andere Methoden der Merkmalsauswahl) - Seite 73

 
alexeymosc:

Gut gesagt! Wir, Alexej, sind für Marktineffizienzen. Und wir haben bereits praktische Ergebnisse, die dies zeigen, aber nicht durch das Prisma des klassischen statistisch-ökonometrischen Ansatzes sichtbar sind.

Was Ihr Ergebnis betrifft, so haben Sie meinen Beitrag ignoriert.

Lass es sein. Aber.

Der klassische ACF weiß, woran er ist, und nicht ich allein, sondern Millionen. Nach der Detrendierung ergibt der ACF selten Abhängigkeiten von mehr als 10, und wenn doch, dann handelt es sich wahrscheinlich nicht um eine qualitative Tendenz. Bleiben jedoch Abhängigkeiten bestehen und übersteigt die Anzahl der Lags 40 (135 in Ihrer Abbildung), so handelt es sich um fraktionale Integrationsmodelle (FARIMA). Und was folgt aus Ihrem nicht klassischen Ansatz? Welche Modelle folgen, wenn Informationsabhängigkeiten festgestellt werden?

 
faa1947:

Könnte sein.

Ein Konfidenzintervall hört sich so an: Auf dem 5 %-Niveau (zum Beispiel) wird die Nullhypothese bestätigt (nicht bestätigt).

Wie lautet Ihre Nullhypothese? Wo liegt das Konfidenzintervall? usw. Wenn der ACF für mich eine verständliche Sache ist, ist Ihre Grafik nicht verständlich. Wenn der Höchstwert 2,098 Bits beträgt, sollten 0,05/2,098 nicht diskutiert werden. Und die Probleme, die am Anfang der Linie stehen, werden nicht beseitigt.

Übrigens: Wonach haben Sie den ACF berechnet?

Zu dem, was ich dem ACF angerechnet habe, habe ich geschrieben. Bei den Daten aus der beigefügten Datei nehme ich nur die gesamte Datenreihe, nicht 100 Punkte wie Sie. Übrigens verstehe ich nicht, warum man 100 Datenpunkte nehmen muss. Das ist nicht genug, IMHO.

Über das Konfidenzintervall. Mein Ergebnis hört sich wie folgt an: Auf dem 0,01-Niveau wird die Nullhypothese, dass sich die Statistiken der gegenseitigen Information zwischen dem Nullbalken und den Lags bei den Zufalls- und Quellreihen nicht unterscheiden , nicht bestätigt.

Tut mir leid, dass ich nicht sofort geantwortet habe. Ich habe es nur vergessen und war ein bisschen beschäftigt.

 
Verstehe ich das richtig, dass acf hier für eine lineare Folge von Reihen betrachtet wird? Und ist es möglich, zum Begriff der Korrelation von Verteilungsdiagrammen mit zunehmender Serienlänge überzugehen?
 
alexeymosc:

Was ich zur Berechnung des ACF verwendet habe - ich habe es aufgeschrieben. Bei den Daten aus der beigefügten Datei nehme ich nur die gesamte Datenreihe, nicht 100 Punkte wie Sie. Übrigens verstehe ich nicht, warum man 100 Datenpunkte nehmen muss. Das ist nicht genug, IMHO.

Über das Konfidenzintervall. Mein Ergebnis hört sich wie folgt an: Auf dem 0,01-Niveau wird die Nullhypothese, dass die Statistik der gegenseitigen Information zwischen dem Null-Balken und den Lags bei den Zufalls- und Quellreihen nicht unterschiedlich ist , nicht bestätigt.

Ich danke Ihnen, Sie haben mir völlige Klarheit verschafft.
 
faa1947:
Danke, Sie haben mir völlige Klarheit verschafft.
Bitte sehr. Das war die Hauptaussage meines Artikels. Ich habe speziell einen Test am Ende durchgeführt: Kolmogorov-Smirnov und Mann-Whitney U-Test - für Stichproben ohne Angabe der Art der Verteilung. Beide Tests haben gezeigt, dass die Nullhypothese nicht bestätigt wird. Wie dies zu interpretieren ist, ist ein viel breiteres Thema.
 
alexeymosc:
Ich bitte Sie. Das war die Hauptaussage meines Artikels. Ich habe insbesondere einen Kolmogorov-Smirnov- und einen Mann-Whitney-U-Test am Ende für Stichproben ohne Angabe der Verteilungsart durchgeführt. Beide Tests haben gezeigt, dass die Nullhypothese nicht bestätigt wird. Wie dies zu interpretieren ist, ist ein viel umfassenderes Thema.
Woher kommen die Tests und der ACF überhaupt?
 
faa1947:
Woher kommen die Tests und der ACF überhaupt?
Ah, jetzt verstehe ich die Frage. Statistica.
 
alexeymosc:
Ah, jetzt verstehe ich die Frage. Statistica.
Der nächste, vorletzte Schritt ist EViews und der letzte Schritt ist dann R.
 
faa1947:
Der nächste, vorletzte Schritt ist EViews, und der letzte ist dann R.

Ich habe von Ihnen schon viel über EViwes gehört, ich werde es ausprobieren. R - haben auch gehört und sogar gesehen. Ich werde es auch ausprobieren, wenn ich Zeit habe. In einem medizinischen Forum habe ich gelesen, dass die Berechnungsergebnisse von Tests zwischen verschiedenen Programmen leider manchmal unterschiedlich ausfallen.

Und Excel im Allgemeinen - auch die Qualität von PRNG, im Gegensatz zu Statistica. Ich selbst habe Unterschiede in der Glattheit der Glocke der Normalverteilung festgestellt.

 

Wenn ich Zeit habe, würde ich dies gerne in diesem Thema tun. In Analogie zur privaten Autokorrelation (bei der der Einfluss von Zwischenschritten abgeschnitten wird) sollte der Einfluss von Zwischenschritten bei der Berechnung der gegenseitigen Information abgeschnitten werden.

Hier ist ein Beispiel. Dies ist die Autokorrelation der Volatilität (modulo) von EURUSD H1 in der Tiefe bis zu 480 Lags:

Und so sieht ein Diagramm der partiellen Autokorrelationen aus - d.h. der Einfluss von Zwischenschritten (falsche Korrelationen) wurde entfernt:

Sie können sehen, dass viele Korrelationen auf einmal abgeschnitten werden.

Hier möchte ich etwas Ähnliches tun, nur für eine Reihe von Rückgaben mit Vorzeichen. Zumindest wird ersichtlich, bis zu welchem Balken es wirklich eine Erinnerung gibt.