Stochastische Resonanz - Seite 29

 
Yurixx:
Wenn es um Standard-TA-Indikatoren geht, nicht viel. Aber auch sie verdient Aufmerksamkeit. Ich habe die Bilder bereits gepostet. Hier finden Sie RSI-Charts für zwei verschiedene Zeiträume und meine Kommentare dazu. Wenn man den RSI so normalisiert, dass seine Größe nicht von der Glättungsperiode abhängt, kann er effektiver genutzt werden. Das Gleiche gilt für einige andere Indikatoren.


Es ist wichtig, wie der Indikator "verwendet" wird. Vielleicht gibt es keine solchen Probleme.

Es gibt einige Artikel zum Thema der Anpassungsfähigkeit von Indikatoren. Am einfachsten ist es, den Bollinger RSI zu überlagern. Einfache statistische Methode auf der Grundlage des RMS und ohne Erstellung theoretischer Verteilungen.

 
Mathemat:
Yurixx schrieb (a): Und wer hat gesagt, dass dieses Integral durch die Methode des Gradientenabstiegs gebildet wird?

Schon gut, Yurixx, ich schreibe diesen Satz nicht dir zu. Und wie sieht es mit der Skepsis gegenüber Erfindungen aus... Ich habe Maple zu Hause installiert, manchmal hilft es mir wirklich, auch bei symbolischen Berechnungen. Ich habe es aber schon lange nicht mehr benutzt.

Ich hatte früher ein Matcad, dann habe ich auf Matlab umgestellt. Kürzlich installierte neuroshell2. Wo sonst könnte ich mir die Zeit nehmen, mich mit all dem auseinanderzusetzen, und ich würde gerne... Es gibt einige Dinge, die ich wirklich gerne in den Griff bekommen würde.

Daher beschränkt sich meine skeptische Haltung, ohne zu scherzen, auf die Skepsis gegenüber meinen Fähigkeiten, alles zu begreifen, was ich will. All diese Dinge sind ein wunderbares Gepäck für die Anwendung bereits entwickelter und perfektionierter Methoden durch diejenigen, die nicht in die Tiefe zu gehen brauchen, die Ergebnisse in Zahlen brauchen. Wenn wir hier von uns allen sprechen, versuchen wir, etwas Neues zu schaffen. Ohne tiefe Einsicht ist das kaum möglich. Aber... Dafür sind Großväter da, um tief zu graben.

 
Avals:
Yurixx:
Wenn es um Standard-TA-Indikatoren geht, nicht viel. Aber auch sie verdient Aufmerksamkeit. Ich habe die Bilder bereits gepostet. Es gibt RSI-Charts für zwei verschiedene Zeiträume und meine Kommentare dazu. Wenn man den RSI so normalisiert, dass seine Größe nicht von der Glättungsperiode abhängt, kann er effektiver genutzt werden. Das Gleiche gilt für einige andere Indikatoren.


Es ist wichtig, wie der Indikator "verwendet" wird. Vielleicht gibt es kein solches Problem.

Es gab einige Artikel über die Anpassungsfähigkeit von Indikatoren. Am einfachsten ist es, den RSI von Bollinger zu überlagern. Eine einfache statistische Methode auf der Grundlage des RMS und ohne Erstellung theoretischer Verteilungen.


Zweifellos gibt es viele verschiedene Möglichkeiten und Methoden. Bedeutet dies, dass wir uns weigern sollten, etwas Neues zu tun, insbesondere "theoretische Verteilungen"?
 
grasn:

an Yurixx


:-))
 
Yurixx:

Ich habe eine interessante Frage, die mich beschäftigt. Kann mich jemand aufklären, warum eine so einfache und bequeme Verteilungsfunktion mit guten Eigenschaften nicht in der Statistik verwendet wird? Und wenn sie verwendet wird, warum wird dann nicht darüber geschrieben? Ich habe noch nie gesehen, dass jemand versucht hat, eine andere inkrementelle Verteilung als die Lognormalverteilung zu approximieren.

Ich kann davon ausgehen, dass in der Theorie Verteilungen verwendet werden, die aus ersten Prinzipien abgeleitet sind. Diese Funktion ist nur eine der möglichen Näherungsfunktionen, dies ist der Bereich der Phänomenologie.

Zum Kern meiner Arbeit möchte ich folgendes anmerken: Es ist notwendig klarzustellen, dass wir wirklich über die Erwartung Ymin und Ymax sprechen. Die "Tötungs"-Bedingung der Berechnung des minimalen Durchschnitts durch die minimalen Werte der Reihe gleicht diesen Nachteil aus, erzeugt aber einen weiteren - es handelt sich nämlich um die Wahrscheinlichkeit des Auftretens von M minimalen (maximalen) Werten der Reihe in einer Reihe (deshalb verwende ich das Wort "Tötung"). Wenn N gegen unendlich geht, tendiert die Wahrscheinlichkeit eines solchen Ereignisses gegen 0. Ich habe die Berechnungen nicht im Detail analysiert, aber wir müssen davon ausgehen, dass X1 gegen 0 und X2 ebenfalls gegen unendlich läuft. Danach folgen Ymin und Ymax demselben Weg, wobei ersterer im zweiten Bild deutlich zu sehen ist, der zweite natürlich in keinen Graphen passt. Das macht ihren Wert als Normalisierungskoeffizienten fragwürdig, auch wenn sie langsam genug tendieren.
Ich praktiziere die Normalisierung schon seit langem, auch für Preise. IMHO ist es am natürlichsten, ein Konfidenzintervall dafür zu verwenden. Das heißt, F(Ymax)=1-Delta, wenn man in der Praxis eine reale Verteilung von Y mit dem maximal verfügbaren N vornimmt und für das gewählte Delta Ymax durch Sortieren findet. Ich habe die Zeit nicht gemessen, aber für ein einfaches Y wird es nicht viel brauchen.
 
Yurixx:
grasn:

an Yurixx


:-))

Kurz und bündig. Verzeihen Sie mir meine krankhafte Neugier, Sie wollen immer alles verstehen, auch das, was Sie persönlich nicht brauchen. :о)

 
grasn:
Yurixx:
grasn:

an Yurixx


:-))

Kurz und bündig. Verzeihen Sie mir meine morbide natürliche Neugier, Sie wollen immer verstehen, auch was Sie persönlich nicht brauchen. :о)


Deshalb liebe ich euch alle, Leute! :-)
 
Yurixx:

...ich habe eine interessante Frage auf dem Weg. Kann mich jemand aufklären, warum eine so einfache und bequeme Verteilungsfunktion mit guten Eigenschaften nicht in der Statistik verwendet wird? Und wenn sie verwendet wird, warum wird dann nicht darüber geschrieben? Ich habe noch nie gesehen, dass jemand versucht hat, eine andere inkrementelle Verteilung als die Lognormalverteilung zu approximieren.

Jura, ich kenne die Antwort auf diese Frage nicht.

Ich kann nur vermuten, dass die von Ihnen vorgeschlagene Verteilung p(X)=A*(X^a)*exp(-B*(X^b)) ein Sonderfall ist (z. B. Verallgemeinerte Exponentialverteilung p(X)=a/(2G[1/a]*l*s)exp{-[(x-m)/l*sl*s]^a}, Bulaschew, S.41), oder die wenigen, die es auch geschafft haben, der Sache auf den Grund zu gehen, haben sich entschieden, zu schweigen und leise das Kraut auf der großen Forpolye zu mähen:)

Aber ich habe eine Gegenfrage!

Vor einiger Zeit beschäftigte ich mich mit autoregressiven Modellen beliebiger Ordnung (bei denen man die Abhängigkeit der Amplitude des aktuellen Balkens und seines Vorzeichens von der Summe der auf ihn einwirkenden Aktionen einer beliebigen Anzahl früherer Balken sucht). Ich habe dieses Problem so gut gelöst, dass ich anhand des Aussehens der Modellreihe nicht erkennen konnte, ob sie real war oder nicht, mit einer Ausnahme: Die Verteilungsfunktion (DP) der Modellreihe war weit von der Realität entfernt. Ich konnte nie den Grund für diese Diskrepanz finden. Intuitiv war ich der Meinung, dass die Übereinstimmung der Autokorrelationsfunktionen ausreicht, um die PDF ihrer ersten Differenzen zu erreichen. Es stellte sich heraus, dass es nicht so war... Es gibt etwas, das ich bei der Modellierung des Verhaltens der Residuenreihen nicht berücksichtige.

Was denken Sie über dieses Thema?

 

Ich werde mich hier einmischen, Neutron. Ich bin kein Statistiker, also musste ich die Frage auf mexmat.ru stellen. Sie finden es hier: http://lib.mexmat.ru/forum/viewtopic.php?t=9102

Frage: Welche Informationen über den stationären Prozess reichen aus, um ihn korrekt zu reproduzieren? Die Antwort lautete: Man muss die Kovarianzfunktion und den Mittelwert des Prozesses kennen. Ich weiß noch nicht, wie ich einen Prozess mit einer bestimmten Kovarianzfunktion erstellen kann. Die Idee ist jedoch, dass der resultierende Prozess als eine korrekte Implementierung des ursprünglichen simulierten Prozesses angesehen werden kann. Vielleicht war Ihr Prozess nicht stationär?

P.S. Ich möchte eine plausible Simulation des Residualprozesses (Renditen). Nach Peters ist die Verteilung der Residuen fraktal mit akzeptabler Genauigkeit, und der Prozess ist stationär. Obwohl andere Modelle nicht ausgeschlossen sind...

 
lna01:
Yurixx:

Ich habe eine interessante Frage, die mich beschäftigt. Kann mich jemand aufklären, warum eine so einfache und bequeme Verteilungsfunktion mit guten Eigenschaften nicht in der Statistik verwendet wird? Und wenn sie verwendet wird, warum wird dann nicht darüber geschrieben? Ich habe noch nie jemanden gesehen, der versucht hat, eine andere Verteilung als die Lognormalverteilung anzunähern.

Ich kann davon ausgehen, dass in der Theorie Verteilungen verwendet werden, die von ersten Prinzipien abgeleitet sind. Und diese Funktion ist nur eine der möglichen Näherungsfunktionen, das ist der Bereich der Phänomenologie.

In der Tat habe ich die folgende Anmerkung: Es ist notwendig, klarzustellen, dass wir wirklich über die Erwartung Ymin und Ymax sprechen. Die "Tötungs"-Bedingung der Berechnung des minimalen Durchschnitts durch die minimalen Werte der Reihe gleicht diesen Nachteil aus, erzeugt aber einen weiteren - es handelt sich nämlich um die Wahrscheinlichkeit des Auftretens von M minimalen (maximalen) Werten der Reihe in einer Reihe (deshalb verwende ich das Wort "Tötung"). Wenn N gegen unendlich geht, tendiert die Wahrscheinlichkeit eines solchen Ereignisses gegen 0. Ich habe die Berechnungen nicht im Detail analysiert, aber wir müssen davon ausgehen, dass X1 sich auf 0 und X2 sich ebenfalls ins Unendliche bewegen wird. Danach folgen Ymin und Ymax auf die gleiche Weise, der erste ist im zweiten Bild deutlich zu sehen, der zweite passt in kein Diagramm. Dies macht ihren Wert als Rationierungskoeffizienten zweifelhaft, selbst bei eher langsamem Streben.
Ich praktiziere die Normalisierung schon seit geraumer Zeit, auch bei den Preisen. IMHO ist es am naheliegendsten, dafür ein Konfidenzintervall zu verwenden. Das heißt, F(Ymax)=1-Delta, wenn man in der Praxis eine reale Verteilung von Y mit dem maximal verfügbaren N vornimmt und für das gewählte Delta Ymax durch Sortieren findet. Ich habe die Zeit nicht gemessen, aber für ein einfaches Y wird es nicht viel brauchen.



Ich stimme mit allen Kommentaren überein. Und das Bild vom Verhalten der Grenzwerte bei N -> dort ist vollkommen korrekt. Aber.

Es handelt sich nicht um eine Berechnung der Grenzwerte Ymin und Ymax, sondern nur um deren statistische Auswertung. Das Ziel, die Bereichsnormalisierung, stellt keine allzu strengen Anforderungen an die Genauigkeit der Aufgabe. In Anbetracht dessen halte ich solche (im Grunde falschen) Annahmen für durchaus akzeptabel. Wäre es jedoch notwendig, den Zeitpunkt des Anrufs jenseits der Grenze zu bestimmen, müsste dieser sehr viel genauer ermittelt werden.

Ich habe mich wirklich auf den Fall eines endlichen N beschränkt, was ich auch ausdrücklich gesagt habe. Wenn sogar Sie in Ihren Berechnungen das maximal verfügbare, aber endliche N verwenden, dann habe ich ein Recht darauf. :-)) Was damit geschieht, wenn N unendlich wird, ist unbekannt. Ein Trost: Sie und ich werden nicht mehr existieren. Und auch Forex.

Ich möchte Ihre Aufmerksamkeit auf den Hauptzweck des Problems lenken. Es geht nicht um die Berechnung von Ymin und Ymax an sich. Dabei geht es darum, die Daten einer abgeleiteten Reihe anhand der Daten der ursprünglichen Reihe neu zu berechnen. Außerdem ist Ihre Methode der Neuberechnung der Normalisierung willkürlich und an die historische Reihe gebunden, auf der Sie sie durchführen. Wenn Sie t/f umschalten, kann sich der Wert von 2000 bar auf, sagen wir, 500000 bar ändern. Das Erreichen der Bereichsgrenze sagt im ersten Fall nichts aus, im zweiten Fall jedoch sehr viel. Sie können meine Methode nur dann der Willkür bezichtigen, wenn Sie eine Modellverteilungsfunktion vor Augen haben. Wenn aber die reale, experimentell aufgezeichnete, "maximal verfügbare" Datenmenge durch die Modellverteilung gut approximiert wird, wo bleibt dann die Willkür?