Marktphänomene - Seite 23

 

Schrittweise Annäherung an die Modelle und das Phänomen. Stochastische Modelle mit einer Zufallsstruktur setzen natürlich die Modelle selbst und eine Beschreibung des Übergangs zwischen ihnen voraus (d. h. eine probabilistische Logik des Abfangens eines Prozesses durch einen anderen, die diese Modelle erzeugen). Wir können sagen, dass BP durch 100 Differentialgleichungen von Ito beschrieben wird, und dann gibt es eine Frage der Identifizierung von Modellen, - welche Funktionen, welche Verzerrungen, welche Diffusionskoeffizienten für jeden, was ist der anfängliche Wahrscheinlichkeitsvektor der Zustände der Systeme, im Allgemeinen - ist keine triviale Aufgabe.

Ich habe also eine Transformation erfunden, die jede ursprüngliche Zeitreihe in zwei Teilprozesse zerlegt. Ich habe noch nie etwas Ähnliches gesehen, aber vielleicht ist es einer der besonderen Fälle der kanonischen Darstellung von Zufallsfunktionen. Wer weiß, ich bin kein professioneller Mathematiker. Im Wesentlichen geht es darum, ein Raster zu "sichten". Aber egal, ich werde die Mathematik noch nicht auslegen, ich muss mich mit den Ideen und dem Konzept beschäftigen. Wichtig ist, dass wir nach der Transformation nur zwei Prozesse erhalten, die zwar linear sind, aber eine kompliziertere Struktur haben.

Zufälliger Prozess. Der Prozess ist in seinen Eigenschaften auf die Inkremente von M15 abgestimmt

Nach der Transformation erhalten wir:

Bei einem Zufallsprozess sind die Koeffizienten b(alpha) und b(omega) in den Modellen modulo gleich, der Längenunterschied zeigt die Vorherrschaft der einen oder der anderen Dynamik, und bei einem Zufallsprozess liegt die innere Struktur der getrennten Prozesse nahe an der Linie. Es gibt noch einige theoretische Fragen und die Entwicklung besserer Algorithmen, aber das ist eine andere Geschichte.

Übrigens ist eine weitere indirekte (im Sinne von noch nicht streng bewiesene) Behauptung, dass der zitierte Prozess nicht zufällig ist, da die Zerlegungsmerkmale sich von denen zufälliger BPs unterscheiden (nun ja ... noch nicht ganz).

Es bleibt also die Frage nach den Übergangswahrscheinlichkeiten zwischen den Zuständen (Prozessen). Wenn diese Übergänge als "markovianisch" angesehen werden können, ist es möglich, mit Hilfe der Kolmogorov-Chempen-Formel Wahrscheinlichkeiten für die Zustände des Systems zu einem bestimmten Horizont in der Zukunft zu erhalten.

Über das coolste Phänomen (das ist nicht nur ein Zweig der vorgefertigten Phänomene, als ob die Forschung erlaubt wäre oder nicht...). Also, hier bin ich mir sicher, dass es"stochastische Muster" gibt (TA hat nichts damit zu tun), eine sehr starke Gewissheit, ich hoffe, sie werden sich bestätigen. Es ist möglich, dass ich mich irre, und dann, das spüre ich schon, ist es beängstigend, sich vorzustellen, dass paukas doch eine Rechnung für den entgangenen Gewinn zur Zahlung vorgelegt wird.

 
IgorM:

Eines verstehe ich nicht: Warum müssen Sie Oreps analysieren?

Nun, die Oppens und Closes werden am Ende des Balkens künstlich abgesenkt oder angehoben, manchmal scheint es, dass am Ende des Balkens "ein Spiel stattfindet, um die Farbe der Kerze neu zu zeichnen".

Meine Theorie ist, dass alles, was wir von DTs bekommen, der ganze OHLC künstlich ist. Aber im Ernst, wir müssen den Prozess in gleichen Zeitabständen messen (irgendwie ist DSP aus technischer Sicht vertrauter und korrekter). Die OHLC-Eigenschaften scheinen mir nicht viel anders zu sein.
 
Farnsworth:
Aber im Ernst: Sie müssen den Prozess in gleichen Zeitabständen messen (DSP ist aus technischer Sicht vertrauter und korrekter).
NN, Sie sind auf der Suche nach einer Art von Schwung
 
IgorM:
NN, Sie sind auf der Suche nach einer Art von Schwung
Nein, der Impuls (und alle seine Ableitungen) hat nichts damit zu tun.
 
Farnsworth:
Meine Theorie ist, dass alles, was wir von DC bekommen, alles OHLC, künstlich ist. Aber im Ernst: Wir müssen den Prozess in gleichen Zeitabständen messen (da DSP aus technischer Sicht vertrauter und korrekter ist). Die OHLC-Eigenschaften scheinen mir nicht sehr unterschiedlich zu sein.
Nun, interessehalber könnten Sie versuchen, Alpha mit High-Am und Omega mit Low-Am zu beobachten.
 
marketeer:
Interessehalber könnten Sie versuchen, Alpha mit High-Am und Omega mit Low-Am zu beobachten.

Keine Frage, erst nächsten Sonntag, wenn ich im Labor bin. Ich glaube nicht, dass sie sich grundlegend ändern werden, auch alle Umrechnungsmerkmale werden ungefähr gleich bleiben.

für alle

Ich möchte noch einmal darauf hinweisen, dass ich nicht weiß, wie es den Kollegen geht, aber wenn man innerhalb des RMS des Inkrements einen Trend feststellt, war ich sehr überrascht. Ich gestehe, dass ich so etwas wie einen wandernden Trend erwartet habe. Das ist wirklich ein Trend. Ich habe es am Beispiel des Bestimmtheitsmaßes gezeigt, aber das ist ein sehr schlechter Indikator, weil er die Qualität der Modellanpassung in der ursprünglichen Reihe charakterisiert, d.h. eine lineare Regression kann jede Reihe perfekt anpassen, auch eine zufällige, und sie wird zeigen, dass z.B. 95% der Zeitreihen über 10 Jahre durch a+b*x innerhalb des durchschnittlichen Fehlers erklärt werden. Einmal verwendet fraktalen Eigenschaften, insbesondere die Schätzung der Hurst-Index in mehrere Möglichkeiten (R / S-Analyse, Varianz Varianz Abweichung ...). Die Berechnung nimmt viel Zeit in Anspruch, zeigt aber im Gegensatz zu Random Walks zuverlässig den Trend für eine bestimmte LAMBDA an.

Es gibt auch interessante Feinheiten, aber das kommt erst viel später.

 
Farnsworth:
Wir werden hoffentlich zu ernsthafterer "fraktaler" Mathematik bei der Untersuchung von "fat tails" kommen. Es wird noch einige Zeit dauern, aber im Moment stelle ich eine fast wissenschaftliche Studie vor, die mir einige Gedanken gebracht hat.

Annahmen über das Modell.

...

Taki, das ist viel interessanter als vorher.

Nun stellt sich die Frage, ob zwischen den Zählungen in beiden Prozessen eine sinnvolle Korrelation besteht (linearer Trend, das ist es nicht wirklich). Der Gedanke ist einfach: Wenn eine solche Abhängigkeit nach allen Transformationen auftritt, dann haben die Prozesse (beide) Eigenschaften, die sie von einem Random Walk unterscheiden.

Übrigens können wir es auch zur Aufteilung in Prozesse verwenden. D.h. nicht durch den RMS-Cutoff dividieren, sondern durch... ich weiß nicht, z.B. durch Autokorrelation.

 
HideYourRichess:

Taki, das ist viel interessanter als vorher.

Die Frage ist, ob zwischen den Stichproben in beiden Prozessen eine sinnvolle Abhängigkeit besteht (linearer Trend, nicht wirklich). Der Gedanke ist einfach: Wenn eine solche Abhängigkeit nach allen Transformationen auftritt, dann haben die Prozesse (beide) Eigenschaften, die sie von einem Random Walk unterscheiden.

Übrigens können wir es auch zur Aufteilung in Prozesse verwenden. D.h. nicht durch den RMS-Cutoff dividieren, sondern durch... ich weiß nicht, z.B. durch Autokorrelation.


Woher kommen die Muster/Abhängigkeiten? Sie nehmen einen Zeitrahmen und legen je nach Wert einen Teil der Inkremente in einen Stapel und einen anderen in einen anderen. Und ein paar Punkte oder eine Verschiebung des Bezugspunkts können die Zusammensetzung dieser "Prozesse" verändern. Woher kommt die Handelslogik bei einer solchen Aufschlüsselung? Wir werden 20 Punkte auf m15 auf Omega beziehen, aber wenn wir 21 Punkte hätten, wäre es anders - es ist Alpha :) Wie kam es überhaupt zu einer solchen Matrix für die Aufteilung von Rückkehrern? Wie könnte es anders sein als bei einem "Random Walk", da die Matrix zeigt, dass der eine "Prozess" mehr negative Rückläufer und der andere mehr positive Rückläufer haben wird? Natürlich wird der eine Prozess mehr negative Rückläufer und der andere mehr positive Rückläufer erhalten?
 
HideYourRichess:

Taki, das ist viel interessanter als vorher.

Die Frage ist, ob zwischen den Zählungen in beiden Prozessen eine sinnvolle Abhängigkeit besteht. Der Gedanke ist einfach: Wenn eine solche Abhängigkeit nach allen Transformationen auftritt, dann haben die Prozesse wirklich Eigenschaften, die sie vom Random Walk unterscheiden.

Die Korrelation für diese Prozesse hat sich noch nicht herausgestellt. Außerdem habe ich es mir nicht absichtlich angesehen. Der Hauptgrund ist, dass ich aus der Serie nur die Zählungen "herausgegriffen" habe, die unter die Klassifizierung fielen. Die auftretenden Löcher wurden einfach ignoriert. Das heißt, nach der ursprünglichen Konzeption gibt es einen deterministischen Trend, der eine komplexere Struktur als nur eine Linie hat, aber er ist deterministisch. Und dieser "Trend"-Prozess wird durch einen anderen, komplexeren "Killerprozess" (Schwänze, Ohren, was auch immer heraussticht) unterbrochen (genau genommen unterbrochen oder zerstört). Wichtig ist, dass sich nicht der Trend mit dem Rauschen vermischt, sondern zwei sehr komplexe Prozesse miteinander konkurrieren, der eine kreativ, der andere destruktiv.

Verwenden? - Fast einfach :o) Man kann den "Mitnahmeprozess" genau genug vorhersagen (innerhalb vernünftiger Grenzen) und dann z. B. mit Hilfe der Monte-Carlo-Methode die künftige Zerstörung abschätzen sowie die wahrscheinlichsten Niveaus der Preisakkumulation nach dem "Crash" schätzen.

Und ich denke, dass es in diesem endlosen Prozess der Trendbildung und -zerstörung genau diese "stochastischen Muster" geben muss. Wir betrachten sie aus verschiedenen Blickwinkeln, und hier ist ein anderer Ansatz. Aber die Philosophie ändert sich ein wenig, es stellt sich heraus, dass es einen Trend gibt, der durch die Natur des Unternehmens, der Gesellschaft, des Landes, was auch immer, vorgegeben ist. Sie ist eins, d.h. es gibt keine Bullen und Bären. Aber es gibt Umweltbedingungen, unter denen dieser Trend nicht unter idealen Bedingungen existieren kann, einschließlich der Gesellschaft selbst, die ihn (den Trend) zerstören kann. Aber das ist alles nur Text, achten Sie nicht darauf.

Übrigens, um einen Prozess zu unterteilen, kann man auch dies verwenden. D.h. nicht durch den RMS-Cutoff dividieren, sondern durch... ich weiß nicht, z.B. durch die Autokorrelation.

Im Prinzip ist dies richtig, aber es ist nicht die einzige Möglichkeit der Filterung.

PS WICHTIG: Ich konnte diesen Prozess nicht in Bezug auf DSP filtern, ich konnte ihn überhaupt nicht filtern!!! Aber diese primitive Methode führte zu Ergebnissen. Ich denke, das sollte hier gut funktionieren, alles, was die Vorsilbe "multi" beinhaltet.

Nächsten Sonntag werde ich versuchen, die verschiedenen Merkmale dieser besonderen Prozesse zu bewerten.

 
Avals:

Woher kommen die Muster/Abhängigkeiten? Sie haben einen bestimmten Zeitraum genommen und je nach Wert einen Teil der Inkremente in einen Stapel und einen anderen in einen anderen gelegt. Und ein paar Punkte oder eine Verschiebung des Bezugspunkts können die Zusammensetzung dieser "Prozesse" verändern. Woher kommt die Handelslogik bei einer solchen Aufschlüsselung? Wir werden 20 Punkte auf m15 auf Omega beziehen, aber wenn wir 21 Punkte hätten, wäre es anders - es ist Alpha :) Wie kam es überhaupt zu einer solchen Matrix für die Aufteilung der Rückkehrer? Wie könnte es anders sein als bei einem "Random Walk", da die Matrix zeigt, dass der eine "Prozess" mehr negative Rückläufer und der andere mehr positive Rückläufer haben wird? Natürlich wird der eine Prozess mehr negative Rückläufer und der andere mehr positive Rückläufer erhalten?

so einfach ist das nicht. Ich erinnere an den Beitrag von Alexej:

Ein weiteres Phänomen ist das Langzeitgedächtnis.

Die meisten von uns (von denen, die es tun, natürlich) sind daran gewöhnt, das Marktgedächtnis anhand der Pearson-Korrelation - genauer gesagt, der Autokorrelation - zu messen. Es ist bekannt, dass eine solche Korrelation recht kurzlebig und mit Verzögerungen von höchstens 5-10 Takten signifikant ist. Daraus wird in der Regel gefolgert, dass der Markt zwar ein Gedächtnis hat, dieses aber sehr kurzlebig ist.

Die Pearson-Korrelation ist jedoch nur in der Lage, lineare Beziehungen zwischen Balken zu messen - und ignoriert praktisch nicht-lineare Beziehungen zwischen ihnen. Die Korrelationstheorie von Zufallsprozessen wird nicht umsonst als linear bezeichnet.

Es gibt jedoch statistische Kriterien, die es ermöglichen, die Tatsache einer beliebigen Beziehung zwischen Zufallsvariablen festzustellen. Zum Beispiel das Chi-Quadrat-Kriterium - oder das Kriterium der gegenseitigen Information. Mit dem zweiten habe ich mich nicht wirklich befasst, aber mit dem ersten schon. Ich werde nicht erklären, wie man es benutzt: Es gibt viele Handbücher im Internet, die erklären, wie man es benutzt.

Die Hauptfrage war: Gibt es eine statistische Beziehung zwischen Balken, die weit voneinander entfernt sind (zum Beispiel, wenn tausend Balken dazwischen liegen)? Es stellte sich nicht die Frage, wie man sie im Handel einsetzen sollte.

Die Antwort lautet: Ja, es gibt sie, und sie ist sehr bedeutend.

Wenn wir zum Beispiel die EURUSD-Historie von 1999 auf H1 nehmen und das Chi-Quadrat für die Paar-Renditen überprüfen, stellen wir fest, dass im Bereich der "Abstände" zwischen den Balken zwischen 10 und 6000 in etwa 90 % der Fälle der aktuelle Balken von den Balken aus der Vergangenheit abhängt. 90%! Bei Balkenabständen von mehr als 6000 sind solche Abhängigkeiten zwar seltener, aber immer noch vorhanden!

Ehrlich gesagt hat mich diese "Entdeckung" verblüfft, da sie direkt zeigt, dass der Euro ein sehr langfristiges Gedächtnis hat. Bei EURUSD H1 sind 6000 Barren etwa ein Jahr. Das bedeutet, dass es unter den stündlichen Balken von vor einem Jahr noch Balken gibt, an die sich die aktuelle Null "erinnert".

Bei H4 wird eine signifikante Abhängigkeit bis zu etwa 1000-1500 bar festgestellt. D.h. die Dauer des "Marktgedächtnisses" ist immer noch dieselbe - etwa ein Jahr.

Erinnern Sie sich an Peters, der sagt, dass das Gedächtnis des Marktes etwa 4 Jahre beträgt. Widerspruch, aber... Ich weiß noch nicht, wie ich das Problem lösen kann.

Da ich mich noch nicht beruhigt hatte, beschloss ich zu prüfen, ob mein Chi-Quadrat solche Abhängigkeiten zeigen würde, wenn ich die synthetischen Renditen, die unabhängig voneinander generiert wurden, eingeben würde. Ich wählte zwei mögliche Verteilungen der synthetischen Renditen - Normal und Laplace - und führte sie aus. Ja, es zeigt sich, aber innerhalb des Signifikanzniveaus des Kriteriums (ich hatte 0,01)! Mit anderen Worten, die synthetischen Balken zeigten in der Vergangenheit etwa 1 % abhängige Balken - gerade auf der Ebene der Wahrscheinlichkeit des Kriteriumsfehlers.

Was sind die Schlussfolgerungen?

1. Die Euro-Kurse sind definitiv kein Markov-Prozess. Bei einem Markov-Prozess hängt der aktuelle Wert nur vom vorherigen Wert ab. In unserem Fall gibt es zahlreiche Balken in der sehr fernen Vergangenheit, von denen der aktuelle Balken abhängt.

(2) Die so genannte "Stiftung" spielt sicherlich eine gewisse Rolle - sagen wir, als Vorwand, um die Anführungszeichen zu verschieben. Aber es ist sicherlich nicht die einzige. Wir müssen uns die Technik ansehen!

(3) Dieses Ergebnis ist noch rein theoretisch und hat keine praktische Bedeutung. Dennoch zeigt es deutlich, dass für diejenigen, die etwas suchen, nicht alles verloren ist.

Avals, ziehen Sie keine voreiligen Schlüsse...

PS: Und was Alexey geschrieben hat - das kann ich voll und ganz bestätigen!!!