Marktmodell: konstanter Durchsatz - Seite 3

 

Die Idee an sich ist kurios, aber die dahinter stehende Botschaft ist wirklich seltsam. Mir persönlich gefällt das nicht. Wenn die Informationsmenge immer in etwa konstant ist, dann ist auf dem Markt nicht viel los. Aber so ist es nicht. Auf dem Marktplatz kommt es regelmäßig zu Katastrophen, bei denen sich die Informationsmenge genau ändert (wie beim Übergang in einen anderen Phasenzustand).

 

Der Mann schlägt vor, Bits von komprimierten Informationen zu analysieren, um einen neuen "Frame" im Stream vorherzusagen. Was ist zum Beispiel besser als ein MPG4-Frame im Vergleich zu einem MPG1-Frame, um den nächsten Frame vorherzusagen?

Vielleicht ist es einfacher, der Handlung des Films zu folgen :)

 
hrenfx:

Informationen sind eine Reihe von Bits, die zur Übertragung nicht komprimiert werden können.

Es wird davon ausgegangen, dass der Markt als relativ geschlossenes System eine konstante (oder sich langsam verändernde) Menge an Informationen pro Zeiteinheit erzeugt.

Was bedeutet das?

Marktdaten sind alle Daten, die auf dem Markt gewonnen werden können. Die einfachste ist der Preis.

Die Einheit der Zeit sei Zeit. Es wird davon ausgegangen, dass die Menge an Informationen auf dem Markt zu jedem Zeitpunkt N ist . Das ist einfacher:

Wir haben im Laufe der Zeit die Daten vom Markt gesammelt. Wir komprimieren sie bis zum Maximum (mehr ist nicht möglich) und erhalten so einen Satz nicht komprimierbarer Bits - das ist die Information, deren Menge für die Zeiteinheit Time konstant ist(N).

So viel wie möglich zu komprimieren ist eine Theorie. Es gibt eine Vielzahl von Komprimierungsalgorithmen. Je stärker der Komprimierungsalgorithmus ist, desto besser kann er die in den verfügbaren Daten enthaltene Informationsmenge abschätzen. Das heißt, wir können die Menge der Informationen nicht genau bestimmen, aber wir können sie schätzen.

Wie Sie dieses Modell für den Handel nutzen können, wird hier beschrieben.

Die Überprüfung der Angemessenheit des Modells ist nicht sehr schwierig. Es reicht aus, über eine große Menge an historischen Marktdaten zu verfügen. Nehmen Sie ein Schiebefenster der Größe Time. Und für jede Position des Fensters führen Sie eine Kompression durch (die Algorithmen können unterschiedlich sein), um die Anzahl der Bits zu erhalten. Als Ergebnis erhalten wir einen geschätzten BP der Informationsmenge. Es bleibt nur noch, diesen BP zu analysieren und entsprechende Schlussfolgerungen zu ziehen.



Claude Shannon, der übrigens seine wissenschaftliche Laufbahn aufgegeben hat und jetzt Gerüchten zufolge an der Börse tätig ist, führte den Begriff des Informationsmaßes ein:

ein Ereignis, das M mögliche Ergebnisse Xi mit der Wahrscheinlichkeit P[Xi] hat, die die Wahrscheinlichkeit des Auftretens des i-ten Ergebnisses beschreibt, enthält

Informationen, deren Wert durch den Ausdruck definiert ist:

I[Xi] = ln(1/P[Xi]) = - ln P[Xi]

Der erwartete oder durchschnittliche Wert dieser Information I entspricht der Entropie H,

Das heißt, die Entropie ist ein Maß für die Unsicherheit, erinnern Sie sich an die Durchschnittstemperatur in einem Krankenhaus? :))) Hier,

das ist die Unsicherheit, die Entropie :).

"Informationen sind eine Menge von Bits, die in keiner Weise komprimiert übertragen werden können".

Aber es scheint mir, dass die einzige Möglichkeit, wie eine Menge "in keiner Weise komprimiert werden kann", darin besteht

eine Menge, die nur aus einem Bit besteht, d. h. wenn es keine Redundanz gibt, dann gibt es

es gibt nichts zu komprimieren! Das heißt, wenn dieses Bit einen der beiden Werte "0" oder "1" annimmt, aber!

ist eine absolute Gewissheit! Sie bringen also die Hoffnung zum Ausdruck, dass es Verfahren gibt, mit denen man

die im Devisenmarkt enthaltene Zufälligkeit zu bringen, dass es Verfahren gibt, die vollständig

diese Zufälligkeit so weit zu eliminieren, dass sie nicht mehr weitergehen kann? Und das ist umso unmöglicher, als der Devisenmarkt kein geschlossenes System ist .

Dies wird durch die starke Nicht-Stationarität bewiesen, d.h. die Volatilität der statistischen Parameter, die Notierungen der Währungspaare und

Die empirische Betrachtung des Marktes als eine Kombination aus technischer Analyse und Fundamentalanalyse, die bekanntlich

befassen sich mit der internen Stimmung auf dem Markt bzw. mit der Analyse der Situation außerhalb des Marktes.

Deshalb habe ich so viel geschrieben, denn Ihre, äh, Hypothesen schienen mir völlig verkehrt zu sein.

 
TheVilkas:

Ich bin mit den Grundlagen der Informationstheorie vertraut. Die Definition des Begriffs "Information" scheint nicht eindeutig zu sein. Lassen Sie es mich anders ausdrücken:

Die in den Daten enthaltene Informationsmenge ist die Mindestanzahl von Bits, die zur Wiederherstellung der Daten erforderlich ist.

Das heißt, die Anzahl der Bits in den maximal komprimierten (wiederherstellbaren) Daten ist die Menge an Informationen in diesen Daten. Die so genannte reine Information, die in den Daten enthalten ist.

 
hrenfx:

Informationen sind eine Reihe von Bits, die zur Übertragung nicht komprimiert werden können.

Es wird davon ausgegangen, dass der Markt als relativ geschlossenes System eine konstante (oder sich langsam verändernde) Menge an Informationen pro Zeiteinheit erzeugt.

Was bedeutet das?

Marktdaten sind alle Daten, die auf dem Markt gewonnen werden können. Die einfachste ist der Preis.

Die Einheit der Zeit sei Zeit. Es wird davon ausgegangen, dass die Menge an Informationen auf dem Markt zu jedem Zeitpunkt N ist . Das ist einfacher:

Wir haben im Laufe der Zeit die Daten vom Markt gesammelt. Wir komprimieren sie bis zum Maximum (mehr ist nicht möglich) und erhalten so einen Satz nicht komprimierbarer Bits - das ist die Information, deren Menge für die Zeiteinheit Time konstant ist(N).

So viel wie möglich zu komprimieren ist eine Theorie. Es gibt eine Vielzahl von Komprimierungsalgorithmen. Je stärker der Komprimierungsalgorithmus ist, desto besser kann er die in den verfügbaren Daten enthaltene Informationsmenge abschätzen. Das heißt, wir können die Menge der Informationen nicht genau bestimmen, aber wir können sie schätzen.

Wie Sie dieses Modell für den Handel nutzen können, wird hier beschrieben.

Die Überprüfung der Angemessenheit des Modells ist nicht sehr schwierig. Es reicht aus, über eine große Menge an historischen Marktdaten zu verfügen. Nehmen Sie ein Schiebefenster der Größe Time. Und für jede Position des Fensters führen Sie eine Kompression durch (die Algorithmen können unterschiedlich sein), um die Anzahl der Bits zu erhalten. Als Ergebnis erhalten wir einen geschätzten BP der Informationsmenge. Es bleibt nur noch, diesen BP zu analysieren und entsprechende Schlussfolgerungen zu ziehen.


Die verlustfreie Archivierung setzt die Erstellung eines neuen Alphabets voraus, dessen Beschreibung + Kodierung der zu archivierenden Information kleiner ist als die Information selbst. Grob gesagt handelt es sich um eine Zuweisung bestimmter Muster. Dies gilt jedoch für Modelle wie reguläre Grammatiken, bei denen es strenge und eindeutige Regeln gibt oder bei denen Abweichungen von diesen Regeln nicht häufig sind. Wenn beispielsweise Rauschen auftritt, sinkt die Effizienz der Archivierung drastisch. Wenn in einem Text ein Wort 100 Mal vorkommt, aber jedes Mal mit einem Fehler oder ein paar vertauschten Buchstaben, können die verlustfreien Kompressionsalgorithmen es nicht in einem separaten Muster halten. Verlustbehaftete Komprimierungsalgorithmen, wie die für Bild, Video und Ton, sind hier effizient. Aber sie alle können immer noch keine kontextbezogenen Regeln berücksichtigen, wie z. B. die Änderung von Wortendungen je nach Groß- und Kleinschreibung usw. usw. Sie heben zum Beispiel die am häufigsten verwendeten Buchstabenkombinationen im Text hervor, und das war's. Das Gleiche gilt für den Markt - er wird die häufigsten elementaren Muster isolieren, aber nicht die Tatsache, dass ihre Verwendung eine probabilistische Vorhersage ermöglichen wird. Sie kann sogar noch genauer sein, eine gewinnbringende Prognose. Andernfalls wird mit einer Wahrscheinlichkeit von 90 % prognostiziert, dass sich dieses oder jenes Szenario fortsetzen wird. Der finanzielle Verlust aus dem verbleibenden 10%-Szenario ist jedoch derselbe wie der Gewinn aus der Verwendung dieser 90 %.

Kurz gesagt, alles hängt vom Archivierungssystem ab. Die Zuweisung von Tiefenregeln ist eine Aufgabe für künstliche Intelligenz (oder natürlich :)), und nicht für rar :) Und natürlich geht es nicht in erster Linie um ihre Globalität, sondern um die Möglichkeit einer rentablen Nutzung.

 

Ich verstehe den ersten Beitrag des Themas nicht, der sich in Formeln verwandelt, aber imho versuchen Sie, über Entropie zu sprechen

ZS: Ich hasse die Theorie der Informationsübertragung, denn wegen eines einzigen Tippfehlers (ich habe bps mit baud verwechselt) bekam mein Zeugnis eine "0" statt einer "1".

 
Mathemat:

Die Idee an sich ist kurios, aber die zugrunde liegende Prämisse ist wirklich seltsam. Mir persönlich gefällt das nicht. Wenn die Menge an Informationen immer annähernd konstant ist, passiert auf dem Markt nicht viel. Aber so ist es nicht. Auf dem Marktplatz kommt es regelmäßig zu Katastrophen, bei denen sich die Informationsmenge genau ändert (wie beim Übergang in einen anderen Phasenzustand).


Ich hoffe, die Forumsmitglieder werden sich an diesen Thread erinnern.https://www.mql5.com/ru/forum/105740

die allererste Seite

von denen eine besondere Rolle in der Strömungstheorie eine Momentenfunktion erster Ordnung spielt, die als Strömungsintensität (FTI) bezeichnet wird:

kann man auch sagen, dass IP die Menge an Informationen pro Zeiteinheit ist. Ein Analogon dazu kann die Anzahl der Ticks pro Zeiteinheit sein, wenn man nicht auch die Nachrichten analysiert. By the way, meiner Meinung nach kann man nicht komprimieren, komprimieren (nicht komprimieren) die Menge der Informationen nicht ändern

Z.U., ohne einen Tickframe werden Sie es schwer haben. Die Überprüfung der Historie wird auch nicht funktionieren https://www.mql5.com/ru/forum/1031/page1#comment_6372 Historie in Form von Minuten tötet diese Information...

 
hrenfx:

Die Prüfung des Modells auf seine Angemessenheit ist nicht sehr schwierig. Es reicht aus, über eine große Menge historischer Marktdaten zu verfügen. Nehmen Sie ein gleitendes Fenster der Größe Time. Und für jede Fensterposition wird eine Komprimierung durchgeführt (es können verschiedene Algorithmen verwendet werden), um die Anzahl der Bits zu erhalten. Als Ergebnis erhalten wir einen geschätzten BP der Informationsmenge. Es bleibt nur noch, diesen BP zu analysieren und entsprechende Schlussfolgerungen zu ziehen.

Getestet. Ich habe ein gleitendes Fenster von der Größe eines Tages(288 M5) genommen und es jedes Mal für 5 Minuten verschoben, um die RAR- und 7Z-LZMA-Kompression von Anfang 2010 bis Oktober 2010 anzuwenden - fast 60 000 gleitende Fenster, die von jedem Archivierungsprogramm komprimiert wurden. So sehen die Charts der komprimierten Fenstergröße der FOREX-Marktbeispiele(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILBER, GOLD) aus:

Überraschenderweise zeigte RAR extrem instabile Ergebnisse. Die Größe der komprimierten Fenster schwankt stark. 7Z LZMA zeigte stabile Ergebnisse und eine kleinere komprimierte Fenstergröße. Daher wurde 7Z LZMA für weitere Untersuchungen ausgewählt.

Dann fing ich an, dasselbe zu tun, aber ich variierte die Marktstichprobe: Zuerst fügte ich ein Symbol hinzu(AUDUSD), dann ein weiteres und ein weiteres, bis ich 9 Symbole hatte(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILBER, GOLD). Die Aufgabe bestand darin, herauszufinden, wie der Archivar Zusammenhänge bei der Einführung neuer Symbole findet. Wenn es Korrelationen gibt, sollte die durchschnittliche Größe eines komprimierten Fensters nichtlinear wachsen, wenn ein neues Symbol hinzugefügt wird. Das ist es, was sich herausstellte:

Wir sehen, dass bereits bei 8 Tools mindestens 20% der Daten überflüssig sind (keine Informationen enthalten). Das heißt, es gibt eine Korrelation, und zwar eine nicht geringe. Interessanterweise ergab die Hinzufügung des 9. Finanzinstruments(GOLD) keine Zusammenhänge (der MI ist nicht gesunken). Das RMS ist durch die Hinzufügung von Finanzinstrumenten um mehr als 50 %(9 Instrumente) gegenüber dem Anfang(1 Instrument) gestiegen.

Die Graphen der Veränderung der komprimierten Fenstergrößen (MO werden auf eins reduziert) sehen für verschiedene Gruppen von Finanzinstrumenten wie folgt aus:

Die Verteilungen dieser Diagramme:

Welche Schlussfolgerungen können gezogen werden?

Es war unmöglich, das Modell zu widerlegen oder zu bestätigen. Die Komprimierungsalgorithmen zeigen sehr gut das Vorhandensein elementarer (sehr einfacher Algorithmen) Beziehungen zwischen Finanzinstrumenten (mehr als 20% der redundanten Daten werden bei 8 Finanzinstrumenten eliminiert). Viele würden sagen, dass es natürlich ist, weil Solid-Conversion verwendet wird. Aber das ist nicht ganz so. Das Beispiel ist Gold, für das der Archivar keine Verbindung mit 8 anderen Symbolen finden kann.

P.S. Die Kreuze wurden absichtlich nicht analysiert, weil wir wissen, dass sie vollständig mit den Hauptfächern korreliert sind und daher keine zusätzlichen Informationen enthalten. Daher nur die Majors.

P.P.S. Alle Angaben zu den Fenstergrößen sind beigefügt.

P.P.P.S. Es war interessant, das Problem zu lösen. Ich musste einige neue Methoden anwenden. Insbesondere musste ich eine RAM-Disk verwenden, um mehr als eine halbe Million Komprimierungen von verschiedenen Fenstern durchzuführen. Am Ende ging es relativ schnell.

Dateien:
4analyse.rar  497 kb
 
hrenfx:

...

Wenn es Ihnen nichts ausmacht, machen Sie bitte das Gleiche, aber mit künstlich erzeugtem Blutdruck unter Verwendung von RMS. Es ist sehr interessant zu sehen, was passiert.
 
hrenfx:

Dann habe ich dasselbe getan, aber ich habe das Marktbeispiel geändert: zuerst habe ich ein Finanzinstrument(AUDUSD) hinzugefügt, dann ein weiteres, bis ich 9 Finanzinstrumente hatte(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILBER, GOLD).

Und wie genau hat das Hinzufügen stattgefunden?