Marktmodell: konstanter Durchsatz - Seite 23

 
an hrenfx
<br/ translate="no">

Es gibt zwei Objekte, die über einen Kommunikationskanal miteinander verbunden sind. Die Objekte können Menschen, Computer usw. sein. Der Kommunikationskanal hat eine begrenzte Bandbreite.

Die Objekte im Kommunikationskanal können Daten austauschen.

Meinen Sie damit, dass die Bandbreite des Kommunikationskanals zwischen dem MT-Terminal und dem DC begrenzt ist und etwas verloren geht? Das ist sicher! Genau diese Objekte sagen uns nichts, sie verbergen etwas. Sie sind sehr verdächtig.

:о)

Die in den Daten enthaltene Information ist die kleinste Menge von Bits, die übertragen und in die ursprünglichen Daten wiederhergestellt werden kann. Der Informationsgehalt ist die Anzahl der Bits in dieser sehr kleinen Menge.

Es gibt eine "Theorie der Information". Warum machen Sie sich nicht mit ihr vertraut? "Bit" ist lediglich eine gewählte "Skala" - ein Logarithmus zur Basis zwei, der von der Wahrscheinlichkeit eines der Zustände ausgeht, in denen sich das System befinden kann. Sie können eine beliebige Skala wählen, aber sie hat keinen zusätzlichen Zauber.

Information ist im Wesentlichen die Differenz zwischen der aktuellen Ungewissheit und der Tatsache, eine Nachricht über den eindeutigen Zustand des Systems zu erhalten (die Entropie ist Null, wir wissen bereits genau, in welchem Zustand sich das System befindet). Bis jetzt habe ich nicht wirklich verstanden, worüber Sie schreiben.

Wenn BP1 eine Informationsmenge N enthält, dann enthält BP2 = BP1 * Const natürlich auch eine Informationsmenge, die N entspricht. Etwas weiter gedacht, aber auch einfach, kann man argumentieren, dass, wenn es eine starre funktionale Beziehung zwischen BP1 und BP2 gibt, sie die gleiche Menge an Informationen enthalten. Und wenn Sie sowohl BP1 als auch BP2 auf einmal übertragen müssen, brauchen Sie nicht N+N Informationen zu übertragen. Sie müssen ein wenig mehr als N

Das ist nicht wahr, um es milde auszudrücken. Obwohl ich zugeben muss, dass ich es auf meine Weise verstanden habe. Ich will kurz sagen - wenn Sie durch glücklichen Zufall zwei Reihen mit der gleichen Entropie (Information) haben, wird es nichts geben und über nichts Grundsätzliches sprechen.

PS: Es gibt einen auf der Informationstheorie basierenden NS. Ich habe es kurz gelesen, es ist recht interessant. Aber ich bin nicht zum praktischen Nutzen gekommen.

 

Dem Thema fehlt es nicht nur an Begriffen, sondern auch an einem allgemeinen Konzept der Theorie der Informationsübertragung.

Wenn sich das Thema zu etwas Informativem entwickeln soll, dann:

1.Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.
Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.
2.Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.
3.Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:
преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
4.Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
6.Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Das sind die Voraussetzungen, mit denen man beginnen muss, und was man dann mit den Informationen macht - sie komprimieren, filtern oder gar nicht wahrnehmen - ist eine andere Sache.

Was den Handel anbelangt, so kann ich zustimmen, dass die Informationen in den Kreuzen enthalten sind, während sie in den Majors fehlen. Warum? Weil alle Majors für den Markt arbeiten - es gibt einen Trend, es gibt Spieler, und die Spieler verstärken entweder den Trend oder schwächen ihn, und so weiter, bis plötzlich alle Spieler unter dem Eingriff

Bei den Währungspaaren ist es etwas komplizierter, es gibt nicht viele Akteure, aber bei den Währungspaaren gibt es eine wirtschaftliche und geografische Abhängigkeit, zumindest glaube ich das, denn die Währungsindizes werden hauptsächlich über die Währungspaare berechnet.

 
Farnsworth:
an hrenfx

Meinen Sie, dass die Bandbreite der Verbindung zwischen dem MT und dem DC-Terminal begrenzt ist und etwas verloren geht?

Wir sprechen hier nicht von MTs und DCs. Das Objekt, von dem die Informationen stammen, ist der Markt. Das Subjekt, das diese Informationen erhält, ist der Gewerbetreibende. Der Informationsverlust aufgrund von Filtern und anderen Dingen wird nicht berücksichtigt.

Es gibt eine "Informationstheorie". Warum machen Sie sich nicht damit vertraut? "Bit" ist lediglich eine gewählte "Skala" - ein Logarithmus zur Basis zwei, der sich aus der Wahrscheinlichkeit eines der Zustände ergibt, in denen sich das System befinden kann. Sie können eine beliebige Skala wählen, aber sie hat keinen zusätzlichen Zauber.

In der Informationstheorie gibt es viele Dinge. Und die Definition von Information, die dort gegeben wird, scheint hier nicht zu gelten. Die Definition habe ich oben gegeben. Wenn Ihnen das Wort Information nicht gefällt, können Sie ein anderes finden.

Information ist im Wesentlichen die Differenz zwischen der aktuellen Ungewissheit und der Tatsache, eine Nachricht über den eindeutigen Zustand des Systems zu erhalten (die Entropie ist Null, wir wissen bereits genau, in welchem Zustand sich das System befindet). Bis jetzt habe ich nicht wirklich verstanden, worüber Sie schreiben.

Wenn Sie meine Definition von "Information" verstanden haben, besagt die Hypothese der konstanten Marktbandbreite, dass der Markt pro Zeiteinheit die gleiche Menge an "Information" erzeugt.

Warum sage ich, dass alle "Informationen" in Majors enthalten sind? Wenn Sie EURUSD, GBPUSD und EURGBP übertragen, brauchen Sie nur EURUSD und GBPUSD zu übertragen, um auch Daten zum EURGBP zu erhalten. D.h. es gibt genügend "Informationen" in den Majors.

Warum reden wir überhaupt über die Menge der Informationen? Der Punkt ist, dass die "Information" des Marktes alle Regelmäßigkeiten des Marktes enthält, weil es die Kenntnis aller Regelmäßigkeiten ist, die es ermöglicht, den minimalen Satz von Bits für die Übertragung zu erzeugen.

 
hrenfx:

Informationen sind eine Menge von Bits, die nicht komprimiert übertragen werden können.

Es wird davon ausgegangen, dass der Markt als relativ geschlossenes System eine konstante (oder sich langsam verändernde) Menge an Informationen pro Zeiteinheit erzeugt.


Hier gibt es eine Wendung. Ich kann mit Sicherheit sagen, dass es funktioniert, wenn man es richtig anwendet. Und das Modell ist viel einfacher als das, das Sie beschreiben.
 
hrenfx:

Warum reden wir überhaupt über die Menge der Informationen? Der Punkt ist, dass die "Informationen" des Marktes alle Regelmäßigkeiten des Marktes enthalten, denn nur durch die Kenntnis aller Regelmäßigkeiten ist es möglich, das Minimum an Bits zu erzeugen, das weitergegeben werden kann.

Universelle Archivierungsprogramme verwenden nicht die Suche nach Mustern eines bestimmten Datentyps, sondern eliminieren die Redundanz der Codierung für jede Datei. Damit der Archivierungsalgorithmus die Regelmäßigkeiten einer bestimmten Zeile finden und sie optimal komprimieren kann, müssen diese Regelmäßigkeiten in die Zeile eingebettet sein. JPEG hat die Eigenschaften von zweidimensionalen Bildern, mp3 hat die Eigenschaften von Toninformationen usw. Es gibt keine Wunder, dass ein Algorithmus einzigartige Merkmale einer Information finden kann. Für Video: Es werden ständig neue Codecs entwickelt - es gibt kein Ideal. Daher ist Ihre Aufgabe ohne ein solches spezielles Archivierungsprogramm nicht zu lösen. :) Und da es auch hier kein ideales Kompressionsverfahren gibt, kann man nur den Grad der Übereinstimmung eines bestimmten BP mit den Regelmäßigkeiten eines bestimmten Codecs vergleichen
 
Avals:

Zitat aus dem ersten Beitrag:

So viel wie möglich zu komprimieren ist eine Theorie. Es gibt eine Vielzahl von Komprimierungsalgorithmen. Je stärker ein Algorithmus komprimiert, desto besser kann er die in den verfügbaren Daten enthaltene Informationsmenge abschätzen. Das heißt, wir können die genaue Menge an Informationen nicht bestimmen, aber wir können sie schätzen.

 
hrenfx:

Zitat aus dem ersten Beitrag:


nein, wir können sie nicht mit Standard-Archivierungsalgorithmen auswerten. Die Redundanz bei der Kodierung wird geschätzt und das war's. Mit diesen Algorithmen werden keine Regelmäßigkeiten des Prozesses selbst extrahiert
 
Avals:
Universelle Archivierungsprogramme verwenden nicht die Suche nach Mustern eines bestimmten Datentyps, sondern eliminieren die Redundanz der Codierung für jede Datei. Damit der Archivierungsalgorithmus Muster in einer bestimmten Zeile finden und sie optimal komprimieren kann, müssen diese Muster in die Zeile eingebettet sein. JPEG hat die Eigenschaften von zweidimensionalen Bildern, mp3 hat die Eigenschaften von Toninformationen usw. Es gibt keine Wunder, dass ein Algorithmus einzigartige Merkmale einer Information finden kann. Für Video: Es werden ständig neue Codecs entwickelt - es gibt kein Ideal. Daher ist Ihre Aufgabe ohne ein solches spezielles Archivierungsprogramm nicht zu lösen. :) Und da es auch hier kein ideales Kompressionsverfahren gibt, kann man nur den Grad der Übereinstimmung eines bestimmten BP mit den Regelmäßigkeiten eines bestimmten Codecs vergleichen

Lassen Sie mich das, was Sie zu Recht gesagt haben, noch ergänzen. Wenn wir eine gewisse Abwechslung der Ticks als eine feste Regelmäßigkeit betrachten - der Topikstarter hätte für die "Verwendung" von Archivaren im Ausgangsbeispiel (Prival ist nicht anwesend - ich bin für ihn :) die Information über die Preisänderung als Ergebnis eines Ticks in die eine oder andere Richtung verwenden sollen, indem er ein Byte für die Darstellung dieses Ereignisses verwendet (und nicht das Doppelte, wie es höchstwahrscheinlich geschehen ist ;). 128 Pips pro Tick sind recht informativ und selten...

Was die plausible Argumentation von HrenFix betrifft, so unterstütze ich sie per Definition. Sonst gibt es nur Überschwemmungen und Gejammer über Unstetigkeit und "Dickschädel".

Aber Nachweise sind noch besser!

Leider bleibt keine Zeit, sich mit all dem zu beschäftigen - es gibt einen Rückstand im Handel, beim Programmieren, im persönlichen oder/und im Familienleben ... (je nach Geschmack wählen).

Und Alexey hat recht, ein Beitrag wie dieser

hrenfx:

Da bin ich anderer Meinung. Ersetzt man das Wort "Währung" durch "Kartoffeln", klingt es noch dubioser.

Um ein Objekt zu messen, braucht man eine Maßeinheit. Die Länge kann in Metern oder Zoll gemessen werden. Gewicht in Kilogramm oder Pfund. EUR in USD oder JPY.

Bei physikalischen Problemen gibt es oft Situationen, in denen beispielsweise die Länge nicht wichtig ist. Und um die Logik zu vereinfachen, wird sie als Einheit genommen (Kilometer oder Fuß - das spielt keine Rolle). Die Hauptsache ist, dass die anderen Größen in denselben Einheiten gemessen werden). Sie können also immer die gleichen EUR als Einheit nehmen.

Im Allgemeinen kann man nichts ohne Einheiten messen.

P.S. Natürlich kann man USD auch in Kartoffeln messen.

Soweit es mich betrifft, "Strom der Bewusstseinsdämmerung". Wir messen innerhalb eines Paares - dann ist die Währung des Gewinns/Verlusts wichtig. Messung der Dynamik - Vorzeichen und ein gewisser relativer Betrag der Abweichung von der vorherigen Ruhephase sind wichtig.

Aber wenn man nicht provoziert, wird der Sumpf schlammig. Ein großes Lob an DickPhoenix!

Schreib wieder ;)

 
Avals:

Mit den üblichen Archivierungsalgorithmen können wir das nicht abschätzen. Die Redundanz in der Kodierung wird geschätzt und das ist alles. Diese Algorithmen stellen keine Regelmäßigkeiten des Prozesses selbst fest.


Eine Schätzung ist immer möglich. Die Frage ist, wie zuverlässig die Bewertung ist.

Die Möglichkeit der Medienkompression wurde erörtert. Ein wenig, aber immer noch viel Redundanz aus den Daten herauszufinden und zu extrahieren, ist besser als nichts. Elementare Kompressionsalgorithmen haben gezeigt, dass sie damit umgehen können. Die Schätzung der Informationsmenge ist natürlich eine grobe Schätzung.

Man kann viele Theorien aufstellen. Und man kann minimale Nachforschungen anstellen, was auch geschehen ist.

 
hrenfx:



Man kann sehr viele Theorien aufstellen. Und man kann minimale Nachforschungen anstellen, was auch geschehen ist.

Nur eine korrekte. statt in der Gleichförmigkeit der Mantisse zu schwelgen...

;)