FR H-Volatilität - Seite 9

 
Yurixx:

Ich muss es entweder irgendwie visualisieren, um die Logik der Entscheidungsfindung zu beschreiben,


Manchmal hilft es, das Voronov-Diagramm zu visualisieren, man muss nur wissen, was man auf der X- und Y-Achse eintragen muss. Hier ist ein Beispiel mit Erläuterungen, das ich im Internet gefunden habe.
Dateien:
doc.zip  631 kb
 
Yurixx:

Selbst bei einer nicht sehr großen Anzahl von Parametern erweist sich der Phasenraum des Systems als zu mehrdimensional für die menschliche Wahrnehmung. Wenn der Ansatz richtig ist und die gewählten Schätzungen eine Clusterung des Phasenraums ermöglichen, dann können Lage und Form der Cluster eine sehr komplexe Topologie aufweisen. Wir müssen es entweder irgendwie visualisieren, um die Entscheidungslogik zu beschreiben, oder blind Klassen und Zugehörigkeitskriterien einführen. NS ist darin viel besser, ebenso wie in probabilistischen Schätzungen (wie wir sehen können).


Wenn ich Sie richtig verstehe, muss der Forscher die Eingabedaten für den NS im Voraus vorbereiten, um ein "Phasenraum-Clustering" zu erreichen. In diesem Fall weist der NS selbständig "signifikante" Bereiche im mehrdimensionalen Phasenraum (PS) der Eingangsparameter und ihrer beliebigen Kombinationen zu, die das Volumen des PS und folglich den Umfang der erforderlichen Berechnungen erheblich verringern werden. Oder?

Aber was sind die "probabilistischen Bewertungen", die NS "viel besser handhabt", verstehe ich nicht.

 
Prival:
Manchmal hilft das Voronov-Diagramm bei der Visualisierung, aber man muss wissen, was auf der X- und Y-Achse eingetragen werden soll. Hier ist ein Beispiel mit Erläuterungen, das ich im Internet gefunden habe.

Korrigieren Sie mich, wenn ich falsch liege. Das Voronov-Diagramm zeigt die optimale (in gewissem Sinne) Grenze der Raumaufteilung, auf der die Randbedingungen für eine bestimmte Klasse von Differentialgleichungen gegeben sind. In welchem Zusammenhang steht dies mit dem vorliegenden Thema?
 

Neutron

Tut mir leid, aber das hat nichts mit der H-Volatilität FR zu tun, sondern mit der NS- oder vielmehr der Anerkennungstheorie, und ein Diagramm hilft manchmal, Klassen zu visualisieren und sie zu unterteilen.

Ich habe gerade die Frage gesehen und versucht zu helfen.

 
Neutron:


Wenn ich Sie richtig verstanden habe, muss der Forscher zunächst die Eingabedaten für den NS vorbereiten, um ein "Phasenraum-Clustering" zu erreichen. In diesem Fall wird der NS selbständig "signifikante" Bereiche in einem mehrdimensionalen Phasenraum (PS) von Eingabeparametern und deren beliebigen Kombinationen zuweisen, was es ermöglicht, das Volumen des PS und folglich auch das Volumen der notwendigen Berechnungen erheblich zu verringern. Oder?

Aber was sind die "Wahrscheinlichkeitsschätzungen", dass der NS "viel besser funktioniert", die ich nicht verstehe.


Das Clustering von FPs ist eine separate Aufgabe und wird vom Kohonennet durchgeführt. Es handelt sich um ein einschichtiges Netz, das während des Lernprozesses (ohne Lehrer! d.h. selbstlernend) ein Clustering der FPs durchführt. Anschließend wird eine Kernel-Funktion an diese Daten angepasst, die die Cluster-Verteilung beschreibt. Dann wird ein probabilistisches Netz aufgebaut, das (soweit ich es verstanden habe) in der einfachsten Version nicht einmal trainiert werden muss, sondern einfach mit Hilfe der Bayes'schen Statistik die Wahrscheinlichkeit berücksichtigt, dass die neue Probe zu einem bestimmten Cluster gehört. Das Ergebnis ist der Gewinnercluster. Dies ist nur ein möglichst vereinfachtes Schema.

Die Architektur des NS, die Art und Weise, wie die Eingabedaten aufbereitet werden, und der Lernalgorithmus sind die drei Grundpfeiler, auf denen alles beruht. Wie Sie sehen können, beinhaltet jede der drei Komponenten etwas Unformalisierbares. Soweit ich weiß, ist dies das, was der NS von seinem Schöpfer geerbt hat und was es ihm ermöglicht, erfolgreich zu arbeiten. Und die Zahlen - Gewichte und Parameter der Aktivierungsfunktion - sind nur ein Anhängsel. Jeder Mensch hat einen Kopf, aber manche Menschen denken mit ihm, andere essen mit ihm. :-)

 

Vielen Dank, Juraj. Großartige Antwort!

Wenn es Ihnen nichts ausmacht, möchte ich eine Frage zur Anwendbarkeit von NS stellen. Ich beziehe mich zum Beispiel auf meine Widder - Kagi-Konstruktionen. Wir haben einen generierenden Zick-Zack-Kurs (blaue Linie) und eine Transaktionslinie (rot).

Aus der Theorie (Pastukhovs These) folgt, dass das Verhalten der roten Linie statistisch vorhersehbar ist und dass es (das Verhalten) wahrscheinlich zickzackförmig ist mit der Amplitude S=(H-Volatilität-2)*H. Dies ist die durchschnittliche statistische Rendite der Strategie bei einer repräsentativen Stichprobe. Leider ist der geschätzte Wert in der Regel kleiner als die Spanne. Und das ist alles, was uns die statistische Methode der Zeitreihenanalyse in diesem Fall geben kann.

Andererseits haben wir einen generierenden Zig-Zag, dessen Rendite (praktisch unmöglich zu realisieren) für ein festes Zeitintervall das Maximum ist, das für einen gegebenen Partitionsschritt H möglich ist, und die Rendite, zum Beispiel mit Partition H=spread, ist das Maximum, das für jeden BP überhaupt möglich ist. Ich wünschte, ich könnte ein Werkzeug in die Hände bekommen, das den Zickzackkurs vorhersagen kann! Oder beweisen Sie zumindest die prinzipielle Möglichkeit einer solchen Vorhersage mit einer höheren Ausbeute als die der statmethod (S).

Verstehe ich das richtig, dass das Problem in dieser Formulierung für eine Analyse mit NS geeignet ist?

P.S. Es scheint mir, dass die Vorhersage des äquidistanten Zick-Zacks (mit einem einzigen Schritt) die beste Option ist. Zweitens beseitigen wir die mit der Zeitskala verbundene Dimensionalität - sie ist nicht notwendig, da wir nur mit Preisänderungen handeln und das Zeitintervall, in dem diese Änderung auftrat, in erster Näherung nicht in die Rentabilität einbezogen wird.

 
Neutron:

Ich wünschte, ich könnte ein Werkzeug in die Hände bekommen, das den Zickzackkurs vorhersagen kann! Oder beweisen Sie zumindest, dass es prinzipiell möglich ist, solche Prognosen mit höheren Renditen zu erstellen, als sie die Statmethod (S) liefert.

Verstehe ich das richtig, dass das Problem in dieser Formulierung für eine Analyse mit NS geeignet ist?

P.S. Es scheint mir, dass die Vorhersage des äquidistanten Zick-Zacks (mit einem einzigen Schritt) die beste Option ist. Zweitens werden wir die Dimensionalität los, die mit der Zeitskala verbunden ist - sie ist nicht notwendig, weil wir nur mit Preisänderungen handeln, und das Zeitintervall, in dem diese Änderung stattgefunden hat, wird in erster Näherung nicht in die Rentabilität einbezogen.


Theoretisch ist sie natürlich geeignet. Aber praktisch ...

Die wenigen Informationen, die ich in den Netzen gelesen habe, enthalten viele Ratschläge für Anfänger: Die Vorhersage des Preisverhaltens ist unwirksam. Denn woher soll das Netz plötzlich wissen, wie sich der Preis in Zukunft entwickeln wird? Nur weil wir ihn mit einer Menge Neuronen vollgepackt und mit einer Menge Daten gefüttert haben? In dieser Hinsicht bin ich ein Rationalist. Dieses Wissen kommt nicht aus dem Nichts und wird nicht von selbst geboren. Ich habe nicht ohne Grund über drei Wale geschrieben. Neben diesen Walen ist die Quelle, aus der sie stammen, noch wichtiger - die Absicht des Autors. Und in diesem Konzept sollte eine Vorstellung davon enthalten sein, welche Daten und in welcher Form die wesentlichen Informationen über den Markt enthalten können, wie sie im Netz verarbeitet werden müssen, um andere Zahlen zu erhalten, aus denen eine sinnvolle Schlussfolgerung für die Entscheidungsfindung gezogen werden kann, und schließlich, wie man dem Netz beibringt, diese Zahlen zu finden.

Unter diesem Gesichtspunkt ist das Problem in dieser Formulierung, obwohl es für das Netz geeignet ist, kompliziert und wenig perspektivisch. Da die Ticks und der darauf aufbauende Zickzackkurs recht ähnliche Verteilungen haben und es nicht einfacher ist, den Zickzackkurs vorherzusagen als den Kurs.

Es scheint mir, dass der ZigZag wirklich interessant ist, als Netzwerk-Input zu verwenden, sondern als die bequemste Form der Darstellung von Preismustern. Genau diese Muster, den Link zu der Website, die Sie mir gegeben haben, könnten eine sehr interessante Option sein. Aber in diesem Fall wird das Netz nicht den Preis vorhersagen, sondern den Zustand des Marktes bestimmen. Dies ist ein etwas anderer Ansatz. Für NS ist eine statistische Ausgabe nach oben oder unten eine viel realistischere Aufgabe als die Vorhersage von Bewegungen. Aber diese Variante lässt sich gut mit ZigZag kombinieren. Es gibt also Perspektiven, wir müssen nur die Problemstellung so gestalten, dass sie lösbar ist.

 

Danke, Jura, für die klaren Erklärungen - jetzt ist mein Kopf etwas klarer.

Übrigens war ich mir so sicher, dass die Transaktionslinie FR (die rote Linie im vorherigen Bild) normalverteilt ist, dass ich diesen Punkt gar nicht untersuchen wollte. Wie groß war meine Überraschung, als ich DIESES sah:

Stimmt, ein unerwartetes Ergebnis... Vergleichen Sie es mit dem Bild im ersten Beitrag dieses Themas. Dort ist die FR für die Seiten des Zickzack gegeben.

 

Ja, das ist ein interessantes Bild. Wenn ich es richtig verstehe, geht es um die Cagi-Partitionierung mit dem Parameter H=10? Aber ein gewisser Zusammenhang mit dem Bild aus dem ersten Beitrag ist immer noch offensichtlich.

Übrigens ist mir ein Gedanke gekommen. Ich denke, dass Sie trotzdem Recht hatten, was die Aussichten der Verwendung von NS für die Vorhersage des ZigZag betrifft. Nur sollte es nicht ein Kagi, sondern ein Renko-Gebäude sein. In diesem Fall ist eine mehr oder weniger klare Formalisierung von ZigZag-Mustern und damit eine Clusterung des Raums dieser Muster und eine Vorhersage der Segmentgrößen zusammen mit einer statistischen Bewertung der Gültigkeit dieser Vorhersage möglich. Mich interessiert, wie Sie diesen Gedanken bewerten. Der wichtigste Punkt ist der Unterschied zwischen kaga und renko. Bei Renko ist mir klar, wie Muster formalisiert werden können und wie man sie miteinander vergleichen und ihre Nähe beurteilen kann. Bei kaga ist das Bild sehr unscharf und daher funktioniert das gleiche Verfahren möglicherweise nicht.

Andererseits weiß ich a priori, dass das, was für Kaga gilt, auch für Renko gilt. Ich bin mir allerdings nicht sicher, ob das auch umgekehrt gilt. Wenn das Gegenteil der Fall ist, dann ist meine Voreingenommenheit gegenüber Renko ein Trugschluss, und NS kann genauso gut für die Vorhersage der Segmentgröße eines beliebigen ZigZag, sowohl Renko als auch Kaga, verwendet werden.

Was meinen Sie dazu?

 

Einerseits bestimmen die Kagi-Konstruktionen die Position des BP-Extremums mit einer Genauigkeit auf den Punkt (Renko zum Partitionierungsschritt H). Andererseits ist nicht klar, ob wir eine solche Präzision brauchen? In diesem Sinne sieht Renko wegen der äquidistanten Stufe H auf der Preisskala attraktiver aus. Kurzum, die Frage muss untersucht werden.

Was die Formalisierung der Aufgabe der Zick-Zack-Prognose betrifft, so erscheint sie mir als eine Schätzung der wahrscheinlichen Amplitude der Bewegung U des Preises (roter Vektor) vom Punkt des Endes der Bildung des aktuellen Extremums t=0 bis zum Punkt des erwarteten Extremums t=1 (siehe Abb. ).

In dieser Einstellung ist nur die Amplitude der Bewegung des Vektors U vorherzusagen, da seine Richtung vorgegeben ist - sie fällt mit der Richtung des Vektors H (grüner durchgezogener Pfeil) zusammen. Der Bereich, den der Vektor U annehmen darf, liegt im Bereich von 0 Punkten bis unendlich (siehe Abb. rechts). Der wahrscheinlichste Wert der Amplitude, die der Vektor U annimmt, ist 2 Punkte und sein Durchschnittswert ist etwas kleiner als N. Übrigens, wenn ein wahrscheinlicher Wert größer als der Spread wäre, könnten wir diese Strategie als positiv profitabel betrachten. Ich spreche über die mögliche Anwendung von FR für die BP-Arbitrage-Analyse.

Natürlich müssen wir am Ausgang von NS einen Zick-Zack-Kurs fahren, aber was sollen wir am Eingang machen... auch ein um einen Schritt verschobenes Zick-Zack? Aber wir brauchen die NS nicht, um diese Situation zu analysieren! Ich denke, unsere Aufgabe ist es, beginnende Arbitrage frühzeitig zu erkennen (siehe Abbildung). Dazu müssen wir bereits den Bekanntheitsgrad der Transaktionslinie analysieren. Das Problem ist nur, dass sie in der Regel aus 1 bis 2, seltener 3 Knicken besteht und der Markt zum Zeitpunkt der Ermittlung effizient wird. Vielleicht gibt es einige indirekte Anzeichen für die Entstehung von Arbitrage, dann liegt die Aufgabe ihrer frühzeitigen Erkennung, Klassifizierung und ständigen Modernisierung nur bei NS.

Was meinen Sie dazu?

Ich habe im Internet gelesen:

Что лучше, статистические методы или нейронные сети? Лучшим ответом на этот сугубо практический для прикладника вопрос является “It depends”. По-русски это означает “Все зависит от ситуации”.

Die wichtigste praktische Schlussfolgerung, die gezogen werden kann, läuft auf den Satz hinaus, der bereits zu einem Aphorismus geworden ist: "Wenn nichts hilft, versuche es mit neuronalen Netzen".