Der Markt ist ein kontrolliertes dynamisches System. - Seite 59

 
Mathemat:

Alexej, ich stelle die erste Frage: Warum

1) Konstante Auswirkungen, die unabhängig vom Aktienkurs sind (Alpha-Auswirkungen),
2) eine Auswirkung, die proportional zum Aktienkurs ist (Beta-Auswirkung),
3) Proportional zur Ableitung des Aktienkurses (Gamma-Effekt)
4) proportional zum Quadrat des Aktienkurses (Einführung von Nichtlinearität) (Delta-Effekt).

Wenn

nur die "Externe" beeinflusst die "Aktie" und nicht umgekehrt

? Ich verstehe, dass man auf Äquivalente reduzieren kann, aber ist es nicht logischer, die Reaktion zunächst in Grad der Auswirkung darzustellen und nicht andersherum?

Die Linearität der Diffusionen zweiter Ordnung erleichtert übrigens die Einführung von Konzepten der klassischen Mechanik - Impulsaktion und Lagrange-Funktion (Energie). Im Bereich der Invarianz der äußeren Einflüsse kann man auch von einer gewissen Anlehnung an den Energieerhaltungssatz sprechen.
Aber hier bin ich grundlegend anderer Meinung: Im Grunde recycelt unser System nur eingehende Energie in ausgehende Energie durch "Annihilation", entschuldigen Sie die schillernde Terminologie. In dem Moment, in dem sich Verkäufer und Käufer auf ein Geschäft einigen, verschwindet ein kleiner Teil der zugeführten Energie aus dem System und hinterlässt nur eine erhöhte Entropie. Und der Energiefluss durch das System, grob gesagt die Transaktionsvolumina, ist eine alles andere als konservierte Größe, die aber die Existenz des Systems erst ermöglicht.
 
avtomat:
2) Auswahl des Optimierungskriteriums. Dieses Kriterium bestimmt den Betriebsfrequenzbereich des Modells.

Das Kriterium sollte meines Erachtens zusammengesetzt sein und folgende Faktoren gleichzeitig berücksichtigen (z. B. mittels einer Sanktionsfunktion)

- Modell Residuen Korrelation Zeit -> min

- die Abweichung der Residuenverteilung von der Normalverteilung -> min

- Norm des Residuenvektors -> min

- Anzahl der nicht gegen Null konvergierenden Modellparameter -> min

Dies gilt für die Impfung, ohne Berücksichtigung des Eingabemodells, das ich in Kürze ändern werde)

 
alsu:

... ohne Berücksichtigung des Eingangssignalmodells, das ich demnächst vorstellen werde)


Unwillkürlich kommt mir eine solche berühmte Geschichte in den Sinn. Als Laplace Napoleon ein Exemplar seiner "Himmelsmechanik" überreichte, bemerkte der Kaiser: "Monsieur Laplace, man sagt, dass Sie dieses große Buch über das System der Welt geschrieben haben, ohne den Schöpfer auch nur einmal zu erwähnen". Darauf soll Laplace geantwortet haben: "Ich brauchte diese Hypothese nicht. Die Natur hat Gott ersetzt.

;)

 
avtomat:

"Ich brauchte diese Hypothese nicht. Die Natur hat Gott ersetzt.

Doch nur hundertfünfzig Jahre später musste die Hypothese revidiert werden, weil sich herausstellte, dass jemand "bei jeder Messung die Würfel rollen ließ", wie Albertuszka es ausdrückte (obwohl er selbst bis zu seinem Tod nicht an diesen "Unsinn" glaubte).
 
alsu:

Das Kriterium sollte meines Erachtens zusammengesetzt sein und die folgenden Faktoren gleichzeitig berücksichtigen (z. B. durch eine Sanktionsfunktion):

- Modell Residuen Korrelation Zeit -> min

- die Abweichung der Residuenverteilung von der Normalverteilung -> min

- Norm des Residuenvektors -> min

- Anzahl der nicht gegen Null konvergierenden Modellparameter -> min

Dies gilt für die Inokulation, ohne Berücksichtigung des Eingabemodells, das ich gleich auflösen werde)


Man kann sich viele verschiedene Kriterien ausdenken, und zwar sehr viele verschiedene. Eine solche Vielzahl von Kriterien führt jedoch in der Regel nicht zu dem gewünschten Ergebnis, da sie inkonsistent sind.
 
alsu:

Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):

- время корреляции остатков модели -> min

- отличие распределения остатков от нормального -> min

- норма вектора остатков -> min

- количество параметров модели, не обращающихся в нуль -> min

Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)


vielleicht einfacher - ein Fehler ist ein Verlust, eine korrekte Vorhersage ist ein Gewinn. Wir schätzen Einnahmen/Verluste. D.h. z.B. PF. D.h. das Optimierungskriterium PF->max
 
avtomat:

Es gibt viele verschiedene Kriterien, die entwickelt werden können. Diese Vielzahl von Kriterien führt jedoch in der Regel nicht zu dem gewünschten Ergebnis, da sie inkonsistent sind.
Hier ist alles wichtig: die ersten beiden Punkte erfordern, dass die Residuen näher an den GSR gebracht werden - das bedeutet Modelladäquanz; der dritte Punkt ist an sich klar, der Fehler sollte so klein wie möglich sein; der vierte Punkt - übermäßige Modellkomplikation riecht nach Instabilität und Anpassung und wird höchstwahrscheinlich die Prognosequalität beeinträchtigen. Ich sehe keine Widersprüche, man muss nur die Gewichtung der einzelnen Komponenten richtig wählen.
 
alsu:
Hier ist alles wichtig: Die ersten beiden Punkte erfordern eine Annäherung der Residuen an den GSR - das bedeutet, dass das Modell angemessen ist; der dritte Punkt ist an sich klar, der Fehler sollte so klein wie möglich sein; der vierte Punkt - übermäßige Modellkomplikation riecht nach Instabilität und Anpassung und wird höchstwahrscheinlich die Prognosequalität beeinträchtigen. Ich sehe keine Widersprüche, man muss nur die Gewichtung der einzelnen Komponenten richtig wählen.


Meiner Meinung nach ist keines der von Ihnen genannten Kriterien

- Modell Residuen Korrelation Zeit -> min

- Abweichung der Residuenverteilung von der Normalverteilung -> min

- Norm des Residuenvektors -> min

- die Anzahl der nicht gegen Null konvergierenden Modellparameter -> min

ist aus Sicht der Modellanpassung weder notwendig noch nützlich.

Und schon gar nicht Punkt 2, der eine Anpassung an eine Normalverteilung erfordert. Das ist bereits, pardon, Unsinn.

 
Avals:

vielleicht einfacher - ein Fehler ist ein Verlust, eine korrekte Vorhersage ist ein Gewinn. Wir schätzen Einnahmen/Verluste. D.h. z.B. PF. D.h. das Optimierungskriterium GF->max

Wir können es so machen, aber wir sollten auch darüber nachdenken, wie wir die Parameter mit einem Algorithmus abstimmen können.

Es gibt 9000 verschiedene Algorithmen, aber rein mathematisch gesehen haben sie alle eines gemeinsam: Um das Optimum zu erreichen, muss man den Gradienten der zu optimierenden Funktion durch angepasste Parameter kennen. Natürlich kann man PF als Kriterium verwenden und sogar alle Ableitungen in Echtzeit berechnen (mit automatischer Differenzierung ist das nicht so schwierig). Es gibt jedoch ein Problem: Der Wert des Profilfaktors ist stark von der Preisreihe selbst abhängig, die bekanntermaßen den Charakter eines verrauschten Prozesses hat. Eine Schwankung von nur einer Kerze um einige Punkte kann zu einem zusätzlichen oder einem fehlenden Geschäft mit unvorhersehbarem Ergebnis führen, was sich dramatisch auf den Gewinnfaktor auswirken würde (vergessen Sie nicht, dass wir die Modellstruktur auf dem kürzest möglichen Zeitintervall optimieren müssen, da wir zunächst davon ausgehen, dass das Modell variable Parameter hat). Das Kriterium ist also sehr ungleichmäßig, und der Optimierungsalgorithmus kann einfach in einem lokalen Optimum stecken bleiben, das - ich wiederhole - durch die bloße Schwankung des Preises bedingt ist.

Die Norm des Fehlervektors (Punkt 3) hat dagegen keinen solchen Nachteil: Eine Änderung des Preises für eine Kerze um 1 Punkt führt zu einer ebenso unbedeutenden Änderung der Straffunktion. Das Gleiche gilt für die Posten 1 und 2, während Posten 4 überhaupt nicht preisabhängig ist.


Kurz gesagt, das Kriterium muss so stabil wie möglich gegenüber den Anfangsbedingungen (in unserem Fall die Optimierungsstichprobe) sein, oder der Algorithmus muss eine Überprüfung der Globalität des gefundenen Optimums haben. Sonst gibt es statt Optimierung nur noch Chaos.

 
avtomat:


Und schon gar nicht Punkt 2, der eine Anpassung an eine Normalverteilung erfordert. Das ist, mit Verlaub, Unsinn.

Hier widersprechen Sie sich bereits selbst: Wenn der Prozess als Signal+Rauschen dargestellt wird, dann sollte das Residuum im Idealfall genau thermisches Rauschen sein, das genau 0 Information trägt. Im Allgemeinen ist diese Prämisse seit etwa fünfzig Jahren allgemein anerkannt: der Output der SBS (S. 1 und 2) <=> das Modell beschreibt die deterministische Komponente angemessen.

Und was ist mit Punkt 3? Seit wann ist das Fehlerminimum aus Sicht der Anpassung nutzlos?