Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3101
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wenn wir den Prozentsatz der Signale desselben Typs in jedem Monat der Stichprobe für ein separates Quantensegment messen und den durchschnittlichen Prozentsatz profitabler Signale abziehen und eine Bilanz der Daten erstellen, können wir Folgendes sehen.
Dies ist das ausgewählte Quantensegment nach meiner Methode, und was wir sehen, ist, dass es vom 38. bis zum 127. Monat einen stabilen Trend gab, und dann begannen die Schwankungen.
Es stellt sich also heraus, dass, wenn die Stichprobe nach der klassischen 60+20+20-Methode aufgeteilt wird, wir lernen und alles in Ordnung ist bis etwa 100 Monate, dann bei 40 Monaten - bis 140 werden wir im Plus sein und schon bei der unabhängigen Stichprobe zum Testen werden wir eine Abwärtsbewegung mit einem Rebound erwischen. Gleichzeitig können wir sehen, dass es ähnliche Bewegungen in der Trainingsstichprobe vor dem 38. Monat gab, aber welches Modell wird sie berücksichtigen und eine "Erklärung" für diese Schwankungen finden? Ein gewöhnliches hölzernes Modell wird anfangen, einen Teil der gesamten Stichprobe herauszuziehen, während es notwendig ist, nur einen Teil davon zu beachten.
Das ist es, worüber ich nachdenke, eine Möglichkeit, ein Modell zu bauen, das die oben beschriebenen Nuancen berücksichtigt - und nicht das ganze Stück aufzuteilen, sondern so, als ob man die Veränderungen in jedem Abschnitt nach der gleichen Aufteilung separat berücksichtigen würde.
Vielleicht erfinde ich das Rad noch einmal neu und es gibt bereits eine Lösung? Ich habe das System bereits auf dem Papier skizziert, aber der Code liegt noch in weiter Ferne....
Nun, so sieht das Histogramm aus (laut Excel-Version)
Sie können sehen, dass es Monate gibt, in denen die Muster nicht funktioniert haben .... und diese sollten durch andere Splits erklärt werden, aber vorzugsweise durch das Entfernen derer, wo sie sich häufen.
Und, was ich will - wenn schon nicht das Modell so hart trainieren, dann doch zumindest im Voraus erkennen, vielleicht probabilistisch, den Abschnitt der Veränderung von einer positiven Verschiebung im Quantensegment der Wahrscheinlichkeit eines günstigen Ergebnisses zu einem negativen.
Wir denken hier über das Ziel nach, die Probe bildet sich bereits.
Wenn wir den prozentualen Anteil des Deltas von positiven und negativen Ergebnissen im Quantensegment für einen Monat als +1/-1 darstellen, ergibt sich bereits dieses Bild - und es sieht schon interessanter aus.
Wie lautet die Frage, so lautet die Antwort, tut mir nicht leid
Es gibt irgendeinen Quantenmist, der irgendwo schlecht abschneidet, was ist zu tun? den Durchschnitt seiner Signale bei neuen Daten, bei denen er schlecht abschneidet, so dass er dort nicht so schlecht abschneidet, aber auch nicht so gut bei vergangenen Daten.
Wie lautet die Frage, so lautet die Antwort, tut mir nicht leid
Durchschnitt, subtrahieren und dividieren :)
Wie auch immer, wenn ich es richtig verstanden habe, schlagen Sie vor, das Ziel an dem Ort zu ändern, an dem das "schlechte" Signal ist?
Alexei Nikolaev in Blogs auf R implementiert ein Modell des Spiels Cafe, oder der Sieg der Minderheit, ähnlich in Bezug auf den Markt, wenn die Position des Spielers in einer Gesellschaft mit weniger Teilnehmern ist, gewinnt er (im Café, nach dem Datum, Spieler, die am Tag mit der geringsten Anzahl von Besuchern kam gewinnen, und mit einer großen Anzahl von Besuchern verlieren), aber das ist zu einfaches Modell, im wirklichen Leben gibt es noch eine Menge von Arten von Spielern, die vom Staat und anderen großen Spielern und kleinen Spielern, die eine große Zahl sind. Das Modell ist noch nicht einmal grob erstellt)
Aber die Graphen dort sind sogar sehr ähnlich zu ticken wandern.
Das SB-Modell bei der Preisbildung ist eine grundlegende, begrenzende Variante, die in der Realität offenbar nie vorkommt, als Analogie aus der Physik - ein ideales Gas. Dieses Modell ergibt sich unter zwei Bedingungen - a) eine große Anzahl von Teilnehmern; b) absolute Unabhängigkeit ihrer Handelsstrategien von anderen Teilnehmern. Es ist klar, dass die zweite Bedingung schwer zu erfüllen ist. Wir können also untersuchen, wie die Abweichungen vom SB-Modell beeinflusst werden, wenn es beispielsweise mehrere Gruppen (Cluster) von Teilnehmern mit unterschiedlichen Strategien auf dem Markt gibt. Oder ein Teil der Teilnehmer verfügt über Insiderinformationen. Es ist per Definition unmöglich, mit reiner SB Geld zu verdienen, man kann nur mit Abweichungen davon Geld verdienen.
Ich persönlich sehe überhaupt keine Verwendung für das SB-Modell.
Es gibt nichts her, es hebt keine guten Eigenschaften hervor, es unterdrückt keine schlechten Eigenschaften, es vereinfacht nicht.
Ja, die Grafik sieht aus wie Preise, na und?
Das SB-Modell selbst ist natürlich von geringem Nutzen, es ist nur nützlich, wenn Abweichungen vom Modell diagnostiziert werden.
Ich nenne Stationarität den üblichen ökonometrischen Begriff: Konstanz von Mittelwert und Varianz. Die Märkte haben das natürlich nicht, sie sind kein "Denkmal". Die Heteroskedastizität ist beseitigt, der Rest ist nahe an SB.
Im Allgemeinen sagt die Art der Verteilung wenig über die Vorhersagbarkeit aus. Es handelt sich um ein mathematisches Spiel, das vom Handel weit entfernt ist. Fügen Sie dem Kurs eine gewisse Unschärfe hinzu, die den Spread abdeckt. Oder eine stetige Rückkehr zum Mittelwert zu bestimmten Zeiten des Tages. Der Spread wird sich nicht ändern, und es wird möglich sein, Geld zu verdienen. Grob kann man dies und ähnliches als Ineffizienz bezeichnen. Um dies zu erreichen, muss man Algorithmen schreiben, die der Tatsache Rechnung tragen, dass man nicht alles vorhersagen kann und es auch nicht muss. Ich würde nicht sagen, dass es einen solchen Fluch gibt, sondern nur, dass es wirklich effiziente Werkzeuge gibt, aus denen man nichts herausholen kann.
Imho natürlich, aber wenn man Preismodelle mit nachvollziehbaren Abweichungen von der SB baut, dann kann man z.B. auf dieser Basis künstliche Notierungen generieren, auch für tausend Jahre. Dann lernt man an diesen Kursen mit Hilfe von MO, die Stellen zu bestimmen, an denen es Abweichungen gab, und versucht dann, dasselbe an realen Kursen zu tun. Alternativ dazu.
Das SB-Modell selbst ist natürlich von geringem Nutzen, es ist nur nützlich, wenn Abweichungen von diesem Modell diagnostiziert (gefunden) werden.