Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2637
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Nehmen wir an, wir haben Muster gefunden, die periodisch auftreten und eine bestimmte Kursbewegung begleiten, sobald sie auftreten.
Hat jemand den Zusammenhang zwischen der Häufigkeit des Auftretens eines Musters und dem nachfolgenden Ereignis untersucht?
Wir sprechen hier von Wahrscheinlichkeitsclustern, wenn es einen solchen Begriff gibt.
Nehmen wir an, wir können davon ausgehen, dass es, wenn ein Muster lange Zeit nicht aufgetaucht ist, eine vorhersehbare (begleitende) Preisbewegung geben wird, nachdem es aufgetreten ist, und dass es dann wieder abklingen wird, da das Muster für alle sichtbar geworden ist und somit Marktineffizienzen beseitigt hat.
Ich denke, dass die Entwicklung von Metriken zur Bewertung dieser vorübergehenden Zustände im Laufe der Zeit (von wahrscheinlicher bis hin zu gleich wahrscheinlicher oder sogar negativer Vorhersage) dazu beitragen kann, solche Muster zu finden und auszuwählen, und ein Modell, das dies berücksichtigen kann, könnte sich als recht effektiv erweisen.
Ich arbeite in dieser Richtung, aber es fehlt mir an mathematischem Gerät und theoretischem Wissen.
Ich kann nur mit sehr einfachen Mustern arbeiten, wie der Bewegung nach einem Scheitelausbruch. In dem Sinne, dass es genug von ihnen geben sollte, damit die Häufigkeit als gute Schätzung der Wahrscheinlichkeit dienen kann.
Meiner Beobachtung nach werden Marktineffizienzen (im Sinne von "anders als SB") wenig bedeutsam, wenn die Mustermarkierung vollständig formalisiert ist. Konventionell gesprochen, innerhalb der Spanne. Es besteht der natürliche Wunsch, das Musterdesign komplexer zu gestalten, aber dies führt in der Regel zu einer geringeren Stichprobengröße und instabilen Ergebnissen.
Denken Sie an Funktionen wie Inkremente, aber informativer. Ermitteln Sie zum Beispiel den Durchschnittspreis für die gesamte Historie und ziehen Sie den Rest davon ab. Sie benötigen eine maximale Abweichung, die jedoch innerhalb eines Bereichs liegen muss, der mit den neuen Daten bekannt ist.
Das erinnert mich an die Theorie des Spread-Trading. Und das ist eine ziemlich komplizierte Mathematik, wenn man sich die Fülle der konstruierten Artikel zu diesem Thema ansieht.
Aber es wird so etwas wie ein z-Score sein, wenn es nur Stationarität in der Historie gibt? Obwohl sich der Versuch, die Stationarität zu erreichen, natürlich nicht grundsätzlich vermeiden lässt - ohne sie kann man nicht viel handeln.
Das erinnert mich an die Theorie des Spread-Trading. Und das ist eine ziemlich komplizierte Mathematik, wenn man sich die Fülle der konstruierten Artikel zu diesem Thema ansieht.
Aber es wäre so etwas wie ein z-Score, wenn es nur Stationarität in der Geschichte gibt, nicht wahr? Obwohl es natürlich prinzipiell unmöglich ist, Stationarität anzustreben - ohne sie kann man nicht wirklich handeln.
Sie können nur mit sehr einfachen Mustern arbeiten, z. B. mit der Bewegung nach dem Durchbruch eines Tops. In dem Sinne, dass es genug von ihnen geben muss, damit die Häufigkeit als gute Schätzung der Wahrscheinlichkeit dienen kann.
Wie viele sind genug? Angenommen, ich habe zwischen 5 % und etwa 15 % in der Stichprobe, die einfache "Muster" auswählen, und die Stichprobe für das Training, sagen wir 15k Beispiele, ist das zu wenig?
Meine Beobachtung ist, dass Marktineffizienzen (im Sinne von Unterschieden zu SB) kaum noch von Bedeutung sind, wenn der Musteraufschlag vollständig formalisiert ist. Konventionell gesprochen, innerhalb der Spanne. Es besteht der natürliche Wunsch, das Musterdesign komplexer zu gestalten, aber dies führt in der Regel zu einer geringeren Stichprobengröße und instabilen Ergebnissen.
Die Frage ist, wie man diese Beobachtungen besser formalisieren kann, um schnell Ergebnisse zu erhalten und Muster mit oder ohne Regelmäßigkeit zu verwerfen/zu klassifizieren.
Wie viel ist genug? Angenommen, ich habe von 5% bis etwa 15% in der Stichprobe ausgewählt einfache "Muster", und die Probe für die Ausbildung, sagen wir 15k Beispiele, ist dies zu wenig?
Es ist besser, in Stücken von Mustern zu zählen. Das gleiche Muster von Unterbrechungen (sinnvoll für die Arbeit) kann nicht mehr als ein paar hundert pro Jahr auftreten. Ich würde es als eine begrenzte Zahl bezeichnen. Wenn man versucht, kompliziertere Muster daraus zu machen - z. B. ein Paar von Knoten, die durchbrechen, und die auch einige Bedingungen erfüllen -, dann können es Dutzende pro Jahr sein. Und das ist noch nicht genug.
Die Frage ist, wie man diese Beobachtungen besser formalisieren kann, um schnell Ergebnisse zu erhalten und Muster mit und ohne Muster zu verwerfen/zu klassifizieren.
So etwas wie eine Schleife über alle möglichen Konstruktionen eines Musters eines bestimmten Typs? Ich habe einmal etwas Ähnliches gemacht, mit denselben Scheitelpunktauflösungen. Im Prinzip ist es möglich, sich etwas auszudenken, aber die Suche wird (im allgemeinen Fall) nicht iterativ, sondern rekursiv sein. Auch hier wären die meisten Muster aufgrund ihrer Komplexität und Seltenheit bedeutungslos. Es ist wahrscheinlich einfacher, manuell eine Liste sinnvoller Muster zu erstellen und diese in einer regelmäßigen Schleife zu umgehen und das optimale Muster auszuwählen.
Und warum?
Wenig aussagekräftige reale Daten.
Zy. Die Erzeugung von Daten in einer zufälligen Umgebung erweckt den Eindruck, dass die Daten länger werden. Dies ist ein Irrtum. So viele Daten, wie es gibt. 211 Balken bedeutet 211 und nicht mehr.
Hallo!
Die Wahrheit ist da draußen... (Fox Mulder "The X-Files")
Sie sind offensichtlich nahe am Ziel, Sie müssen sich mehr anstrengen.