Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3117

 
Maxim Dmitrievsky #:

Das alles wurde hier in der Vorgeschichte schon oft diskutiert. Das erste auf Kauf/Verkauf trainierte Modell wird an neuen Daten getestet. Fälle, in denen es falsch liegt, werden in die Klasse "nicht zu handeln" eingeordnet, der Rest in "handeln". Der zweite Klassifikator wird darauf trainiert. Wir erhalten zwei Modelle. Das eine sagt die Richtung voraus, das andere, ob der Handel abgebrochen werden sollte. Das gibt uns Flexibilität, wenn wir nur die Schwelle für den Handel durch ein Modell festlegen. Denn die beiden Modelle können verbessert werden, eines durch das andere. Ich habe die ursprüngliche Methode im letzten Artikel beschrieben. Dann bin ich zu einer modifizierten Logik übergegangen.

Dies ist übrigens eine offene Frage, denn es ist möglich, sich gegenseitig zu verbessern, offenbar auf unterschiedliche Weise.

Dann bin ich auf die Kozul-Inferenz gestoßen, bei der es auf ähnliche Weise funktioniert.

Das weiß ich nicht.

Und dass das zweite Modell eine solche Filterung nutzt?

 
mytarmailS #:

Ich weiß es nicht.

Und wozu ist diese Filterung durch das zweite Modell gut?

Bei den neuen Daten ist sie besser.

 
Maxim Dmitrievsky #:

auf den neuen Daten, ist es besser

wenn wir Wahrscheinlichkeitsschwellen für das ursprünglich einzige Modell festlegen, wie

> 0,7 kaufen

< 0,3 verkaufen

dann wird es auch besser, sowohl beim Test als auch beim Trainee, und es wird natürlich weniger Trades geben...

gibt das zweite Modell wirklich etwas her? ich bin neugierig...

Gab es irgendwelche Tests, Vergleiche?

 
Maxim Dmitrievsky Richtung des Handels vorhersagt, und einem Metamodell besteht, das die Gewinnwahrscheinlichkeit vorhersagt (handeln oder nicht handeln):

Nennen wir das erste Modell das Hauptmodell, das den Merkmalsraum mit einer schwarzen Linie in Kauf/Verkauf unterteilt. Das zweite Modell ist ein Metamodell, das den gesamten Merkmalsraum in Handel/Nichthandel unterteilt (rote Linie).

Stellen wir uns nun eine andere Variante vor, bei der es zwei Metamodelle gibt und jedes von ihnen die verschiedenen Merkmalsräume der Klassen KAUFEN und VERKAUFEN getrennt in Handel/Nicht-Handel unterteilt (zwei rote Linien).

Eine rein theoretische Frage, über die man nachdenken sollte, ist, ob die zweite Option besser ist. Und wenn sie besser ist, warum. Bitte kommentieren.

Eine Anfrage, wahrscheinlich sogar an Alexej Nikolajew, wie man die Wirkung eines solchen "Eingriffs" bestimmen kann. Immerhin erhalten wir 2 Wahrscheinlichkeitsverteilungen von zwei Metamodellen, die über Ecken verglichen/ausgewertet/verteilt werden können.

Dies ist eine zweideutige Formulierung des Problems.

Es stellt sich heraus, dass wir dem zweiten, probabilistischen Modell mehr Glauben schenken als dem ersten, und das zweite Modell als Filter für das erste verwenden.

Oder wir behandeln die Situation als eine "UND"-Verknüpfung, d. h. als Schnittmenge von Ergebnissen.


Das ist eine Sackgasse, ich habe das schon gemacht.


Ich bin noch keinem Modell begegnet, das eine Richtung angibt, denn wenn es eine Richtung angibt, und sei es auch nur äußerlich, dann ist sie das Ergebnis einer Regularisierung der Wahrscheinlichkeit einer Richtung. Deshalb wird der Standardansatz für R "Ensemble von Modellen" genannt, bei dem die Ergebnisse von zwei oder mehreren Modellen der ersten Ebene als Prädiktoren in einem Klassifizierungsalgorithmus der zweiten Ebene verwendet werden. Übrigens, wenn Sie kategoriale Variablen so sehr mögen, können Sie diese auch in die Eingabe eines Klassifikators einspeisen. Wenn es möglich ist, die Ergebnisse der Modelle nach Konfidenzniveau zu ordnen, kann dies durch Gewichte angepasst werden. Das heißt, die zweite Ebene ist ein Klassifikator, der die Ergebnisse der Klassifizierung des Modells der ersten Ebene als Prädiktoren verwendet. Dieser Ansatz ist sehr interessant für unausgewogene Klassen, die durch eine andere Regularisierung als 0,5 erhalten werden, z. B. teilen wir das Klassifizierungsergebnis als Wahrscheinlichkeit durch Quantile mit Werten von 0,4 und 0,6. Die Mitte ist vom Markt verschwunden.

 
mytarmailS #:

wenn wir auf das ursprünglich einzige Modell Wahrscheinlichkeitsschwellen setzen wie

> 0,7 kaufen

< 0,3 verkaufen

dann wird es auch besser auf beiden Test und Trainee, und es wird weniger Trades natürlich ....

Ob das zweite Modell wirklich etwas bringt? Ich frage mich...

Hat es irgendwelche Tests, Vergleiche gegeben?

Stellen Sie sich vor, Sie haben das erste Modell durch Kreuzvalidierung trainiert und alle falschen Vorhersagen in das zweite Modell eingegeben, um nicht zu handeln. Sie haben bereits eine statistische Signifikanz, dass das erste Modell an bestimmten Stellen häufiger falsch liegt und an manchen Stellen immer gut handelt. Dies kann dann durch das zweite Modell herausgefiltert werden. Durch ein Modell ist das schon schwieriger zu machen. Es gibt noch andere Varianten eines solchen Tunings.
 
Maxim Dmitrievsky #:
Stellen Sie sich vor, Sie haben das erste Modell durch Kreuzvalidierung trainiert und alle falschen Vorhersagen in das zweite Modell als No-Trade eingegeben. Sie haben bereits eine statistische Signifikanz dafür, dass das erste Modell an bestimmten Stellen mit höherer Wahrscheinlichkeit falsch liegt, was durch das zweite Modell herausgefiltert werden kann. Durch ein Modell ist es schon schwieriger zu machen. Es gibt noch andere Varianten dieser Art von Tuning.

Nun, das klingt vernünftig.

 
mytarmailS #:

Nun, das klingt vernünftig.

Selbst wenn das zweite Modell ebenfalls falsch ist, korrigiert es doch irgendwie die Fehler des ersten Modells in diesem Fall, ja, so in etwa. Bei der Kozul-Inferenz gibt es eine strengere Begründung für ihre Ansätze. Ich würde sagen, vollkommen rigoros bewiesen.

https://en.wikipedia.org/wiki/Frisch%E2%80%93Waugh%E2%80%93Lovell_theorem

 
Forester #:
Ich habe es nicht ausprobiert. Intuitiv) Aber wie Marx sagte: Die Praxis ist das Kriterium der Wahrheit. Wenn es für Sie in der Praxis funktioniert - gut).

Ich versuche gerade, zur zweiten Option überzugehen.

 
СанСаныч Фоменко #:

Eine zweideutige Formulierung des Problems.

Es stellt sich heraus, dass wir dem zweiten, probabilistischen Modell mehr glauben als dem ersten, das zweite Modell wird als Filter für das erste verwendet.

Oder wir interpretieren die Situation als "UND"-Verknüpfung, d. h. als Schnittmenge von Ergebnissen.


Ein Weg in die Sackgasse, den wir schon gegangen sind.


Ich bin auf kein Modell gestoßen, das eine Richtung angibt, denn wenn sie auch nur äußerlich eine Richtung angeben, ist dies das Ergebnis einer Regularisierung der Wahrscheinlichkeit einer Richtung. Deshalb wird der Standardansatz für R "Ensemble von Modellen" genannt, bei dem die Ergebnisse von zwei oder mehreren Modellen, sozusagen der ersten Ebene, als Prädiktoren in einem Klassifizierungsalgorithmus der zweiten Ebene verwendet werden. Übrigens, wenn man kategorische Variablen so sehr mag, kann man sie auch in den Input eines Klassifikators einspeisen. Wenn es möglich ist, die Ergebnisse von Modellen nach Konfidenzniveau zu ordnen, kann dies durch Gewichte angepasst werden. Das heißt, die zweite Stufe ist ein Klassifikator, der die Ergebnisse der Klassifizierung des Modells der ersten Stufe als Prädiktoren verwendet. Dieser Ansatz ist sehr interessant für unausgewogene Klassen, die durch eine andere Regularisierung als 0,5 erhalten werden, z. B. teilen wir das Klassifizierungsergebnis als Wahrscheinlichkeit durch Quantile mit Werten von 0,4 und 0,6. Die Mitte ist vom Markt verschwunden.

Ensemble ist von der Bedeutung her nahe, aber von der Umsetzung weit entfernt. Da der vorgeschlagene Ansatz auf verschiedene Weise verwendet werden kann, um unterschiedliche Ergebnisse zu erzielen, ist er sehr flexibel.

Ich habe auch mit Ensembles gearbeitet, aber es hat nicht funktioniert.

 
Maxim Dmitrievsky #:
Stellen Sie sich vor, Sie haben das erste Modell durch Kreuzvalidierung trainiert und alle falschen Vorhersagen in das zweite Modell als No-Trade eingegeben. Sie haben bereits eine statistische Signifikanz dafür, dass das erste Modell an bestimmten Stellen mit höherer Wahrscheinlichkeit falsch liegt, was durch das zweite Modell herausgefiltert werden kann. Durch ein Modell ist das schon schwieriger zu machen. Es gibt noch andere Varianten eines solchen Tunings.

Die Idee der Fehlerfilterung ist mir überhaupt nicht klar.

Es stellt sich heraus, dass, wenn das Modell 50/50 vorhersagt, der Rest 100% vorhersagt, wenn man die schlechten 50 wegwirft? Das ist nur Superlearning und nichts anderes.


Der Klassifizierungsfehler ergibt sich aus der Tatsache, dass dieselben Werte der Prädiktoren in einigen Fällen richtig und in anderen Fällen nicht richtig voraussagen, und dies ist das Problem, das nur auf der Stufe der Filterung der "Stärke der Beziehung" zwischen dem Prädiktor und der Zielvariablen beseitigt werden kann, und es ist völlig unmöglich, Prädiktoren zu filtern und auf diese Weise den Klassifizierungsfehler um 10 Prozent zu verringern.