Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3355

 
Maxim Dmitrievsky #:
Ich hatte gehofft, dass jemand den Tipp wenigstens googeln würde.

Selbst wenn man Wahrscheinlichkeitskurven in der Ausbildung hat, über welche neuen Daten kann man reden. Und Busting und Forrest sündigen in dieser Hinsicht gewaltig. Busting ist overconfident, Forrest ist underconfident. Vorausgesetzt natürlich, dass Sie den Schwellenwert überhaupt verwenden wollen.

Ich selbst habe die Beobachtung gemacht, dass sich die Qualität der Trades nicht verbessert, wenn man die Schwelle erhöht , auch nicht bei Trades. Was bringen sie dann mit hoher Wahrscheinlichkeit? Nichts :)

Irgendwie schenken Sie meinen Beiträgen keine Aufmerksamkeit und konzentrieren sich auf Wahrscheinlichkeiten. Es ist egal, wie die Wahrscheinlichkeit heißt, wichtig ist, dass, wenn sie sich nicht verbessert, das Modell übertrainiert ist, in die Tonne. Der Vorhersagefehler bei OOV, OOS und VNU sollte in etwa gleich groß sein.

Hier ist ein weiteres Histogramm

Anderer Algorithmus - anderes Histogramm, obwohl die Beschriftungen und Prädiktoren dieselben sind. Wenn Sie nach einer Art theoretischer Wahrscheinlichkeit suchen, die besagt, dass verschiedene Klassifizierungsalgorithmen die gleichen Histogramme erzeugen ... Das kommt mir nicht in den Sinn, denn man muss mit bestimmten Algorithmen arbeiten, und die werden Vorhersagen machen, und die müssen bewertet werden, nicht irgendein theoretisches Ideal. Die wichtigste Bewertung ist hier die Überanpassung des Modells, nicht die Nähe der Wahrscheinlichkeiten zu einem theoretischen Ideal.

 
СанСаныч Фоменко #:

Irgendwie schenken Sie meinen Beiträgen keine Aufmerksamkeit und konzentrieren sich auf Wahrscheinlichkeiten. Es spielt keine Rolle, wie die Wahrscheinlichkeit heißt, wichtig ist, dass das Modell übertrainiert ist, wenn es sich nicht verbessert, und zwar in die Tonne. Der Vorhersagefehler bei OOV, OOS und VNE sollte in etwa gleich groß sein.

Ein unausgereiftes Modell liefert keine korrekten Wahrscheinlichkeiten, egal welches Modell. Das ist die Geschichte. Die vorhergesagten Bezeichnungen können vollständig übereinstimmen, aber die Wahrscheinlichkeiten spiegeln nicht die tatsächliche Wahrscheinlichkeit des Ergebnisses wider.
Haben Sie mich verstanden?
 
Maxim Dmitrievsky #:
Das Modell gibt nicht die richtigen Wahrscheinlichkeiten an, keine davon. Das ist die Geschichte. Sie haben vielleicht Beschriftungen vorhergesagt, die vollständig übereinstimmen, aber die Wahrscheinlichkeiten nicht.
Haben Sie mich verstanden?

Ich habe meinen Beitrag hinzugefügt. Jedes Modell liefert korrekte Wahrscheinlichkeiten in dem Sinne, dass der Klassifizierungsfehler nicht schwankt.

 
СанСаныч Фоменко #:

Irgendwie schenken Sie meinen Beiträgen keine Aufmerksamkeit und konzentrieren sich auf Wahrscheinlichkeiten. Es spielt keine Rolle, wie die Wahrscheinlichkeit heißt, wichtig ist, dass das Modell übertrainiert ist, wenn es sich nicht verbessert, und zwar in die Tonne. Der Vorhersagefehler bei OOV, OOS und VNU sollte etwa gleich groß sein.

Hier ist ein weiteres Histogramm

Anderer Algorithmus - anderes Histogramm, obwohl die Beschriftungen und Prädiktoren dieselben sind. Wenn Sie nach einer Art theoretischer Wahrscheinlichkeit suchen, die besagt, dass verschiedene Klassifizierungsalgorithmen die gleichen Histogramme erzeugen ... Das kommt mir nicht in den Sinn, da man mit bestimmten Algorithmen arbeiten muss, die Vorhersagen machen und bewertet werden müssen, und nicht nach einem theoretischen Ideal. Die wichtigste Bewertung ist hier die Überanpassung des Modells, nicht die Nähe der Wahrscheinlichkeiten zu einem theoretischen Ideal.

Aufgeben? Googeln Sie Klassifikationswahrscheinlichkeitskalibrierung, sie sollte in R enthalten sein.

Zeichnen Sie die Wahrscheinlichkeitskurve Ihres Modells gegen den Benchmark auf.
 
Maxim Dmitrievsky #:
Aufgeben? Googeln Sie Klassifikationswahrscheinlichkeitskalibrierung, sie sollte in R.
zu finden sein.

Stellen Sie die Wahrscheinlichkeitskurve Ihres Modells gegen den Benchmark dar.

Wir reden über unterschiedliche Dinge.

Ich schreibe über das Ergebnis, und Sie schreiben über das Ideal der Zwischendaten.

Für mich ist es offensichtlich, dass die Wahrscheinlichkeitswerte für bestimmte Bezeichnungen, die von RF und ada angegeben werden, unterschiedlich sind, aber die Vorhersagen für bestimmte Bezeichnungen sind fast identisch. Ich interessiere mich nicht für die Wahrscheinlichkeitswerte, sondern für den Vorhersagefehler.

Wenn Sie theoretisieren, ist es höchstwahrscheinlich unmöglich, die Klassenwahrscheinlichkeit in Ihrem Sinne zu erhalten, da Sie beweisen müssen, dass Ihre Wahrscheinlichkeit den Grenzwertsatz erfüllt, was sehr zweifelhaft ist.

 
СанСаныч Фоменко #:

Wir reden über verschiedene Dinge.

Ich schreibe über das Ergebnis, und Sie schreiben über das Ideal der Zwischendaten.

Die von RF und ada angegebenen Klassenwahrscheinlichkeiten sind unterschiedlich, aber die Vorhersagen für bestimmte Bezeichnungen sind fast gleich. Ich interessiere mich nicht für die Wahrscheinlichkeitswerte, sondern für den Vorhersagefehler.

Wenn Sie theoretisieren, ist es höchstwahrscheinlich unmöglich, die Klassenwahrscheinlichkeit in Ihrem Sinne zu erhalten, da Sie beweisen müssen, dass Ihre Wahrscheinlichkeit den Grenzwertsatz erfüllt, was sehr zweifelhaft ist.

Dennoch, die ursprüngliche Frage war da, niemand hat sie beantwortet. Ich spreche von genau dem, was ich gefragt habe.
Es gibt also etwas, das man anstreben kann.
 
Maxim Dmitrievsky #:
Aber die ursprüngliche Frage war da, niemand hat sie beantwortet.
Es gibt also etwas, auf das man sich freuen kann.

Warum eigentlich? Wenn im Sinne einer These....

 
СанСаныч Фоменко #:

Warum eigentlich? Wenn im Sinne einer These....

Weil der Handel mit Wahrscheinlichkeitskurven bedeutet, Verluste statt Gewinne hinzunehmen. Jeder Klassifikator muss kalibriert werden, wenn es sich um eine risikobehaftete Anwendung handelt.
 
Endlich.