Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3356

 
Maxim Dmitrievsky #:
Ich hatte gehofft, dass jemand den Tipp wenigstens googeln würde.

Selbst wenn man Wahrscheinlichkeitskurven in der Ausbildung hat, über welche neuen Daten kann man reden. Und Busting und Forrest sündigen in dieser Hinsicht gewaltig. Busting ist overconfident, Forrest ist underconfident. Vorausgesetzt natürlich, dass Sie den Schwellenwert überhaupt verwenden wollen.

Ich selbst habe die Beobachtung gemacht, dass sich die Qualität der Trades nicht verbessert, wenn man den Schwellenwert erhöht, auch nicht in der Ausbildung. Was liefert das Modell dann mit hoher Wahrscheinlichkeit? Nichts :)

In Sanych's Bild ist selbstbewusstes Bousting, man sieht an der Randspalte Ausreißer. Der Tiefpunkt sollte glatter sein. Dies ist ein Übertrainingsmodell.

Es zeigt das Ergebnis des Modells auf "Wahrscheinlichkeits"-Bereichen mit 0,05 Schritt. CatBoost setzt die Klassentrennung ziemlich genau auf 0,5 (magnetta ist 1, aqua ist 0).

Sie können sehen, dass das Ergebnis der Flosse ab 0,35 positiv ist - die grüne Kurve steigt über die rote Kurve.

Ist es das, was Sie kalibrieren wollen - die Verschiebung des Punktes der Klassentrennung zum Punkt der Umsatzgenerierung?

 
Aleksey Vyazmikin #:

Ist es genau das, was Sie kalibrieren wollen - die Verlagerung des Punktes der Klassenteilung auf den Punkt der Einkommenserzielung?

Nein.
 
La. Sie können 30 Mal fragen, aber Sie können es nicht googeln.
 
Maxim Dmitrievsky #:
Nein.

Was ist dann der Zweck?

 

Ich glaube, jeder hat schon einmal von der Kalibrierung gehört, aber sie ist nicht von praktischem Nutzen, eben weil die Stichprobe nicht repräsentativ ist.

Eine probabilistische Schätzung der einzelnen Blätter führt meiner Meinung nach zu einem vernünftigeren Ergebnis als eine Neugewichtung der Summe der Blätter des Modells.

 
Aleksey Vyazmikin #:

Ich glaube, jeder hat schon einmal von der Kalibrierung gehört, aber sie hat keinen praktischen Nutzen, weil die Stichprobe nicht repräsentativ ist.

Die probabilistische Schätzung der einzelnen Blätter ergibt meiner Meinung nach ein vernünftigeres Ergebnis als die Neugewichtung der Summe der Blätter des Modells.

Jeder hat schon alles gehört, aber niemand hat auf irgendetwas geantwortet. Ganz zu schweigen von anderen Nuancen, die nicht offengelegt werden, sondern nur vermutet werden, dass es so ist.

Und wenn man ein schwaches (mit geringer Erwartung), aber stabiles OOS-Modell hat, macht es keinen Sinn, es zu kalibrieren? Und wenn Sie darüber nachdenken.
 
Maxim Dmitrievsky #:
Jeder hat alles gehört, aber niemand hat etwas geantwortet. Ganz zu schweigen von anderen Nuancen, die nicht offenbart werden, sondern nur erraten, dass es sich als dies herausstellt.

Und wenn man ein schwaches (mit geringer Erwartung), aber stabiles OOS-Modell hat, macht es keinen Sinn, auch dieses zu kalibrieren? Und wenn Sie darüber nachdenken.

Jetzt kam mir die Idee einer konstanten Kalibrierung mit einer gewissen Gewichtung - etwas wie EMA für jedes Intervall. Dann gibt es zumindest einen Effekt der Anpassung an die Marktvolatilität und die Modellveralterung.

Ich sehe keinen Sinn in einer statischen Kalibrierung auf einigen separaten Daten. Bei meinen Prädiktoren habe ich die Frage der Stabilität der statistischen Indikatoren untersucht, und es gibt nur wenige solcher Indikatoren, und das Modell ist voll von solchen erratischen Prädiktoren. Deshalb suche ich nach Stabilität, auf die so etwas angewendet werden kann.....

Im Screenshot oben habe ich das Modell im Ausschnitt gezeigt - man kann sehen, wie niedrig der Recall an den Rändern in der Regel ist, was bereits für ungleiche statistische Maße bei gleicher Gewichtung spricht, und oft werden sie nicht ausreichen, um auch nur theoretisch von Stabilität in diesem Bereich der "Wahrscheinlichkeit" zu sprechen. Auch unter diesem Gesichtspunkt erscheint die Kalibrierung der Gesamtsumme also als fragwürdige Idee.

Ich interessiere mich mehr für die Idee der Neugewichtung von Werten in Blättern, aber ich habe schon früher darüber geschrieben, aber ich habe hier keine Rückmeldung erhalten - es ist also alles auf meine eigene....

 
Wieder einige neue Definitionen.
Zum letzten Mal: Der Klassifikator ist kalibriert, weil er falsche Wahrscheinlichkeiten ausgibt. In ihrer ursprünglichen Form sind sie bedeutungslos. Finde dich damit ab.
 
Catbusta hat einen offenen Code - Sie können ihn einsehen, um genau zu wissen, was verschenkt wird.