Gibt es ein Muster in diesem Chaos? Lassen Sie uns versuchen, es zu finden! Maschinelles Lernen am Beispiel einer bestimmten Stichprobe. - Seite 22

 
Aleksey Vyazmikin #:
Aber ich habe dieses Modell

.

Es gibt keinen Grund zu hoffen, dass das beste Modell in der Prüfung in Zukunft profitabel sein wird. Der Durchschnitt oder die Mehrheit sollte profitabel sein.

Es ist genau wie beim Tester-Optimierer - die besten Modelle werden in 99 % der Fälle Pflaume sein.

 
elibrarius #:

Splits werden nur bis zum Quantum vorgenommen. Alles innerhalb des Quants wird als derselbe Wert betrachtet und nicht weiter aufgeteilt.

Sie haben nicht verstanden - es geht darum, dass jede Aufteilung die Stichprobe für die nächste Aufteilung reduziert, die gemäß der Quantentabelle erfolgt, aber die Metrik wird sich jedes Mal ändern.

Nun, es gibt Algorithmen, die nach jedem Split eine neue Quantentabelle erstellen, wenn das Modell trainiert wird.

elibrarius #:

Ich verstehe nicht, warum du etwas in Quantum suchst, sein primärer Zweck ist es, die Berechnungen zu beschleunigen (sekundärer Zweck ist es, das Modell zu laden/verallgemeinern, so dass es keine weitere Aufteilung gibt, aber man kann auch einfach die Tiefe der Float-Daten begrenzen) Ich benutze es nicht, ich mache nur Modelle auf Float-Daten. Ich habe die Quantisierung für 65000 Teile durchgeführt - das Ergebnis ist absolut dasselbe wie das Modell ohne Quantisierung.

Offensichtlich sehe ich die Effizienz, deshalb verwende ich sie. 65000 Teile sind zu viel. Ich sehe den Sinn der Quantisierung darin, die Daten zu verallgemeinern, um ein kategoriales Merkmal zu schaffen, so dass es wünschenswert ist, dass 2%-5% der gesamten Stichprobe quantisiert werden. Es ist möglich, dass dies nicht für alle Prädiktoren zutrifft - die Experimente sind noch nicht abgeschlossen.

elibrarius #:

Es wird einen Split geben, der die Daten in 2 Sektoren aufteilt - einer hat alle 0's, der andere alle 1's. Ich weiß nicht, was als Quanta bezeichnet wird, ich denke, dass Quanta die Anzahl der Sektoren ist, die man nach der Quantisierung erhält. Vielleicht ist es auch die Anzahl der Splits, wie Sie meinen.

Ja, das ist klar, Sie haben Recht mit der Aufspaltung, ich habe eher gelächelt. Im Allgemeinen gibt es ein Konzept der Quantentabelle bei CatBoost, dort gibt es genau Splits, und ich selbst verwende Segmente - zwei Koordinaten, und vielleicht können sie Quanten oder Quantensegmente genannt werden. Ich kenne die richtige Terminologie nicht, aber ich nenne sie für mich so.

 
elibrarius #:

Es gibt keinen Grund zu hoffen, dass das beste Modell in der Prüfung auch in Zukunft profitabel sein wird. Der Durchschnitt oder die meisten sollten rentabel sein.

Es ist genau wie beim Tester-Optimierer - die besten Modelle werden in 99 % der Fälle Pflaume sein.

Das Ziel ist nun, das Potenzial zu verstehen, das wir anstreben können. Ich werde mit diesen Modellen nicht handeln.

Und ich erwarte, dass die Anzahl der ausgewählten Modelle aufgrund der geringeren Variabilität bei der Split-Auswahl zunehmen wird - wir werden es heute noch sehen.

 
Aleksey Vyazmikin #:

Und ich gehe davon aus, dass die Zahl der geprüften Modelle aufgrund der geringeren Variabilität bei der Split-Auswahl zunehmen wird - wir werden es heute noch sehen.

Wie sich herausstellte, lag ich falsch - die Anzahl der Modelle beträgt nur 79, der durchschnittliche Gewinn bei der Prüfung -1379

 
elibrarius #:

Es gibt keinen Grund zu hoffen, dass das beste Modell in der Prüfung auch in Zukunft profitabel sein wird. Der Durchschnitt oder die meisten sollten rentabel sein.

Es ist genau wie beim Tester-Optimierer - die besten Modelle werden in 99 % der Fälle Pflaume sein.

Übrigens habe ich beschlossen, mir die Stichprobe eines anderen Modells anzuschauen, das ebenfalls nicht im Training war - das Modell, das vorhin herausgeschnitten wurde.

Und hier ist, wie das gleiche Modell auf diese Daten (2014-2018) aussieht.

Bilanz

Ich denke, es ist nicht schlecht, zumindest keine 45-Grad-Pflaume. Können wir also erwarten, dass ein gutes Modell auch weiterhin gut sein wird?

 
Aleksey Vyazmikin #:

Übrigens, hier habe ich beschlossen, mir eine Probe des anderen, der auch nicht in der Ausbildung war, anzusehen - derjenige, der früher geschnitten wurde.

Und das gleiche Modell sieht mit diesen Daten (2014-2018) so aus.

Ich denke, es ist nicht schlecht, zumindest keine 45-Grad-Pflaume. Können wir also erwarten, dass ein gutes Modell auch weiterhin gut sein wird?

vielleicht)

 
elibrarius #:

vielleicht)

Leider habe ich alle Modelle überprüft - diejenigen, die bei der Zug- und Prüfungsprobe mehr als 3000 verdient haben - 39 Stück, bei der neuen-alten Probe zeigten nur 18 (46%) ein profitables Ergebnis. Dies ist sicherlich mehr als 1/3, aber immer noch nicht genug.

Dies ist der Unterschied in den Bilanzen der ausgewählten Modelle zwischen der regulären Prüfungsstichprobe und der verworfenen (2014-2018).

 
Aleksey Vyazmikin #:

Leider habe ich alle Modelle überprüft - diejenigen, die mehr als 3000 auf der Zug- und Prüfungsstichprobe verdient haben - 39 Stück waren es, auf der neuen-alten Stichprobe zeigten nur 18 (46%) profitable Ergebnisse. Dies ist sicherlich mehr als 1/3, aber immer noch nicht genug.

Dies ist der Unterschied in den Bilanzen der ausgewählten Modelle zwischen der regulären Prüfungsstichprobe und der ausrangierten (2014-2018).

Im Allgemeinen ist es noch nicht einmal 50/50 (in Bezug auf den Gewinn). Wenn es bereits schwierig ist, neue Merkmale in Bezug auf das Ziel zu finden, sollte das Ziel vielleicht geändert werden?
 
elibrarius #:
Im Allgemeinen funktioniert sogar 50/50 noch nicht (in Bezug auf den Gewinn). Wenn es schwierig ist, neue Merkmale in Bezug auf das Ziel zu finden, sollte das Ziel vielleicht geändert werden?

Neue Prädiktoren können erfunden werden, es gibt immer noch Ideen, aber ich bin mir nicht sicher, ob das Training auf ihnen basieren wird, wenn man das Prinzip von greed.... berücksichtigt. Vielleicht müssen wir den Ansatz für die Modellschulung ändern und unsere eigenen Transformationen bekannter Algorithmen vornehmen.

Das Ziel kann geändert werden, aber in welche Richtung, hat jemand eine Idee?

 

Ich nahm die Probe aus dem sechsten Schritt, den ich hier beschrieben habe, und vertauschte Prüfung und Test.

Das Training wurde nach denselben Regeln und mit denselben Samen durchgeführt, aber eine andere Stichprobe - später in der Chronologie - war dafür verantwortlich, die Schaffung neuer Bäume zu stoppen.

Infolgedessen beträgt der durchschnittliche Gewinnwert in der Teststichprobe (ehemalige Prüfungsstichprobe) -730,5 - zur Erinnerung: während des chronologischen Trainings betrug der Durchschnittswert in der Teststichprobe 982,5 und in der Prüfungsstichprobe (ehemalige Test stichprobe ) 922,49 Punkte, während er in der ursprünglichen Variante -1114,27 Punkte betrug.

Abbildung 1 Histogramm der Gleichgewichtsverteilung der ursprünglichen Teststichprobe bei Verwendung als Prüfungsstichprobe.

Abbildung 2 Histogramm der Verteilung des Saldos der Stichprobe bei Verwendung als Prüfungsstichprobe.

Wenn die Proben chronologisch angeordnet waren, lag der Durchschnittswert der Bäume im Modell bei 11,47, wenn die Reihenfolge der beiden Proben geändert wurde, lag der Durchschnittswert der Bäume im Modell bei 9,11, d. h. man kann sagen, dass die Muster nach dem Vertauschen der Proben weniger deutlich wurden, so dass weniger Bäume benötigt wurden, um sie zu beschreiben.

Gleichzeitig wurden die Muster aufgrund der Kontrolle des Anhaltens durch die tatsächliche Probenahme qualitativer und, wie ich oben angedeutet habe, im Durchschnitt profitabler.

Einerseits bestätigt das Experiment, dass die Stichproben ähnliche Muster enthalten, die sich über Jahre hinweg fortsetzen, aber gleichzeitig werden einige von ihnen weniger ausgeprägt oder verlagern ihre Wahrscheinlichkeit sogar in den negativen Bereich des Ereignisausgangs. Es hat sich gezeigt, dass nicht nur die Prädiktoren selbst, sondern auch ihre Verwendung im Modell das Ergebnis des Trainings beeinflussen.

Daraus ergibt sich, was wir haben:

1. Eine nicht repräsentative Stichprobe.

2. Zufällige Muster, die bei der Erstellung des Modells die stabilen Muster "überschatten" können, oder die Methode der Modellbildung selbst ist nicht zuverlässig genug.

3. Abhängigkeit des Modellergebnisses vom Stichprobenbereich (früherer Stichprobenzug zeigte gute Ergebnisse in der Rolle der Prüfung).

Grund der Beschwerde: