Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1487

 
Aleksey Vyazmikin:

Deshalb müssen wir bei der Sortierung der Prädiktoren und ihrer Werte Schätzungen vornehmen und nicht die Prädiktoren nehmen, deren Werte (Spannen) sehr eng beieinander liegen, sondern diejenigen bevorzugen, die über die gesamte Stichprobe verteilt sind.

Auf dem Backtest sieht immer alles sehr gut aus)
Ich nehme an, Sie brauchen einen einheitlichen Forward? Der Wald weiß nichts über den Stürmer in der Ausbildung.
 
elibrarius:
Nun, beim Backtest sieht immer alles sehr gut aus)
Ich schätze, Sie brauchen eine Uniform für den Stürmer? Der Wald weiß nichts über die Vorwärtsbewegung in der Ausbildung.

Die Bewertung sollte sich auf die beiden an der Schulung beteiligten Stichproben beziehen.

 
Aleksey Vyazmikin:

Die Bewertung sollte sich auf die beiden an der Schulung beteiligten Stichproben beziehen.

die zweite ist die Validierung?
 

Dann wird eine Anpassung mit der Validierungsgrafik vorgenommen. Es kann jedoch funktionieren, wenn die Validierung größer ist als das Training. Im NS von Ivan Butko erfolgt das Training auf einer kleinen Fläche und die Validierung auf einer mehrfach größeren Fläche. Normalerweise betrachten wir die Validierung von 15-25% aller Daten, aber in seinem Video sind es 80%.

 
elibrarius:
die zweite ist die Validierung?

Ja, wenn es zutrifft.

Im Allgemeinen denke ich, je größer die Stichprobe, desto besser - es ist eine Frage der Robustheit der Prädiktoren, nicht nur des Lernens.

Es könnte möglich sein, die Daten vorzuverarbeiten, um nur die Bereiche der Prädiktorwerte zu clustern, die nicht selten sind, aber durch die Stichprobe stark verzerrt sind.

Ersetzen Sie sie konventionell durch -1 und verbieten Sie die ersten Spagate auf ihnen, zumindest bis zu einer Tiefe von 2-3.

 
elibrarius:

Dann wird eine Anpassung mit der Validierungsgrafik vorgenommen. Es kann jedoch funktionieren, wenn die Validierung größer ist als das Training. Im NS von Ivan Butko erfolgt das Training auf einer kleinen Fläche und die Validierung auf einer mehrfach größeren Fläche. Hier betrachteten wir üblicherweise Varianten mit einer Validierung von 15-25% aller Daten, in seinem Video etwa 80%.

Es wird keine große Übereinstimmung geben, denn wir trainieren nicht im Wesentlichen auf der Validierung, sondern wir entnehmen ihr nur zusätzliche Informationen über die Marktstruktur.

 
Aleksey Vyazmikin:

Ja, wenn es zutrifft.

Im Allgemeinen denke ich, je größer die Stichprobe, desto besser - es ist eine Frage der Robustheit der Prädiktoren, nicht nur des Lernens.

Es könnte möglich sein, die Daten vorzubearbeiten, um nur die Bereiche der Prädiktorenwerte zu clustern, die nicht selten sind, aber in der Stichprobe stark vertreten sind.

Ersetzen Sie sie konventionell durch -1 und verbieten Sie erste Spaltungen auf ihnen, zumindest bis zu einer Tiefe von 2-3.

Zu kompliziert... Der Standardalgorithmus zur Baumbildung ist einfach und schnell.
Aleksey Vyazmikin:

Es wird keine besondere Anpassung geben, da wir nicht aus der Validierung lernen, sondern nur zusätzliche Informationen über die Marktstruktur entnehmen.

Die einzige akzeptable Variante ist, wenn die Validierung der Ausbildung entspricht oder größer ist als diese.
Und wir kommen an den Punkt, an dem wir die Validierung einfach in die Trainingsgrafik aufnehmen müssen.
 
Gral:

Nein, welche Art von svm ist diese "Parzen-Fenster", Kernel-Glättung, und"quasi-optimal" in dem Sinne, dass es fast perfekt ist (Mitchell hatte es irgendwo), aber nur sehr langsam, jede Iteration - Sortieren der gesamten Datensatz zu einem neuen Punkt und Faltung mit dem Kernel

Ich bin mir nicht sicher, wie sich das auf die Nicht-Stationarität auswirkt... und wenn es langsam ist, ist es schwer, überhaupt ein Verhältnis zu finden.

Imho liegt das Hauptproblem in der Skalierung/Transformation der Daten und der Schleifenextraktion, da selbst nichtlineare Regression oder SVM gute Ergebnisse liefern, wenn sich die Muster wiederholen (bei künstlicher VR)

d.h. die Probleme mit der Musterauswahl sind weit hergeholt
 
Maxim Dmitrievsky:

das Hauptproblem ist die Skalierung/Konvertierung der Daten und die Hervorhebung der Schleifen

Ja, genau.

 
elibrarius:
Zu kompliziert... Die einzige akzeptable Variante ist, wenn die Validierung der Ausbildung entspricht oder größer ist als diese.
Und wir kommen zu dem Punkt, an dem wir nur noch die Validierung in das Trainingsdiagramm aufnehmen müssen.

Standardalgorithmen sind für die Arbeit mit stationären Phänomenen, geschlossenen Systemen, konzipiert, so dass dort jede Information a priori als nützlich angesehen wird und es keine Bewertung unter dem Gesichtspunkt der Zufälligkeit gibt, sondern nur die Möglichkeit, sie für die Aufgabe zu nutzen (Klassifizierung nach Ziel), während wir eine Menge Rauschen haben und ich einen logischen Weg vorgeschlagen habe, es zu bekämpfen.

Und ja, ich bin bei der Herbariumsammlung von der Validierung als solcher abgerückt und habe die Kriterien für die Blattbewertung, einschließlich der Effizienz auf zeitlichen Parzellen, beibehalten. Jetzt habe ich mehr als 50 Tausend Blätter aus allen Baumvarianten, von denen nur etwa 200 als Signal und 600 (3 pro Signalblatt) als Filter ausgewählt werden, was die Ergebnisse (in den meisten Zeiträumen) erheblich verbessert.

Wir müssen davon ausgehen, dass alles, was wir tun können, darin besteht, einen Algorithmus für die beste Anpassung an die Daten zu entwickeln, da wir die Zukunft nicht kennen und es viele Variationen gibt, selbst auf der Grundlage der verfügbaren Vorhersagewerte. Und wenn wir Glück haben, finden wir ein Muster, das für einige Zeit bestehen bleibt. Daher ist es wichtig, nach einem solchen Muster mit bestimmten Kriterien zu suchen, und die Logik legt nahe, dass es zumindest ein Muster sein sollte, das in der gesamten Stichprobe auftritt. Deshalb besteht die Aufgabe darin, einen Algorithmus zu entwickeln, der viele solcher Muster erzeugt und daraus Bäume bildet.

Ein einfaches Beispiel für den möglichen Schutz ist das Aufspüren eines Teils einer Stichprobe mit einer bestimmten Preisspanne, an der ein langes Flat festgelegt wurde - wenn wir jetzt trainieren, erhalten wir zwei Preisspannen (oder Rückkehrer von den oberen TFs), an denen wir handeln können, aber es ist unwahrscheinlich, dass ein Flat in der Zukunft an derselben Stelle festgelegt wird. Und mit dem von mir vorgeschlagenen Ansatz, mit den gleichen Merkmalen, werden die Streiklevels eher als sinnvoll für die Ereignisgenerierung befunden werden.