Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3210
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Die ganze Branche der aktiven Marktforscher sitzt hier auf R, das ist sozusagen die Zusammenfassung...
Das oben erwähnte Problem besteht darin, dass es ein Modell gibt, das hervorragende Ergebnisse bei einer Trainingsdatei und einer OOS-Datei erzielt. Ich weiß, dass die Trainingsdatei auch durch Stichproben gewonnen werden kann, und die OOS-Datei ist ein Rückstand aus der Trainingsdatei.
Aber wenn das Modell auf einer externen Datei läuft, ist das Ergebnis katastrophal schlecht.
Ich erinnerte mich, dass ich vor einigen Jahren eine solche Variante hatte.
Es ist mir gelungen, die Ursache zu finden. Der Grund war das Vorausschauen, ein äußerst ungünstiger Grund, denn es ist sehr schwierig zu verstehen, was das Vorausschauen ist.
Dann habe ich ein Modell erstellt, in dem der Lehrer die Inkremente von ZZ ist, und es gibt eine Menge Prädiktoren, an deren Berechnung ZZ beteiligt war. Zum Beispiel die Differenz zwischen Preis und ZZ. Beim Training habe ich einfach einen Teil der Datei abgeschnitten, der nicht die richtigen Verknüpfungen von ZZ enthielt. Und bei der Berechnung der Prädiktoren wurden die fehlenden ZZ-Werte um den letzten Link erweitert.
Die drei Dateien (dies ist in Rattle), die eine Zufallsstichprobe darstellen, ergaben einen Klassifizierungsfehler von etwa 5 %. Die vierte Datei, die in keinem Zusammenhang mit den ersten drei steht, ergab jedoch einen Zufallsfehler.
Wenn wir jedoch alle Prädiktoren, an deren Berechnung ZZ beteiligt ist, entfernen, passt alles zusammen: Der Klassifizierungsfehler ist bei allen vier Dateien ungefähr gleich.
Dies ist ein Blick in die Zukunft.
Bei der Umschulung ist die Sache klar: Man muss extrem vorsichtig sein, um die Optimierung im Prüfprogramm zu nutzen, und in R die Liste der Prädiktoren von Müll befreien. Aber wie erkennt man vorausschauendes Verhalten?
Aus Erfahrung ist Folgendes klar: Wenn der Klassifizierungsfehler bei Train, Test und Validierung weniger als 10 % beträgt, sollten Sie einen Prädiktor nach dem anderen herausnehmen, bis der Fehler auf 20 % 30 % steigt ....
ZigZags sollten zum Zeitpunkt des Balkens aufgezeichnet werden, nicht in die Zukunft.
Für das Modelltraining wurde ZZ nicht erweitert, weil es nicht notwendig ist: Das Muster, nach dem das Modell sucht, ist eine Linie - benachbarte Linien werden nicht berücksichtigt, und die Stichprobe für das Training beträgt 1500 Balken.
Aus Erfahrung gilt: Wenn der Klassifizierungsfehler bei Train, Test und Validierung weniger als 10 % beträgt, dann werfen Sie dummerweise einen Prädiktor nach dem anderen raus, bis der Fehler auf 20 % 30 % steigt ....
Genial)))))
Wie findet man echte Prädiktoren mit einem Fehler von weniger als 10 %?
Sagen Sie mir nicht, es gäbe sie nicht, es ist eine Frage des Glaubens....
Woher kommt dieser Zick-Zack-Mist, wer hat ihn zuerst erfunden?
Sind Sie selbst daran interessiert oder überhaupt nicht daran interessiert, über den Inhalt des Problems zu schreiben, anstatt sich selbst zu zeigen?
Es ist mir gelungen, den Grund zu finden. Der Grund ist der Blick nach vorn, ein äußerst unbequemer Grund, denn es ist äußerst schwierig zu verstehen, was der Blick nach vorn ist.
Dann habe ich ein Modell verwendet, bei dem der Lehrer die Inkremente von ZZ ist, und es gibt eine Menge Prädiktoren, in deren Berechnung ZZ involviert war. Zum Beispiel die Differenz zwischen Preis und ZZ. Beim Training habe ich einfach einen Teil der Datei abgeschnitten, der nicht die richtigen Verknüpfungen von ZZ enthielt. Und bei der Berechnung der Prädiktoren wurden die fehlenden Werte von ZZ um den letzten Link erweitert.
Um das Peeken zu vermeiden, sagt Forester richtig, dass man die Prädiktoren in der Schleife bei jeder Iteration ohne Peeken berechnen sollte....
Das ist die Lösung.
Genius)))))
Wie findet man dann echte Prädiktoren mit weniger als 10% Fehler?
Sagen Sie mir nicht, dass es keine gibt, das ist eine Frage des Glaubens.....
Das ist ganz einfach.
Ich habe oben geschrieben, wie ich es mit dem Beispiel von ZZ gemacht habe.
Aber es geht nicht um ZZ: Wir setzen die Sprüche des Lehrers in die Prädiktoren ein und erhalten Glück, bevor wir auf der Datei OUT laufen.
Und man kann nicht auf der Datei OUT laufen und glücklich leben, wie Maxim es mit sehr schönen Bildern tut.
Aber zurück zu dem Problem der Blick nach vorn. Vorgeschlagene stumpfes Überschießen. Oder gibt es vielleicht etwas anderes?
Sind Sie selbst daran interessiert oder überhaupt nicht daran interessiert, über die Vorzüge des Problems zu schreiben, anstatt Ihr Lieblings-Ich zur Schau zu stellen?